Ich habe eine PCIe NT-Karte Intel e1000 aus dem ESX entfernt um einen PCIE-Steckplatz frei zu bekommen und dafür die MB-eigene RTL8111D aktiviert.
NT-Chip wurde sogleich erkannt und wird im Client mit 1000Mb/s geführt als funktionieren.
Nach einigen Umstellungen und 2 Neustarts laufen jetzt die VMs wieder.
Mehr durch zufall bin ich an diese Webseite geraten: http://blog.cyberexplorer.me/2013/03/improving-vm-to-vm-network-throughput.html
Dort beschäftigt man sich mit dem Netzwerkdurcjsatz innerhlab des ESX.
Wenn ich Ausführungen richtig verstehe, dann sollten VMs untereinander sehr hohe Geschwindigkeiten erreichen, so etwa > 10Gbps.
Jetzt habe ich das ganz mal zwischen 2 Windows 7 VMs probiert und bin masslos enttäuscht:
- Beide VMs haben VMXNET3-Karten eingebaut
- beide VMs behaupten mit 10Gbps angebunden zu sein.
Leider kommen dennoch nur 12-15Mbit/s zustande - auch nach Aktivierung der Jumbo Frames auf 9000 und ABschalten des LSO für IPv4 und IPv6
Woran kann das liegen ?
Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!
Netzwerk-Performance ESXi 5.1 /RTL8111D
-
Dayworker
- King of the Hill
- Beiträge: 13657
- Registriert: 01.10.2008, 12:54
- Wohnort: laut USV-Log am Ende der Welt...
Du erwartest von einer Realtek-Nic aber nicht wirklich eine performante Funktion? Sei zufrieden, daß dieses Gerät überhaupt vom ESXi seit Version 5 erkannt wird.
Die Intel-Nic ist auch nicht unbedingt schneller als eine Realtek-Nic, bleibt aber auch unter Last stabiler in Durchsatz und vor allem Latenz.
Die Intel-Nic ist auch nicht unbedingt schneller als eine Realtek-Nic, bleibt aber auch unter Last stabiler in Durchsatz und vor allem Latenz.
Wie kommt aber die Linkgeschwindigkeit von 10Gbps zustande ?
Im übrigen messe ich den Durchsatz VM <-> VM.
Das Argument, schlechte Hardware würde ich durchaus akzeptieren wenn es um den Durchsatz Physical -> VM geht.
Kann man da irgendwo etwas verbessern. Der gemessene Wert ist ja nun wirklich grottenschlecht.
Im übrigen messe ich den Durchsatz VM <-> VM.
Das Argument, schlechte Hardware würde ich durchaus akzeptieren wenn es um den Durchsatz Physical -> VM geht.
Kann man da irgendwo etwas verbessern. Der gemessene Wert ist ja nun wirklich grottenschlecht.
-
irix
- King of the Hill
- Beiträge: 13058
- Registriert: 02.08.2008, 15:06
- Wohnort: Hannover/Wuerzburg
- Kontaktdaten:
drnicolas hat geschrieben:Wie kommt aber die Linkgeschwindigkeit von 10Gbps zustande ?
Es ist ein virtuelles Geraet und hat nichts mit dem phy. Netzwerk gemein. Die Anzeige kommt auch wenn garkeine pNICs dem vSwitch zugeordnet sind. Des weiteren hilft es beim Netzwerk Benchmarken die FW des OS zu deaktivieren.
Aber ich wiederhole meine Frage mit was du da pruefst.
Gruss
Joerg
-
Dayworker
- King of the Hill
- Beiträge: 13657
- Registriert: 01.10.2008, 12:54
- Wohnort: laut USV-Log am Ende der Welt...
Die Angabe im Gast kannst du getrost ignorieren und das sowohl im positiven als auch negativen Sinne. Selbst wenn im Host eine Tokenring-Karte oder eine sonstige mit BNC-Verkabelung hängen würde, erscheint im Gast trotzdem die Geschwindigkeit der damit ausgestatteten Nic. Diese kann im Gast dann natürlich nur die durch die Host-Nic vorgegebene Geschwindigkeit erreichen. Es ist aber auch der umgedrehte Fall mit schneller Host- und langsamer Gast-Nic möglich, bei der die Gast-Nic eine eigentlich nicht mögliche Performance zeigt.
Im Endeffekt ist die Netzwerkperformance nur von der Host- und Gastauslastung abhängig, da bis auf die CPU alle andere VMware-HW in SW abgebildet werden. Auf stark ausgelasteten Hosts können die Gast-Nics ihre volle Geschwindigkeit nicht erreichen und genau aus diesem Grund ist es auch so wichtig, einen Server immer über mindestens zwei Nic's anzubinden, damit man den Gast-Verkehr sauber vom priorisierten VMware-Verwaltungsnetzwerk (vmk) trennen kann.
Im Endeffekt ist die Netzwerkperformance nur von der Host- und Gastauslastung abhängig, da bis auf die CPU alle andere VMware-HW in SW abgebildet werden. Auf stark ausgelasteten Hosts können die Gast-Nics ihre volle Geschwindigkeit nicht erreichen und genau aus diesem Grund ist es auch so wichtig, einen Server immer über mindestens zwei Nic's anzubinden, damit man den Gast-Verkehr sauber vom priorisierten VMware-Verwaltungsnetzwerk (vmk) trennen kann.
Re: Netzwerk-Performance ESXi 5.1 /RTL8111D
drnicolas hat geschrieben:Ich habe eine PCIe NT-Karte Intel e1000 aus dem ESX entfernt um einen PCIE-Steckplatz frei zu bekommen und dafür die MB-eigene RTL8111D aktiviert.
...Wenn ich Ausführungen richtig verstehe, dann sollten VMs untereinander sehr hohe Geschwindigkeiten erreichen, so etwa > 10Gbps.....
Das mag vielleicht für RAM zu RAM Transfers der VM's gelten. Aber 10Gbs bedeutet ja auch über reine 1000MB Transferspeed. Kann dein Storage überhaupt so viel liefern? Das Problem wird sicher nicht an dem NW-Karten Tausch liegen.
Gehen wir mal von dem hier von dir geposteten Gigabyte H55M-USB3 aus, so liegen die 2 Win7 VM's bestimmt auf der gleichen Platte (ohne Raid und allem) und du kopierst von VM a nach VM B. Das wird dann halt nicht schneller.
-
mbreidenbach
- Experte
- Beiträge: 1006
- Registriert: 30.10.2004, 12:41
Netzwerkperformance in VMs kann man z.B. mit iperf messen. Stand ja schon weiter oben seh ich grad.
http://sourceforge.net/projects/iperf/
Lesestoff:
http://kb.vmware.com/kb/2013105 Troubleshooting networking issues when using VMware products (2013105)
http://communities.vmware.com/docs/DOC-5500 Network Performance Analysis and Monitoring
http://sourceforge.net/projects/iperf/
Lesestoff:
http://kb.vmware.com/kb/2013105 Troubleshooting networking issues when using VMware products (2013105)
http://communities.vmware.com/docs/DOC-5500 Network Performance Analysis and Monitoring
Zurück zu „vSphere 5 / ESXi 5 und 5.1“
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 5 Gäste