Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

VMXNET3 - Performance - Seltsam

Moderatoren: Dayworker, irix

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

VMXNET3 - Performance - Seltsam

Beitragvon UrsDerBär » 12.03.2013, 22:35

Scheinbar ist es leider immer noch so, dass der VMXNET3 Adapter in Windows nicht wirklich stabil ist.

Anfangs war die Performance top. Nach ein paar Kopieraktionen brach die Performance plötzlich völlig zusammen und hatte teilweise längere Aussetzer wo gar nichts mehr ging. Konnte ich auf mehreren VM's nachstellen.
ESXi mit dem neusten Build, Client OS W2008R2 und W2012

Folgende Anleitung hat tatsächlich geholfen: http://kb.vmware.com/kb/2039428

Konnte den einen Wert nicht wirklich setzen (Netsh int tcp set global congestionprovider=None), funktioniert hats trotzdem, danach war die Performance auf den Schlag wieder auf gewohntem Niveau.


Was ich noch nicht verstehe:
Folgender Aufbau:
ESXi 1:
- Server 2012 Storage App (VMXNet3), NFS an den ESXi
- VM auf dem NFS-Storage der StApp (VMXNEt3)
- Zweite Festplatte auf dem NFS-Storage der StApp
- Dritte Festplatte auf einem NAS, ebenfals per NFS

ESXi2:
- VM auf Local Storage (E1000)
- Zweite Festplatte auf NFS-Storage von ESXi 1 (StApp)
- Dritte Festplatte auf einem NAS, ebenfalls per NFS

Alles mit Jumbos auf 9000, Switch, Management-Port, innerhalb der StorageApp.
Transfers erfolgt jeweils ausschliesslich über die Management-Ports. jeweils ein 1Gbit Port ist aktiv.

Schreibe ich nun zbsp. von der VM auf ESXi vom NAS auf die lokale NFS-StApp dann ist die Performance irgendwo im Bereich von 70-100MB

Schreibe ich nun aber von der VM auf ESXi2 von einer lokalen Festplatte auf die Festplatte welche in der Storage Appliance auf dem ESXi1 liegt, ist die Performance anfangs (erste 3GB). der Faktor 3, und dann stabil Faktor 2 bis zum Schluss (zwei weitere Jobs a 3GB).

Wie ist das nun möglich bzw. wo wird hier gecached oder wo liegt der Bottleneck, dass lokale Kopien die nicht über die Switches müssen langsamer sind als jene die über die Switches müssen? Theoretisch müsste es ja anders rum sein.

Den CPU's ist jeweils ziemlich langweilig.

Guru
Beiträge: 2761
Registriert: 23.02.2012, 12:26

Beitragvon ~thc » 13.03.2013, 11:38

Äh - ist dieses Setup eine private Spielwiese?

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 13.03.2013, 12:09

Spielt das eine Rolle? :D

Keine Angst, Cross-Festplatten-Spielchen werden keine gemacht. Dient nur zum herausfinden wo die Problemchen liegen. Da ist es

Ansonsten: Ja, Testwiese und anschliessend produktiv (bin ja nicht der einzige der ne StorageApp einsetzt, ich nehme dazu einfach ein robustes Windows)
Ist übrigens sehr crashresistent das Ganze, hab das nun auf verschiedenste Varianten zu zerstören versucht mit simulierten Stromausfällen, Willkürliches entfernen von Festplatten usw. Rückspielung von nem Backup im Desasterfall extremst schnell. Aber soll jetzt hier nicht die Diskussion sein.

Mich würde viel mehr interessieren ob jemand weiss woher dieses Verhaltne kommt, dass interne Verschiebungen auf dem gleichen Host obwohl aus verschiedenen Datenquellen langsamer sind, als via einem zweiten Host.

Member
Beiträge: 206
Registriert: 09.09.2010, 14:12

Beitragvon Sven_B1982 » 13.03.2013, 12:43

Also wenn ich das richtig verstehe sieht es bei dir so aus:

ESXi1:

Kopieren von HDD3 auf HDD1

ESXi2

Kopieren von HDD1 auf HDD1 des ESXi1

??

oder sind da noch mehr konstellationen getestet worden?

ansonsten ist die Frage ist das wirklich ein Gbit Netzwerk? du schreibst konstant Faktor 2, das wären selbst bei 2*70MB/s 1120Gbit/s. hast du auch die Zeiten mal mitgestoppt um anzeigefehler auszuschließen?

sollte der transfer im ESXi1 auf der selben Netzwerkschnittstelle sein würd ich einfach mal sagen das ganze hat was mit dem zugriff auf das medium zu tun, so hat der ESXi1 bei maximalen UP/Download immer Phasen wo empfangsbestätigungen reinkommen, das bremst mal den upload mal den Download gering aus wodurch auch keine 120MB/s erreicht werden können, kann aber dafür sorgen das es verzögerungen gibt die den flaschenhals darstellen und auch nebeneffekte haben können die alles ausbremsen(leer/vollgelaufener Schreib/lesecache was wieder Plattenaktivität beeinflusst...). Bei der verschiebung über 2 Hosts kann es auch sein das die VM das ganze im RAM cached was bei einer lokalen verschiebung aufgrund des möglichen Flaschenhals netzwerk garnicht möglich ist.

Guru
Beiträge: 2761
Registriert: 23.02.2012, 12:26

Beitragvon ~thc » 13.03.2013, 12:45

Na ja. Ich würde

- keine 9 GB über ein Management-Interface schicken
- keine Jumbo-Frames über ein Management-Interface schicken (über ein sparates, dediziertes vmkX schon)
- keinen Windows Server 2012 produktiv einsetzen
- keinen Windows-Server als NFS-Server einsetzen
- keine produktiven VMs mit VMXNET3 betreiben
- nur echte physische Storage (NFS/Linux oder iSCSI) einsetzen

Deswegen fragte ich. Auf solche Ideen muss man ja erst mal kommen...

Wenn du im ersten Fall aus dem NAS auf den virtuellen Storage schreibst, ist dann die Leserate des NAS (physisch?) höher als 100 MB/s? EDIT: Kann es sein, dass du hier mit 100MB/s über das virtuelle Netzwerk ziehst und mit 100 MB/s auf die Storage schreibst (also auch brutto auf 200 MB/s kommst)?

Im zweiten Fall gehen über eine VM mit E1000 200-300 MB/s? Wie das in eine physische 1 GBit-Verbindung hineinpasst, kann ich dir auch nicht sagen, aber die nominale Geschwindigkeit von virtueller Hardware ist nicht bindend.

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 13.03.2013, 13:47

@Sven: Ja es wurden allerlei Konstellationen getestet. Innerhalb der Storage-VM habe ich höhere Durchsatzraten.

Wenn ich jeweils von ESXi 1 von einem Local Storage (nicht jener der via NFS bereitgestellt wird) lese und auf auf den Local Storage welcher mit NFS angebunden ist schreibe habe ich die normale Durchsatzrate von 70-100MB/Sek. Leicht Wellenförmiger Durchsatz. Anfangs aber auch höher.

Schreibe ich von einer lokalen Festplatte von ESXi 2 auf eine Festplatte welche auf dem NFS auf dem ESXi 1 liegt, habe ich diesen Extremen Durchsatz. Und ja, auch per Stoppuhr ist das rund doppelt so schnell. Switch und Nic's ist definitiv 1Gbit.

~thc hat geschrieben:Na ja. Ich würde
- keine 9 GB über ein Management-Interface schicken
War eher VMK Port gemeint, aber ist tatsächlich gemeinsam.
- keine Jumbo-Frames über ein Management-Interface schicken (über ein sparates, dediziertes vmkX schon)
Da hast Du natürlich recht, da gehört nen eigener vmk hin. Werde ich austesten ob das etwas hilft. Mache ich bei iSCSI schliesslich auch immer so. IP-Range muss dementsprechend auch hier anders sein oder? --> Sonst nimmer er evtl. den falschen Port.
- keinen Windows Server 2012 produktiv einsetzen
Gründe?
- keinen Windows-Server als NFS-Server einsetzen
Funktioniert zumindest astrein und ist imho sogar supported. Dateisystem auch sehr robust.
- keine produktiven VMs mit VMXNET3 betreiben
Naja, da hört man eben alles mögliche. War auch ein Novum für mich. Angeblich schafft ja E1000 nur 1Gbit?
- nur echte physische Storage (NFS/Linux oder iSCSI) einsetzen
Das tat ich normal auch. Ist hier aber nicht gewünscht. ;)

Deswegen fragte ich. Auf solche Ideen muss man ja erst mal kommen...

Kein Problem, da es meine eigene Umgebung ist, ist das kein Thema. Geht vor allem um die Machbarkeit und Langzeittest.

Wenn du im ersten Fall aus dem NAS auf den virtuellen Storage schreibst, ist dann die Leserate des NAS (physisch?) höher als 100 MB/s?
Nicht wirklich. Bzw. nur leicht. Höher ist es eigentlich nur wenn ich von lokal lese.

Im zweiten Fall gehen über eine VM mit E1000 200-300 MB/s? Wie das in eine physische 1 GBit-Verbindung hineinpasst, kann ich dir auch nicht sagen, aber die nominale Geschwindigkeit von virtueller Hardware ist nicht bindend.
Korrekt. Gibts da also evtl. nen grösseren WriteBuffer im ESXi? Fals ja, wird der beim Storage auf der gleichen Maschine evtl. doppelt gefüllt und somit gibts Probleme? Bei sehr vielen kleinen Files sinkt der Durchsatz aber auch runter. Vielleicht reicht das um den Puffer abzuarbeiten?

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 13.03.2013, 14:12

Scheint tatsächlich so zu sein, dass Daten vom ESXi gecached werden wenn sie ausserhalb des Local-Storage liegen. Die Storage-VM zeigt auch nach dem Kopiervorgang jedenfals noch länger konstante Eingänge.

Verwende ich nur grosse Dateien, dann wird der Cache nicht wirklich geleert und Speed sinkt tatsächlich nach ein paar GB auf die ca. 70-90. Kommen kleine nach sinkt der Speed weiter und scheint sie abarbeiten zu können, weill wenn wieder grosse kommen, ist der Speed wieder oben.


Insofern also Entwarnung... Zu Deinen Punkten hätte ich aber trotzdem gerne noch ein paar Infos. Vielen Dank :)

Guru
Beiträge: 2761
Registriert: 23.02.2012, 12:26

Beitragvon ~thc » 13.03.2013, 15:16

Der WIndows Server 2012 ist noch zu jung. Die Unterstützung unter ESXi 5 ist noch zu jung. Die aktuellen Mechanismen der Softwareindustrie führen generell zum verfrühten Marktstart unreifer Produkte. Da ich meinen Auftraggebern gerne stabile Lösungen hinstelle, nehme ich grundsätzlich (ungefähr bis zum Service Pack 1 ;) ) die gereiften Versionen.

NTFS ist eines der robustesten FS, die ich kenne. Aber dann einen Dienst auf einen Windows Server zu setzen, der unter Unix/Linux "groß" geworden ist, nur um die Vorteile des NTFS zu nutzen? Kann man machen, würde mir aber nicht in den Sinn kommen. Ich fahre ja auch nicht mit einer 10-Meter-Hummer-Stretch-Limo 150 Meter zum Bäcker sondern mit dem Fahrrad. Die Angriffsfläche einer Linux-Box ist viel kleiner und sie muss auch nicht alle 30 Tage neu starten. Und ich kann einer Linux-Box sagen, sie soll sich nur mit NFS befassen und nicht mit sich selbst.

Nochmal: Die nominale Geschwindigkeit von virtueller Hardware sagt nichts über die reale Leistung aus! Setze doch mal ein paar VMs mit E1000 (Win 7 / 2008 R2) und E1000e (Win 8 / 2012) auf und lasse sie Dateien schieben. Wenn die Lese/Schreibleistung deutlich unter dem bleibt, was deine physische Storage leisten kann, dann kann man immer noch Experimente mit dem VMXNET3 machen.

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 13.03.2013, 15:51

~thc hat geschrieben:Der WIndows Server 2012 ist noch zu jung. Die Unterstützung unter ESXi 5 ist noch zu jung. Die aktuellen Mechanismen der Softwareindustrie führen generell zum verfrühten Marktstart unreifer Produkte. Da ich meinen Auftraggebern gerne stabile Lösungen hinstelle, nehme ich grundsätzlich (ungefähr bis zum Service Pack 1 ;) ) die gereiften Versionen.
OK, ist ein Argument. Zumindest der Server scheint immerhin zuverlässig zu funktionieren und stabil zu sein.

Windows für NFS: OK, kann man so sehen. Ich nutze hier das neue Software-RAID von den StoragePools. Nach exzessiven Tests bin ich der Meinung das es extremst robust ist. ZFS traue ich nicht mehr wirklich, auch wenn die Features Top sind. Die VM hat sonst aber keinerlei Aufgaben und kommt nicht ins produktive Netz, muss also auch nicht ständig Updates bekommen. Auch mag ich Windows für einfache Aufgaben wie kopieren etc. Ein Backup kann ich via StorageApp direkt vom NAS mit vollem Speed via der StorageApp per Klick ziehen. Braucht man solchen Kram nicht jeden Tag, ist das imho einiges sicherer und einfacher als per Kommandozeile. Zumal mich an Linux die Mühsame updaterei nervt. Notfalls könnte ich das sogar per Telefon jemandem durchgeben. ;)

Nochmal: Die nominale Geschwindigkeit von virtueller Hardware sagt nichts über die reale Leistung aus! Setze doch mal ein paar VMs mit E1000 (Win 7 / 2008 R2) und E1000e (Win 8 / 2012) auf und lasse sie Dateien schieben. Wenn die Lese/Schreibleistung deutlich unter dem bleibt, was deine physische Storage leisten kann, dann kann man immer noch Experimente mit dem VMXNET3 machen.

Werde das mal ausprobieren ob ich mit E1000 über 1Gbit via internem NFS komme. Dachte das sei beschränkt auf 1Gbit. Verwende ich nämlich nicht nur nen Spiegel sondern auch nen Stripset, wächst die konstante Leistung linear mit. 1Gbit ist schon ohne Stripe, mit nem einfachen Spiegel über zwei Platten (SSD) erreicht.
Da alle meine Storages bis dato nie mehr geleistet haben, kam ich auch nicht auf die Idee was anderes wie E1000 zu nehmen. ;)

King of the Hill
Beiträge: 13657
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 13.03.2013, 17:05

UrsDerBär hat geschrieben:ZFS traue ich nicht mehr wirklich, auch wenn die Features Top sind.
Warum das?


UrsDerBär hat geschrieben:Zumal mich an Linux die Mühsame updaterei nervt.
Unter Linux ist das allein von der Distro abhängig. Was dem OpenSUSE sein "zypper up" ist dem Ubuntu sein "apt-get update" und so weiter. Meine Ubuntu bzw Lubuntu-Systeme werden alle als 5er-Schritt aktualisiert:
  1. sudo apt-get update
  2. sudo apt-get upgrade
  3. sudo apt-get dist-upgrade
  4. sudo apt-get autoremove
  5. sudo apt-get clean

    Selbst ein Distro-Upgrade wie zuletzt bei mir von 11.10 über 12.04 auf aktuell 12.10 war damit geschmeidig machbar. Das mag vielleicht anders aussehen, wenn man externe PPAs noch hinzugefügt hat. Ohne diese lief es bei mir über:
  6. do-release-upgrade -c ..=>Test auf mögliches Distro-Upgrade
  7. do-release-upgrade -d ..=>Start des Distro-Upgrade
Das finde ich extrem einfach per Commandzeile und dazu braucht man notfalls nur einen schmalen SSH-Zugang bzw manchmal geht das sogar noch über den Serialport. Bei Linux kommt noch hinzu, daß die Updates in 98% aller Fälle auch ohne Reboot spielen. Reboots waren bei mir ausschließlich wegen spezieller GPU-Treiber (Cuda) oder Kernel-Upgrades notwendig. In meiner Zabbix-Appliance wurden selbst MySQL und Apache vor dem Update vom Updater (zypper bzw apt-get) angehalten und danach wieder neu gestartet.
Solange man keine propitäre Software (VMware-WS/Player/Server) unter Linux nutzen will, läuft das ganze eigentlich sehr widerstandslos durch.


UrsDerBär hat geschrieben:Werde das mal ausprobieren ob ich mit E1000 über 1Gbit via internem NFS komme. Dachte das sei beschränkt auf 1Gbit.
Dir werden die 1Gbit in einer VM auch angezeigt, wenn im Host nur 10Mbit-HW verbaut ist. Von daher ist auch die Gegenrichtung möglich, falls der Host über 10Gbit verfügt und der VM trotzdem nur eine e1000-Karte gegönnt wird. Die Netzwerkperformance in einer VM war bisher immer nur von der drunterliegenden pHW abhängig und daran hat sich bisher nichts geändert.

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 13.03.2013, 17:31

Dayworker hat geschrieben:
UrsDerBär hat geschrieben:ZFS traue ich nicht mehr wirklich, auch wenn die Features Top sind.
Warum das?
A. weil es für Stromausfälle (auch wenn sie dank USV nicht vorkommen sollten) nicht sehr robust ist. B weil ich es schlicht wegs nicht recovern kann. Bei Windows bekomme ich in der Regel alles irgendwie raus.
--> Backupzeitfenster, niemand ders kontrolliert hat usw.

Zum Linux: Mag schon sein, aber ich verstehe Linux einfach zu wenig und reparieren kann ichs auch nicht. :D


Netzwerk: OK: Dann schalte ich das um...

Member
Beiträge: 222
Registriert: 08.12.2004, 13:54

Beitragvon v-rtc » 28.05.2014, 16:36

Hallo zusammen,

ich habe heute mal ein Linux und ein Windows unter VMware 5.1 U2 mit dem VMXNET3 getestet. Gegenstück war ein phys.. Server (SLES 11 SP3) der ebenfalls eine 10GBE Anbindung genießt.

iperf:
Server: iperf -fM -w256k -s
Client: iperf -f m -c xxx.xxx.xxx.xxx -t 60 -P 8

Vom pLinux zum vLinux habe ich die 10GBE bekommen.
Vom pLinux zum vWindows kam der iperf irgendwie nicht zum Ende.

NetIO:
Vom pWindows zum vWindows mit NetIO war es bei udp im zweistelligen Bereich und im TCP Bereich dreistellig, aber mehr als 480MB/s kam nicht zu Stande.

Habt Ihr Ideen?

EDIT: Den KB von oben gibt es leider nicht mehr. :-(

Viele Grüße

Rolf

King of the Hill
Beiträge: 13058
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 28.05.2014, 20:31

Nenn iPerf zwischen Linux und einem Windows haben wir auch noch nicht hinbekommen. Wir haben phys. Windows Server getestet und die Werte waren extrem niedrig. Ich vermute eher ein Problem oder Eigenarten mit dem iperf.exe unter Windows.

Gruss
Joerg

Member
Beiträge: 222
Registriert: 08.12.2004, 13:54

Beitragvon v-rtc » 30.05.2014, 08:23

Hallo Joerg,

wir haben dann noch NetIO getestet. Drt sind die Werte aber wie gesagt auch nicht der HIT. :-(

Mit was habt Ihr dann noch getestet?

Viele Grüße

Rolf

Member
Beiträge: 222
Registriert: 08.12.2004, 13:54

Beitragvon v-rtc » 05.06.2014, 10:49

Gibt es es hier noch Tipps oder Tricks?

Viele Grüße

Rolf

Guru
Beiträge: 2761
Registriert: 23.02.2012, 12:26

Beitragvon ~thc » 05.06.2014, 11:24

Mir fehlen ein paar Infos:

vWindows und vLinux sowie pLinux hast du erklärt - was ist pWindows?
Welches OS fahren die Windows-Maschinen?
Was bedeutet "10 GBE bekommen"?
Hast du praktische Tests mit den Windows-Maschinen versucht (z.B. über CIFS ein Paar GB kopieren - setzt voraus, das beide Seiten 10GBit Daten auf ihrer Storage leisten können)?

Member
Beiträge: 222
Registriert: 08.12.2004, 13:54

Beitragvon v-rtc » 05.06.2014, 11:39

Gerne,
pWindows = physikalischer Windows Server, alle 2008R2 und mit 10GBE Anbindung.
Zwischen dem physikalischen Linux (SLES 11 mit 10GBE) und dem virtuellen Linux (VMXNET3) bekomme ich die 10GBE Leitung ausgelastet mit iperf.
Zwischen dem physikalischen Windows und den virtuellen Windows bekomme ich die Leistung, über NetIO, nicht zustande max. 490MB/s. Dabei ist auch aufgefallen das es über UDP deutlich schlechter ist, als über TCP.

Infrastruktur dahinter: 2 x Cisco 6509 mit 10GBE Modulen.

Brauchst Du noch weitere Infos?

Viele Grüße

Rolf

Guru
Beiträge: 2761
Registriert: 23.02.2012, 12:26

Beitragvon ~thc » 05.06.2014, 12:04

Da haben wir dann mindestens drei Ebenen:
- netio für Windows
- Der Windows Netzwerkstack selbst
- Die Netzwerkkarten (physisch und virtuell)

Dein Test mit den Linux-Boxen hat gezeigt, dass die Physik (Switches, physische NICs im ESX und im pLinux) außen vor bleiben kann.

Setze doch mal zwei VMXNET3-VMs unter 2K8R2 auf und teste netio dort.

Member
Beiträge: 222
Registriert: 08.12.2004, 13:54

Beitragvon v-rtc » 05.06.2014, 16:03

Hier:

Code: Alles auswählen

C:\netio132\bin>win32-i386.exe  -u TestWindows2

NETIO - Network Throughput Benchmark, Version 1.32
(C) 1997-2012 Kai Uwe Rommel

UDP connection established.
Packet size  1k bytes:  125.76 MByte/s (0%) Tx,  124.58 MByte/s (0%) Rx.
Packet size  2k bytes:  19.83 MByte/s (0%) Tx,  21.96 MByte/s (0%) Rx.
Packet size  4k bytes:  43.28 MByte/s (0%) Tx,  38.11 MByte/s (0%) Rx.
Packet size  8k bytes:  65.43 MByte/s (3%) Tx,  60.14 MByte/s (0%) Rx.
Packet size 16k bytes:  93.54 MByte/s (15%) Tx,  98.05 MByte/s (0%) Rx.
Packet size 32k bytes:  132.82 MByte/s (11%) Tx,  146.43 MByte/s (0%) Rx.
Done.


C:\netio132\bin>win32-i386.exe  -t TestWindows2

NETIO - Network Throughput Benchmark, Version 1.32
(C) 1997-2012 Kai Uwe Rommel

TCP connection established.
Packet size  1k bytes:  190.33 MByte/s Tx,  206.30 MByte/s Rx.
Packet size  2k bytes:  278.38 MByte/s Tx,  277.85 MByte/s Rx.
Packet size  4k bytes:  363.16 MByte/s Tx,  358.80 MByte/s Rx.
Packet size  8k bytes:  362.63 MByte/s Tx,  387.55 MByte/s Rx.
Packet size 16k bytes:  390.58 MByte/s Tx,  439.18 MByte/s Rx.
Packet size 32k bytes:  400.88 MByte/s Tx,  378.10 MByte/s Rx.
Done.


C:\netio132\bin>

Die laufen sogar auf dem gleichen vSwitch. Werde den Server aber mal verschieben und berichten.

Viele Grüße

Rolf

Member
Beiträge: 222
Registriert: 08.12.2004, 13:54

Beitragvon v-rtc » 05.06.2014, 16:09

Code: Alles auswählen

C:\netio132\bin>win32-i386.exe  -u TestWindows2

NETIO - Network Throughput Benchmark, Version 1.32
(C) 1997-2012 Kai Uwe Rommel

UDP connection established.
Packet size  1k bytes:  135.79 MByte/s (0%) Tx,  92.50 MByte/s (0%) Rx.
Packet size  2k bytes:  10114.52 KByte/s (0%) Tx,  7894.62 KByte/s (0%) Rx.
Packet size  4k bytes:  20.13 MByte/s (0%) Tx,  15.61 MByte/s (0%) Rx.
Packet size  8k bytes:  38.59 MByte/s (0%) Tx,  31.65 MByte/s (0%) Rx.
Packet size 16k bytes:  65.79 MByte/s (0%) Tx,  62.51 MByte/s (0%) Rx.
Packet size 32k bytes:  116.09 MByte/s (0%) Tx,  30.08 MByte/s (0%) Rx.
Done.

C:\netio132\bin>win32-i386.exe  -t TestWindows2

NETIO - Network Throughput Benchmark, Version 1.32
(C) 1997-2012 Kai Uwe Rommel

TCP connection established.
Packet size  1k bytes:  163.66 MByte/s Tx,  156.15 MByte/s Rx.
Packet size  2k bytes:  223.94 MByte/s Tx,  211.76 MByte/s Rx.
Packet size  4k bytes:  249.37 MByte/s Tx,  264.16 MByte/s Rx.
Packet size  8k bytes:  249.68 MByte/s Tx,  329.07 MByte/s Rx.
Packet size 16k bytes:  296.54 MByte/s Tx,  349.99 MByte/s Rx.
Packet size 32k bytes:  299.74 MByte/s Tx,  364.76 MByte/s Rx.
Done.


C:\netio132\bin>

Nun unterschiedliche Hosts.

Viele Grüße

Rolf

Guru
Beiträge: 2761
Registriert: 23.02.2012, 12:26

Beitragvon ~thc » 06.06.2014, 08:03

Nun ja - damit würde ich erst mal netio ins Auge fassen. Versuch mal Microsofts NTttcp:

http://gallery.technet.microsoft.com/NT ... w-f8b12769

King of the Hill
Beiträge: 13058
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 06.06.2014, 08:21

~thc hat geschrieben:Nun ja - damit würde ich erst mal netio ins Auge fassen. Versuch mal Microsofts NTttcp:

http://gallery.technet.microsoft.com/NT ... w-f8b12769


Danke fuer den Tipp. Werden wir mal ausprobieren.

Gruss
Joerg

Member
Beiträge: 222
Registriert: 08.12.2004, 13:54

Beitragvon v-rtc » 06.06.2014, 09:08

~thc hat geschrieben:Nun ja - damit würde ich erst mal netio ins Auge fassen. Versuch mal Microsofts NTttcp:

http://gallery.technet.microsoft.com/NT ... w-f8b12769

Wir danken auch. Werde es testen.

Viele Grüße

Rolf

Member
Beiträge: 222
Registriert: 08.12.2004, 13:54

Beitragvon v-rtc » 06.06.2014, 11:43

Hallo zusammen,

ich habe nun mal das Programm auf unseren zwei virtuellen Servern getestet. Leider nicht das Ergebnis wie auf der Website:


Code: Alles auswählen

#####  Totals:  #####


   Bytes(MEG)    realtime(s) Avg Frame Size Throughput(MB/s)
================ =========== ============== ================
     7098.000000      15.007       1459.992          472.979


Throughput(Buffers/s) Cycles/Byte       Buffers
===================== =========== =============
             3783.834       1.738     56784.000


DPCs(count/s) Pkts(num/DPC)   Intr(count/s) Pkts(num/intr)
============= ============= =============== ==============
    14650.097         1.613       14727.860          1.604


Packets Sent Packets Received Retransmits Errors Avg. CPU %
============ ================ =========== ====== ==========
     5097830           354571        6635      0     33.161


Ohne viele Parameter habe ich aber auch schon 700MB/s geschafft, aber nicht diese:

Code: Alles auswählen

#####  Totals:  #####
   Bytes(MEG)    realtime(s) Avg Frame Size Throughput(MB/s)
================ =========== ============== ================
    33959.125000      30.016       1456.355         1131.367
Throughput(Buffers/s) Cycles/Byte       Buffers
===================== =========== =============
             9050.939       2.453    271673.000
DPCs(count/s) Pkts(num/DPC)   Intr(count/s) Pkts(num/intr)
============= ============= =============== ==============
    40284.215         1.228       51434.235          0.962
Packets Sent Packets Received Retransmits Errors Avg. CPU %
============ ================ =========== ====== ==========
    24450576          1485400           0      0      4.559


Joerg, wie sieht es bei Euch aus?
Das Ganze spiegelt ein wenig das NetIO wider.

Viele Grüße

Rolf


Zurück zu „vSphere 5 / ESXi 5 und 5.1“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 19 Gäste