Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

Performanceverlust bei der Datenübertragung

Moderatoren: Dayworker, irix

Member
Beiträge: 6
Registriert: 12.06.2013, 14:46

Performanceverlust bei der Datenübertragung

Beitragvon Drachie » 13.06.2013, 10:53

Hallo leute,

ich habe folgendes problem und bekomme es selbst mit hilfer der KB nicht gelöst:

Zwei Server mit EXSi 5.1 und ESX worauf jeweils 2 server laufen sind angeschlossen an einem gemeinsamen gigabit Switch. die übertragungrate vom 2. Server auf den ersten auf dem ESXI 5.1 beträgt 238 mb/s wogegen die übertragung vom 1. auf den 2. server auf dem ESXi 5.1 1070 mb/s beträgt.

desweiteren sinkt die übertragungsrate vom ESX auf den ESXi von 20mb/s von dem 3. server auf den ersten und 8mb/s vom 4. server auf den 1.

ebensosinkt die übertragungsraten auf teilweise 46mb/s bei den beiden Server auf dem ESX.

beide Server sind mit Gigabit netzwerkraten ausgestattet und über eine gigabit leitung auf dem Switsch angeschlossen.

irgend eine idee wie ich die raten auf einen akzeptablen wert von mindestesn 300 mb/s bringen kann?

King of the Hill
Beiträge: 13657
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 13.06.2013, 11:14

Du betrachtest immer nur die Ethernetseite und auch Gig-Ethernet kann dir nicht helfen, wenn in jedem Server nur eine lahme IDE-Platte hängt oder der Switch bremst.
Nun stellt sich also die Frage, wie dein Storage ausgerüstet ist und welcher Switch zum Einsatz kommt. Die hohen Anfangswerte und dann der totale Einbruch lassen jedenfalls vermuten, daß die Übertragung nur solange schnell bleibt, bis der Datenträgercache geleert ist.

Member
Beiträge: 6
Registriert: 12.06.2013, 14:46

Beitragvon Drachie » 13.06.2013, 11:33

Der Switsch ein Cisco Catalyst 4928 10 Gigabit Ethernet

ddas Storage wird als Raid5 aus 4 3tb sata platten gebildet auf beiden Servern. auf den ersten läuft neben einen db server noch ein sbs 2011. auf dem zweiten server ein Terminal server und ein DB server.

ausgestattet sind die beiden Server jeweils mit 128 GB ECC-DDR4 ausgestattet.

Die übertragungsraten von dem SBS (1.vm esxi) aus gehen mittlerweile auf 8mb/s runter während die 2.vm mittlerweile eine übertragungsrate wieder hat von 290+

die übertragungsraten beim ESX sind leider gleich geblieben

King of the Hill
Beiträge: 13657
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 13.06.2013, 11:59

Raid5 war und wird nie ein Performancewunder in Schreibrichtung sein. Die Gründe dafür sind hinreichend bekannt. Dazu kommt, daß auf allen Servern anscheinend noch VMs laufen, die die Werte selbstverständlich nach unten ziehen und dein Raid5 hoffentlich aus 3 Platten + Hotspare besteht. Raid5 zeigt performanteres Verhalten, wenn 3, 5 oder 9 Platten zum Einsatz kommen.


Das deine Server mit DDR4-RAM ausgestattet sind, halte ich, auch wenn die finale Spezifikation dafür seit Semptember 2012 niedergeschrieben wurde, für etwas früh. Davon werden momentan noch Samples verschickt, ein produktiver Einsatz ist daher auch erst ab 2014 zu erwarten. Ich tippe daher auf nen klassischen Schreibfehler...

Member
Beiträge: 6
Registriert: 12.06.2013, 14:46

Beitragvon Drachie » 13.06.2013, 12:29

der DDR4 ist ein schreibfehler, da ich die daten von dem Server aus der dokumentation habe die beim einrichten der Serverlandschaft erstellt wurde.

jedenfalls fakt ist das die datenrate mit netIO gemessen am switch zu den beiden Server zwischen 375 - 1070 mb/s beträgt. aber von und zu der 1.vm auf dem esxi zwischen 8 - 238mb/s liegt.

wogegen die zu und von der 2. vm auf dem esxi zwischen 409 - 1070 mb/s beträgt.

von und zu der 2vm vm auf dem esx ist die datenrate zwischen 46 - 75 mb/s
wogegen die zu und von der 1.vm auf dem esx zwischen 236 - 580mb/s beträgt.

das dort ein auf beiden maschinen ein Raid5 angelegt ist bezweifel ich mittlerweil, da ich dieses gerade überprüft habe und der Raidcontroler mir einen Raid 10 liefert.

die probleme bei der Datenübertragung von und zu den VM's besteht weiterhin

Member
Beiträge: 15
Registriert: 14.07.2011, 14:26

Beitragvon skneo » 13.06.2013, 13:33

Controller mit Cache ? Cache Aktiviert ? Überprüfe erst einmal die Performance des Storage ohne über die VM zu gehen. Danach die Performance in der VM Lokal.
Danach erst übers Netzwerk woanders hin.

King of the Hill
Beiträge: 13058
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 13.06.2013, 13:55

Wenn du Netzwerkperformance pruefen willst dann tue es auch.... mit netperf und esxtop oder dergleichen.

Wenn du das Storage pruefen willst dann tue es auch ... mit ioMeter und esxtop.


Gruss
Joerg

Member
Beiträge: 6
Registriert: 12.06.2013, 14:46

Beitragvon Drachie » 14.06.2013, 10:41

@skneo: das war das erste was überprüft wurde und beide fragen sind mit ja zu beantworten.

die Performance des Storage hat den wert den es haben soll und der liegt bei 540 mb/s bei dem raid 10 verbund.

@irix die Netzwerkperformance vom esxi aus in der netz ohne über die Mvs zu gehen liegt bei 1 GB/s. genausu vom ESx aus liegt die bei dem gleichen wert.

beide server haben autarke Hardware und sind per glasfaser an dem Swicht angebunden.

die einbußen bei der Performance sind zu sehen wenn der test über die vms laufen. da sacken dann die werte ab bis auf 8 Mb/s runter.

King of the Hill
Beiträge: 13657
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 14.06.2013, 11:09

Die Achillesverse der vollständigen Virtualisierung ala VMware ist immer die Schreibperformance innerhalb der VM, da der vPlattencontroller nur in SW abgebildet wird. Somit ist die Schreibperformance stark sowohl von der Gast- als auch Host-Auslastung abhängig.


Sind alle deine Durchsatzangaben eigentlich in Bit oder Byte?
Weil ausgehend von deiner Glasfaserangabe mit 1GB/s gehen damit trotzdem höchstens 125MByte/s über die Leitung und wenn man dann noch den Protokolloverhead abzieht, ist man wieder bei den in jedem MB-Vergleich aufgeführten 117MByte/s.

In den Duchsatz spielt dann aber auch noch der vDISK-Type (Thin, Thick) mit rein. Verbleiben denn deine angegebenen Werte auch stabil auf diesem Niveau, wenn die jeweiligen HW-Server mal richtig unter Last sind?

Member
Beiträge: 15
Registriert: 14.07.2011, 14:26

Beitragvon skneo » 14.06.2013, 11:46

Drachie hat geschrieben:@skneo: das war das erste was überprüft wurde und beide fragen sind mit ja zu beantworten.

die Performance des Storage hat den wert den es haben soll und der liegt bei 540 mb/s bei dem raid 10 verbund.



Und in der VM ?

Member
Beiträge: 6
Registriert: 12.06.2013, 14:46

Beitragvon Drachie » 17.06.2013, 11:54

480 - 510 mb/s

Member
Beiträge: 15
Registriert: 14.07.2011, 14:26

Beitragvon skneo » 18.06.2013, 16:18

Auf beiden Servern haben die Lokalen VMs die das Problem haben 480 - 510 mb/s ?
Read 480 mb/s Write 510 mb/s ? Byte oder Bit ?

Wenn du von einem Client PC nicht auf dem ESX oder i mit Gbit in den jeweiligen Datastore ( kann auch mit dem vSphere Client sein ) eine DVD Iso kopierst sinkt dann die Performance auch irgendwann so drastisch ?

Member
Beiträge: 6
Registriert: 12.06.2013, 14:46

Beitragvon Drachie » 19.06.2013, 10:06

wenn ich über den vSphere Client eine Iso einbinde und von der dann die daten auf das gastsystem übertrage bricht die performance nicht wirklich ein. sie sinkt zwar ab auf ca die hälfte der zu verfügungstehenden bandbreite im netzwerk, was aber in demfalle nicht dramatisch ist... noch nicht.

Desweiteren habe ich auch schon bedenken, das es an den unsuported Os Windows Small business Server 2011 liegen könnte. aber eine überprüfung des SBS2011 auf einer ESXi referenzmaschnie hat solche Performance einbrüche nicht gezeit beim stresstest.

King of the Hill
Beiträge: 13657
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 19.06.2013, 22:03

Der SBS2011 ist ja im Kern ein Win2k8-R2 und dieser ist supportet. Die meisten Gast-OS lassen sich auch so unter VMware-Produkt XYZ installieren und nur in Einzelfällen sind noch spezielle Anpassungen erforderlich. In den meisten Fällen müssen nur die VMware-Tools bei einem geänderten M$-Treibermodell erneut angepaßt werden.


Welcher vDISK-Typ kommt bei den Test-VMs zum Einsatz?
Sind deine Raid10 aus jeweils 4 Platten, der Raid10-Minimalausstattung, und als SATA aufgebaut?


Zurück zu „vSphere 5 / ESXi 5 und 5.1“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 8 Gäste