Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

Bandbreitenlimitierung bei Storage vMotion ??

Alles zum Virtualisierungsmanagement und Servermanagement, was nicht direkt in ein festes Version-Schema paßt.

Moderatoren: irix, Dayworker

Member
Beiträge: 165
Registriert: 01.10.2007, 17:58
Wohnort: Hamburg

Bandbreitenlimitierung bei Storage vMotion ??

Beitragvon ohhmille » 01.09.2014, 09:37

Guten Morgen

Aktuell bringen wir unsere VMs auf ein neues Storage. Dazu nutzen wir Storage vMotion! ;-)

Umgebung:
ESXi 5.1 / Patchstand - 190 04 70
vCenter Server 5.5 - 189 13 13


Nun haben wir festgestellt, dass wir immer ziemlich genau mit einer Bandbreite von 300MBit verschieben.
Ist das eine Limitierung in unserer vSphere 5-Lizenz? Vom ESXi-HOST? Oder in vCenter?

Danke und Grüße
Mille

King of the Hill
Beiträge: 13561
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 01.09.2014, 10:52

300MBit sind 37.5MB/s.
Nein. Nein. Nein.

Welche Storages sind involviert?
Wie sind diese Storages angebunden?
Laufen während der svMotion noch andere VMs auf den Storages?

Member
Beiträge: 165
Registriert: 01.10.2007, 17:58
Wohnort: Hamburg

Beitragvon ohhmille » 01.09.2014, 11:06

Dachte mir schon, dass es keine Limits gibt. Hatte auch nichts gefunden.

Wir haben NetApp-Storages über NFS angebunden. Alles über GBit. Also nicht die "optimalste" Verbindung. Aber es sollte trotzdem ein wenig mehr rauskommen.

Das svMotion haben wir nach "Feierabend" gemacht, und BEVOR die backups losrennen...

King of the Hill
Beiträge: 12944
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 01.09.2014, 11:10

Wir haben neulich eine 1.5TB SAP VM von einer Netapp mit, welche mit 1Gbit per NFS angebunden war auf eine ISCSI EQL geschoben. Das war ueber den gesamten Zeitraum 112MB/s und fast ein gerader Strich im vCenter Graph.

Ich wuerde sagen das bei deinem Storage ein Bottleneck ist oder aber die Switche nicht hinterherkommen. Guck halt mal ob PauseFrames oder anderes zusehen ist im Switch Log.

Gruss
Joerg

Member
Beiträge: 478
Registriert: 03.08.2010, 11:13
Wohnort: Sauerland

Beitragvon stahly » 01.09.2014, 11:44

Man könnte es schon begrenzen:

Falls das Storage per Netzwerk angebunden ist, könnte dieses im vSwitch über Traffic-Shaping begrenzt worden sein.

Member
Beiträge: 165
Registriert: 01.10.2007, 17:58
Wohnort: Hamburg

Beitragvon ohhmille » 02.09.2014, 16:25

Vielen Dank für eure Tipps.
Ein Problem hab ich schon gefunden. Wir hatten auf einigen HOSTs im Management - Netz nur eine 16er netmask. Daher hat er den Traffic dann über das falsche Subnet gezogen.
Leider haben wir die Netzsegmente nicht 100%ig getrennt, daher laufen wir teilweise noch auf diese Probleme.

Aktuell sind wir bei 66 MB / sek. Das ist schon mal nicht schlecht, aber leider nicht unbedingt ein Wert mit dem wir arbeiten wollen.

PauseFrames ist ein guter Einwand, werd ich mal checken.

Sonst noch Ideen und / oder Erfahrungen? ;)

Grüße
Mille

Member
Beiträge: 165
Registriert: 01.10.2007, 17:58
Wohnort: Hamburg

Beitragvon ohhmille » 03.09.2014, 13:27

Mir ist gerade aufgefallen, dass bei Maschinen mit "thin provisioned" Platten scheinbar der komplette "Provisioned space" mit in den "MOVE", die Zeitberechnung einfliessen muss. Ist halt unschön, da manche VM´s dadurch extreme lange dauern.

Beispiel:
Wir haben eine Appliance mit drei Platten. Provisioned Space sind 137GB, wirklich beschrieben sind aber nur 3GB!! Dauer ca. 1h:15min! Für die 3 GB, die auch wirklich beschrieben sind, düfte der svMotion nur ein paar Minuten brauchen!

Was kann ich tun, damit die Performance besser wird? Gibt´s überhaupt eine Möglichkeit??

King of the Hill
Beiträge: 13561
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 03.09.2014, 17:54

Die Frage für mich wäre jetzt, weshalb du bei nur 3GB belegtem Plattenplatz deine vDISKs mit 137GB provisioniert hast?
VMware sieht ohne weitere Hilfsmittel (Converter) nur die einfache Vergrösserung einer VMDK vor. Welche Möglichkeiten du jetzt noch hast, kannst du im Thread VMDKs verkleinern - Gibt es einen einfacheren Weg ? nachlesen und "irix" seinem Link folgen.

Member
Beiträge: 100
Registriert: 07.11.2011, 15:18
Wohnort: Salzburg

Beitragvon blue_focus » 10.09.2014, 09:20

Für NetApps gibt es ja auch VAAI-Plugins wenn man über NFS fährt (soweit ich mich erinnern kann).

Verwendet ihr das?

Ich kann jetzt nur von FC-SAN sprechen. Aber der größte Flashenhals bei ner NetApp ist in den meisten Fällen der CPU vom Head. Wie schaut es hier aus auf der der Netapp. Sind hier irgendwelche Limits erreicht? Wie voll sind die Aggregate etc. ?

Benutzeravatar
Guru
Beiträge: 3138
Registriert: 22.02.2008, 20:01
Wohnort: Hessen

Beitragvon PeterDA » 10.09.2014, 09:46

Hi,
Wir haben NetApp-Storages über NFS angebunden. Alles über GBit. Also nicht die "optimalste" Verbindung. Aber es sollte trotzdem ein wenig mehr rauskommen.


Habt ihr auf der NetApp Multi VIFs konfiguriert?
Weil sonst würde der gesamte Datenverkehr ja komplett nur über eine 1GB Leitung pro Filer laufen.


NetApp mit NFS anzuschließen ist schon die richtige Idee. Allerdings muss man im 1 Gb Bereich ein paar Tricks beachten. -> Datastores über unterschiedliche Pfade ansprechen usw.

Gruß Peter


Zurück zu „vCenter / VMware VirtualCenter“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 18 Gäste