Das Forum wurde aktualisiert. Wurde höchste Zeit. Wenn etwas nicht funktioniert, bitte gerne hier jederzeit melden.
(Das "alte Design" kommt wieder, wird ne Weile brauchen!)

Probleme bei sehr grossen VMFS-datastores ....

Tips und Hinweise zur Datenrettung bei defekten VMs oder unlesbaren Datastores

Moderatoren: irix, continuum, Dayworker, Tschoergez

Benutzeravatar
Moderator
Beiträge: 14648
Registriert: 09.08.2003, 05:41
Wohnort: sauerland
Kontaktdaten:

Probleme bei sehr grossen VMFS-datastores ....

Beitragvon continuum » 19.07.2016, 16:44

Ich bin gerade frisch auf ein etwas obskures Problem gestossen und wollte mal hören ob jemand sonst schon so etwas gesehen hat.
Normalerweise sind VMDKs ja entweder ok oder unlesbar - einen obskuren Zwischenzustand gibt es in der Regel nicht.
Obskurer Zwischenzustand bedeutet hier dass eine VMDK Montags funktioniert, Dienstag unlesbar ist, Mittwochs wieder läuft und Donnerstags ein Timeout liefert.
Sowas kenne ich normalerweise nicht.
Jetzt hatte ich aber einen Fall wo so etwas gleich gehäuft auftrat.

Derzeit sehe ich die Ursache in einem Problem beim Handling von zuvielen sehr grossen Datastores. In meinem Fall hatten zum Beispiel die Hosts eines Clusters folgende Datastoregrössen verbunden:
1 x 114 TB !!!!!!
6 x 32 TB
+ ein paar kleiner Datastrores.
Ich nehme derzeit an, dass es Probleme gibt sobald ein Host mehr als 128 TB VMFS gleichzeitig gemountet hat.
Die Probleme aüsserten sich in einem extrem hohen Fragmentierungsgrad der VMDKs.
Die Performance der einzelnen VMDKs war dann teilweise extrem schlecht - allein der Versuch eine VMDK zu öffnen konnte eine halbe Stunde dauern und selbst dann noch komplett fehlschlagen.

Bitte erzählt doch mal wieviele TBs an VMFS-volumes bei euch in der Praxis so vorkommen.

Jenseits von Gut & Böse
Beiträge: 10780
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 19.07.2016, 16:48

Ich meine mich zu erinnern das es mal das Thema mit der Heap Size gab, sprich der ESXi nur eine bestimmte Menge an VMDK-Groesse laden konnte weil dann irgendwelche Buffer aufgebraucht waren. In der Ecke wuerde ich mal nachforschen.

Hier sind die Datastore 4TB gross und dann 10-15 Stck.

Gruss
Joerg

Guru
Beiträge: 2080
Registriert: 21.10.2006, 08:24

Beitragvon bla!zilla » 19.07.2016, 16:58

4 TB hat sich so als neue "Standard" herauskristallisiert. Die größten Datastores bei Kunden haben so 8 TB (Ausnahmen bestätigen die Regel). Extends habe ich bei keinem Kunden rumfliegen.

Benutzeravatar
Moderator
Beiträge: 14648
Registriert: 09.08.2003, 05:41
Wohnort: sauerland
Kontaktdaten:

Beitragvon continuum » 19.07.2016, 18:30

Hat schon mal jemand ein "illegal grosses" VMFS-volume gesehen - in meinem Fall 114 TB ?

Jenseits von Gut & Böse
Beiträge: 10780
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 19.07.2016, 18:56

Nein.

Gruss
Joerg

Guru
Beiträge: 2080
Registriert: 21.10.2006, 08:24

Beitragvon bla!zilla » 20.07.2016, 15:59

Nope. So verrückt war noch keiner - also zumindest in meinem Kundenkreis.

Member
Beiträge: 75
Registriert: 18.10.2015, 18:15

Beitragvon Whitemoon » 20.07.2016, 16:39

Moin,
bei uns ist alles zwischen 5-10TB groß.
Aber 114 ist schon eine Ansage... da würden mich die Bewegründe interessieren. :)


Gruß,
Dani

Member
Beiträge: 176
Registriert: 13.09.2010, 17:22

Beitragvon soehl » 21.07.2016, 11:20

Hallo,

wir nutzen LUNs bis max. 16TB, einige Hosts sehen von den 16TB-Luns über 30 Stück.

Gruß, S.

Benutzeravatar
Moderator
Beiträge: 14648
Registriert: 09.08.2003, 05:41
Wohnort: sauerland
Kontaktdaten:

Beitragvon continuum » 22.07.2016, 16:55

@ soehl

Gibt es bei euch "obskure Probleme" ?
Habt ihr schon mal untersucht ob die vmdks bei euch extrem fragmentiert sind ?

Profi
Beiträge: 982
Registriert: 31.03.2008, 17:26
Wohnort: Einzugsbereich des FC Schalke 04
Kontaktdaten:

Beitragvon kastlr » 22.07.2016, 22:35

Hallo,

wäre echt mal interessant, die Meldungen in
  • vmkernel.log,
  • vobd.log
  • vmware.logs der einzelnen VM's
zu sehen.

Eventuell liegt es ja daran, das ein einzelner Host mehr als 30 TB an vmdk's zu bedienen hat.
In den folgenden Artikeln wird auf die Verwaltung großer vmdk's bzw. aktiver Workingsets eingegangen.
Understanding the VMFS heap eviction process in ESXi 5.5 and later (2077898)
Configuring VMFS Pointer Block Cache
vSphere 5.5 Storage Enhancements Part 2: VMFS Heap

Gruß,
Ralf

Member
Beiträge: 176
Registriert: 13.09.2010, 17:22

Beitragvon soehl » 24.07.2016, 02:41

continuum hat geschrieben:@ soehl

Gibt es bei euch "obskure Probleme" ?
Habt ihr schon mal untersucht ob die vmdks bei euch extrem fragmentiert sind ?


Nein, es gibt keine obskuren Probleme.Was heißt denn extrem fragmentiert?
Die Option /VMFS3/MaxAddressableSpaceTB steht auf 128.


Zurück zu „Datenrettung“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast