habe hier einen Fujitsu TX200s7 mit einem 1,6TB RAID 5 System und 80GB RAM.
Das System hat ein UFM Device (eine Art internes USB Laufwerk) mit darauf installiertem ESXi 5.1.
Auf dem Virtuellen System sind u. a. ein Server 2012 und noch ein älterer SBS2011 installiert.
Das Problem ist, dass nun seit heute das System nicht mehr startet:
Auf dem VMware Client werden die VMs noch angezeigt, aber gleichzeitig signalisiert, dass kein Datenspeicher vorhanden ist. Ich kann den Datenspeicher aber in der Konfiguration -> Speicher -> Alle erneut prüfen manchmal (!!) angezeigt bekommen.
Wenn der Datenspeicher angezeigt wird, dann mal mit 1 MB freiem Speicherplatz, mal mit -1,5TB freiem Speicher, also bei jedem Aufruf von "Alle erneut prüfen" kommt ein anderes Ergebnis, und in letzter Zeit öfters kein Datenträger.. ??
Was hab ich daraufhin gemacht?
a) Fujitsu Hardware Test DIFS vom USB Stick direkt am Server gestartet --> Der QuickTest brachte keinerlei Fehler und alle Hardwarekomponenten inkl. des HDD RAID-Systems wurden korrekt erkannt...
b) Auf externem USB Stick ein aktuelles vmware ESXi 6.0 U2 installiert: Hier zeigt das System eine Festplatte an, die ich aber nur per Formatieren eingebunden bekommen könnte - das möchte ich aber nicht, ich nicht weiß, von wann die letzte Datenbanksicherung des Systems ist (die Datenbank wird nur gesichert, wenn alle Clients keinen DB-Zugriff haben aber der Chef lässt trotz Ermahnen die Software laufen)
c) Klar, getestet hab ich auch, den Server komplett abzuschalten und neu zu starten, aber das war nicht erfolgreich.
d) Da anfangs das VM System nur "zu wenig HDD Speicher" angezeigt hat, dachte ich, ich lösche mal 2 überflüssige VM Hosts, aber das hat natürlich nichts gebracht...
e) in der ssh shell kann ich unter ls -l /vmfs/devices/disks wohl die 6 unterschiedlichen HDD-Bereich des Raids angezeigt bekommen, aber mir ist nicht klar, wie ich die Daten auf esxi 6.0 evtl. wieder anzeigen lassen kann.
Außer dem oben genannten Symptom im alten esxi 5.1 System gab es keinerlei Fehlermeldung...
Die Datensicherung ist zwar gestern erfolgreich durchgelaufen, aber ich würde gerne - wenn möglich - die bestehenden Datenträger verwenden...
Meine Frage an Euch wäre daher:
Kann man das System evtl. noch retten?
Sind solche seltsamen Symptome bzgl. der Speicherkapaziät eines Festplattensepichers bekannt und kann man diese "Sperenzchen" evtl. direkt in der 5.1er VM klären?
Herzlichen Dank für Eure Tipps!
LG Tom
PS: Wollte noch ein Bildschirmfoto vom ls -l Befehl anhängen, aber das System lässt mich nicht...
Achso, die Infos kann man als Text einfügen: - seltsam sind die Datumswerte schon ein wenig - oder? (Erstellt unter dem neuen esxi 6.0):
[root@localhost:~] ls -l /vmfs/devices/disks
total 3524370352
-rw------- 1 root root 7823458304 Apr 26 16:32 mpx.vmhba33:C0:T0:L0
-rw------- 1 root root 4161536 Apr 26 16:32 mpx.vmhba33:C0:T0:L0:1
-rw------- 1 root root 262127616 Apr 26 16:32 mpx.vmhba33:C0:T0:L0:5
-rw------- 1 root root 262127616 Apr 26 16:32 mpx.vmhba33:C0:T0:L0:6
-rw------- 1 root root 115326976 Apr 26 16:32 mpx.vmhba33:C0:T0:L0:7
-rw------- 1 root root 299876352 Apr 26 16:32 mpx.vmhba33:C0:T0:L0:8
-rw------- 1 root root 2684354560 Apr 26 16:32 mpx.vmhba33:C0:T0:L0:9
-rw------- 1 root root 1798752436224 Apr 26 16:32 naa.600300570105616018539d48e5bbe52a
-rw------- 1 root root 1798751370752 Apr 26 16:32 naa.600300570105616018539d48e5bbe52a:1
lrwxrwxrwx 1 root root 20 Apr 26 16:32 vml.0000000000766d68626133333a303a30 -> mpx.vmhba33:C0:T0:L0
lrwxrwxrwx 1 root root 22 Apr 26 16:32 vml.0000000000766d68626133333a303a30:1 -> mpx.vmhba33:C0:T0:L0:1
lrwxrwxrwx 1 root root 22 Apr 26 16:32 vml.0000000000766d68626133333a303a30:5 -> mpx.vmhba33:C0:T0:L0:5
lrwxrwxrwx 1 root root 22 Apr 26 16:32 vml.0000000000766d68626133333a303a30:6 -> mpx.vmhba33:C0:T0:L0:6
lrwxrwxrwx 1 root root 22 Apr 26 16:32 vml.0000000000766d68626133333a303a30:7 -> mpx.vmhba33:C0:T0:L0:7
lrwxrwxrwx 1 root root 22 Apr 26 16:32 vml.0000000000766d68626133333a303a30:8 -> mpx.vmhba33:C0:T0:L0:8
lrwxrwxrwx 1 root root 22 Apr 26 16:32 vml.0000000000766d68626133333a303a30:9 -> mpx.vmhba33:C0:T0:L0:9
lrwxrwxrwx 1 root root 36 Apr 26 16:32 vml.0200000000600300570105616018539d48e5bbe52a4d5220534153 -> naa.600300570105616018539d48e5bbe52a
lrwxrwxrwx 1 root root 38 Apr 26 16:32 vml.0200000000600300570105616018539d48e5bbe52a4d5220534153:1 -> naa.600300570105616018539d48e5bbe52a:1
[root@localhost:~]
[root@localhost:~] ls -l
total 553
lrwxrwxrwx 1 root root 49 Apr 26 16:07 altbootbank -> /vmfs/volumes/da5d46ed-0188a92a-4c42-ba0456b e9e9d
drwxr-xr-x 1 root root 512 Apr 26 16:07 bin
lrwxrwxrwx 1 root root 49 Apr 26 16:07 bootbank -> /vmfs/volumes/e61a5ae4-cf648191-da06-e2b6c2e1fd bb
-r--r--r-- 1 root root 331571 Mar 4 02:45 bootpart.gz
drwxr-xr-x 15 root root 512 Apr 26 17:12 dev
drwxr-xr-x 1 root root 512 Apr 26 16:33 etc
drwxr-xr-x 1 root root 512 Apr 26 16:07 lib
drwxr-xr-x 1 root root 512 Apr 26 16:07 lib64
-r-x------ 1 root root 16085 Apr 26 13:08 local.tgz
lrwxrwxrwx 1 root root 6 Apr 26 16:07 locker -> /store
drwxr-xr-x 1 root root 512 Apr 26 16:07 mbr
drwxr-xr-x 1 root root 512 Apr 26 16:07 opt
drwxr-xr-x 1 root root 131072 Apr 26 17:12 proc
lrwxrwxrwx 1 root root 22 Apr 26 16:07 productLocker -> /locker/packages/6.0.0
lrwxrwxrwx 1 root root 4 Mar 4 02:21 sbin -> /bin
lrwxrwxrwx 1 root root 12 Apr 26 16:07 scratch -> /tmp/scratch
lrwxrwxrwx 1 root root 49 Apr 26 16:07 store -> /vmfs/volumes/571f5fb6-0982cf91-4142-001999d7db8d
drwxr-xr-x 1 root root 512 Apr 26 16:07 tardisks
drwxr-xr-x 1 root root 512 Apr 26 16:07 tardisks.noauto
drwxrwxrwt 1 root root 512 Apr 26 17:01 tmp
drwxr-xr-x 1 root root 512 Apr 26 16:07 usr
drwxr-xr-x 1 root root 512 Apr 26 16:07 var
drwxr-xr-x 1 root root 512 Apr 26 16:07 vmfs
drwxr-xr-x 1 root root 512 Apr 26 16:07 vmimages
lrwxrwxrwx 1 root root 17 Mar 4 02:21 vmupgrade -> /locker/vmupgrade
[root@localhost:~] df -h
VmFileSystem: SlowRefresh() failed: Unable to get FS Attrs for /vmfs/volumes/50c0eb70-73d736a1-bb48-001999d7db8d. Unable to get FS Attrs for /vmfs/volumes/50c0eb70-73d736a1-bb48-001999d7db8dError when running esxcli, return status was: 1
Errors:
Error getting data for filesystem on '/vmfs/volumes/50c0eb70-73d736a1-bb48-001999d7db8d': Unable to get FS Attrs for /vmfs/volumes/50c0eb70-73d736a1-bb48-001999d7db8d, skipping.