Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

Datenspeicher wird nicht richtig angezeigt

Moderatoren: irix, Dayworker

Member
Beiträge: 10
Registriert: 23.12.2015, 16:47

Datenspeicher wird nicht richtig angezeigt

Beitragvon Pfalztomas » 26.04.2016, 18:41

Hallo zusammen,
habe hier einen Fujitsu TX200s7 mit einem 1,6TB RAID 5 System und 80GB RAM.
Das System hat ein UFM Device (eine Art internes USB Laufwerk) mit darauf installiertem ESXi 5.1.
Auf dem Virtuellen System sind u. a. ein Server 2012 und noch ein älterer SBS2011 installiert.
Das Problem ist, dass nun seit heute das System nicht mehr startet:
Auf dem VMware Client werden die VMs noch angezeigt, aber gleichzeitig signalisiert, dass kein Datenspeicher vorhanden ist. Ich kann den Datenspeicher aber in der Konfiguration -> Speicher -> Alle erneut prüfen manchmal (!!) angezeigt bekommen.
Wenn der Datenspeicher angezeigt wird, dann mal mit 1 MB freiem Speicherplatz, mal mit -1,5TB freiem Speicher, also bei jedem Aufruf von "Alle erneut prüfen" kommt ein anderes Ergebnis, und in letzter Zeit öfters kein Datenträger.. ??

Was hab ich daraufhin gemacht?
a) Fujitsu Hardware Test DIFS vom USB Stick direkt am Server gestartet --> Der QuickTest brachte keinerlei Fehler und alle Hardwarekomponenten inkl. des HDD RAID-Systems wurden korrekt erkannt...
b) Auf externem USB Stick ein aktuelles vmware ESXi 6.0 U2 installiert: Hier zeigt das System eine Festplatte an, die ich aber nur per Formatieren eingebunden bekommen könnte - das möchte ich aber nicht, ich nicht weiß, von wann die letzte Datenbanksicherung des Systems ist (die Datenbank wird nur gesichert, wenn alle Clients keinen DB-Zugriff haben aber der Chef lässt trotz Ermahnen die Software laufen)
c) Klar, getestet hab ich auch, den Server komplett abzuschalten und neu zu starten, aber das war nicht erfolgreich.
d) Da anfangs das VM System nur "zu wenig HDD Speicher" angezeigt hat, dachte ich, ich lösche mal 2 überflüssige VM Hosts, aber das hat natürlich nichts gebracht...
e) in der ssh shell kann ich unter ls -l /vmfs/devices/disks wohl die 6 unterschiedlichen HDD-Bereich des Raids angezeigt bekommen, aber mir ist nicht klar, wie ich die Daten auf esxi 6.0 evtl. wieder anzeigen lassen kann.


Außer dem oben genannten Symptom im alten esxi 5.1 System gab es keinerlei Fehlermeldung...

Die Datensicherung ist zwar gestern erfolgreich durchgelaufen, aber ich würde gerne - wenn möglich - die bestehenden Datenträger verwenden...

Meine Frage an Euch wäre daher:
Kann man das System evtl. noch retten?
Sind solche seltsamen Symptome bzgl. der Speicherkapaziät eines Festplattensepichers bekannt und kann man diese "Sperenzchen" evtl. direkt in der 5.1er VM klären?

Herzlichen Dank für Eure Tipps!

LG Tom

PS: Wollte noch ein Bildschirmfoto vom ls -l Befehl anhängen, aber das System lässt mich nicht...

Achso, die Infos kann man als Text einfügen: - seltsam sind die Datumswerte schon ein wenig - oder? (Erstellt unter dem neuen esxi 6.0):
[root@localhost:~] ls -l /vmfs/devices/disks
total 3524370352
-rw------- 1 root root 7823458304 Apr 26 16:32 mpx.vmhba33:C0:T0:L0
-rw------- 1 root root 4161536 Apr 26 16:32 mpx.vmhba33:C0:T0:L0:1
-rw------- 1 root root 262127616 Apr 26 16:32 mpx.vmhba33:C0:T0:L0:5
-rw------- 1 root root 262127616 Apr 26 16:32 mpx.vmhba33:C0:T0:L0:6
-rw------- 1 root root 115326976 Apr 26 16:32 mpx.vmhba33:C0:T0:L0:7
-rw------- 1 root root 299876352 Apr 26 16:32 mpx.vmhba33:C0:T0:L0:8
-rw------- 1 root root 2684354560 Apr 26 16:32 mpx.vmhba33:C0:T0:L0:9
-rw------- 1 root root 1798752436224 Apr 26 16:32 naa.600300570105616018539d48e5bbe52a
-rw------- 1 root root 1798751370752 Apr 26 16:32 naa.600300570105616018539d48e5bbe52a:1
lrwxrwxrwx 1 root root 20 Apr 26 16:32 vml.0000000000766d68626133333a303a30 -> mpx.vmhba33:C0:T0:L0
lrwxrwxrwx 1 root root 22 Apr 26 16:32 vml.0000000000766d68626133333a303a30:1 -> mpx.vmhba33:C0:T0:L0:1
lrwxrwxrwx 1 root root 22 Apr 26 16:32 vml.0000000000766d68626133333a303a30:5 -> mpx.vmhba33:C0:T0:L0:5
lrwxrwxrwx 1 root root 22 Apr 26 16:32 vml.0000000000766d68626133333a303a30:6 -> mpx.vmhba33:C0:T0:L0:6
lrwxrwxrwx 1 root root 22 Apr 26 16:32 vml.0000000000766d68626133333a303a30:7 -> mpx.vmhba33:C0:T0:L0:7
lrwxrwxrwx 1 root root 22 Apr 26 16:32 vml.0000000000766d68626133333a303a30:8 -> mpx.vmhba33:C0:T0:L0:8
lrwxrwxrwx 1 root root 22 Apr 26 16:32 vml.0000000000766d68626133333a303a30:9 -> mpx.vmhba33:C0:T0:L0:9
lrwxrwxrwx 1 root root 36 Apr 26 16:32 vml.0200000000600300570105616018539d48e5bbe52a4d5220534153 -> naa.600300570105616018539d48e5bbe52a
lrwxrwxrwx 1 root root 38 Apr 26 16:32 vml.0200000000600300570105616018539d48e5bbe52a4d5220534153:1 -> naa.600300570105616018539d48e5bbe52a:1
[root@localhost:~]
[root@localhost:~] ls -l
total 553
lrwxrwxrwx 1 root root 49 Apr 26 16:07 altbootbank -> /vmfs/volumes/da5d46ed-0188a92a-4c42-ba0456b e9e9d
drwxr-xr-x 1 root root 512 Apr 26 16:07 bin
lrwxrwxrwx 1 root root 49 Apr 26 16:07 bootbank -> /vmfs/volumes/e61a5ae4-cf648191-da06-e2b6c2e1fd bb
-r--r--r-- 1 root root 331571 Mar 4 02:45 bootpart.gz
drwxr-xr-x 15 root root 512 Apr 26 17:12 dev
drwxr-xr-x 1 root root 512 Apr 26 16:33 etc
drwxr-xr-x 1 root root 512 Apr 26 16:07 lib
drwxr-xr-x 1 root root 512 Apr 26 16:07 lib64
-r-x------ 1 root root 16085 Apr 26 13:08 local.tgz
lrwxrwxrwx 1 root root 6 Apr 26 16:07 locker -> /store
drwxr-xr-x 1 root root 512 Apr 26 16:07 mbr
drwxr-xr-x 1 root root 512 Apr 26 16:07 opt
drwxr-xr-x 1 root root 131072 Apr 26 17:12 proc
lrwxrwxrwx 1 root root 22 Apr 26 16:07 productLocker -> /locker/packages/6.0.0
lrwxrwxrwx 1 root root 4 Mar 4 02:21 sbin -> /bin
lrwxrwxrwx 1 root root 12 Apr 26 16:07 scratch -> /tmp/scratch
lrwxrwxrwx 1 root root 49 Apr 26 16:07 store -> /vmfs/volumes/571f5fb6-0982cf91-4142-001999d7db8d
drwxr-xr-x 1 root root 512 Apr 26 16:07 tardisks
drwxr-xr-x 1 root root 512 Apr 26 16:07 tardisks.noauto
drwxrwxrwt 1 root root 512 Apr 26 17:01 tmp
drwxr-xr-x 1 root root 512 Apr 26 16:07 usr
drwxr-xr-x 1 root root 512 Apr 26 16:07 var
drwxr-xr-x 1 root root 512 Apr 26 16:07 vmfs
drwxr-xr-x 1 root root 512 Apr 26 16:07 vmimages
lrwxrwxrwx 1 root root 17 Mar 4 02:21 vmupgrade -> /locker/vmupgrade
[root@localhost:~] df -h
VmFileSystem: SlowRefresh() failed: Unable to get FS Attrs for /vmfs/volumes/50c0eb70-73d736a1-bb48-001999d7db8d. Unable to get FS Attrs for /vmfs/volumes/50c0eb70-73d736a1-bb48-001999d7db8dError when running esxcli, return status was: 1
Errors:
Error getting data for filesystem on '/vmfs/volumes/50c0eb70-73d736a1-bb48-001999d7db8d': Unable to get FS Attrs for /vmfs/volumes/50c0eb70-73d736a1-bb48-001999d7db8d, skipping.

Profi
Beiträge: 993
Registriert: 31.03.2008, 17:26
Wohnort: Einzugsbereich des FC Schalke 04
Kontaktdaten:

Beitragvon kastlr » 26.04.2016, 20:34

Hallo,

führe mal einen Rescan aus und stelle danach den vmkernel.log zur Analyse zur Verfügung.

Gruß,
Ralf

Member
Beiträge: 10
Registriert: 23.12.2015, 16:47

Datenspeicher wird nicht richtig angezeigt

Beitragvon Pfalztomas » 26.04.2016, 21:24

Hallo und vielen Dank :grin: für Deine prompte Nachricht!

Sry hab etwas länger benötigt, da ich erst die entspr. Tools auf den Rechner hier laden musste..

Anbei findest Du die letzten Zeilen aus vmkernel.log - ich konnte darin nicht 100%ig erkennen, ab wann der scan los geht, ich hoffe, ich hab alles dabei und nicht allzuviel sonstiges...:

2016-04-26T19:20:04.215Z cpu19:33050)ScsiUid: 273: Path 'vmhba0:C0:T0:L0' does not support VPD Device Id page.
2016-04-26T19:20:04.216Z cpu19:33050)VMWARE SCSI Id: Could not get disk id for vmhba0:C0:T0:L0
2016-04-26T19:20:04.218Z cpu22:34863 opID=2aa45c09)World: 15516: VC opID C4856144-00000075-2d50 maps to vmkernel opID 2aa45c09
2016-04-26T19:20:04.218Z cpu22:34863 opID=2aa45c09)ScsiScan: 836: Path vmhba2:C0:T0:L0 supports REPORT LUNS 0x11
2016-04-26T19:20:04.218Z cpu22:34863 opID=2aa45c09)ScsiScan: 1173: Path 'vmhba2:C0:T0:L0': Vendor: 'LSI ' Model: 'MR SAS 6G 1GB ' Rev: '3.15'
2016-04-26T19:20:04.218Z cpu22:34863 opID=2aa45c09)ScsiScan: 1176: Path 'vmhba2:C0:T0:L0': Type: 0x0, ANSI rev: 5, TPGS: 0 (none)
2016-04-26T19:20:04.219Z cpu22:34863 opID=2aa45c09)megasas_slave_configure: do not export physical disk devices to upper layer.
2016-04-26T19:20:04.219Z cpu22:34863 opID=2aa45c09)WARNING: ScsiScan: 1643: Failed to add path vmhba2:C0:T0:L0 : Not found
2016-04-26T19:20:04.236Z cpu22:34863 opID=2aa45c09)ScsiScan: 836: Path vmhba2:C2:T0:L0 supports REPORT LUNS 0x11
2016-04-26T19:20:04.251Z cpu19:33324)usb-storage: detected SCSI revision number 4 on vmhba33
2016-04-26T19:20:04.251Z cpu19:33324)usb-storage: patching inquiry data to change SCSI revision number from 4 to 2 on vmhba33
2016-04-26T19:20:04.251Z cpu18:33047)ScsiUid: 273: Path 'vmhba33:C0:T0:L0' does not support VPD Device Id page.
2016-04-26T19:20:04.251Z cpu18:33047)VMWARE SCSI Id: Could not get disk id for vmhba33:C0:T0:L0
2016-04-26T19:20:04.306Z cpu23:32830)NMP: nmp_ThrottleLogForDevice:3298: Cmd 0x12 (0x43a5884ebb40, 0) to dev "mpx.vmhba33:C0:T0:L0" on path "vmhba33:C0:T0:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0. Act:NONE
2016-04-26T19:20:04.309Z cpu17:32824)NMP: nmp_ThrottleLogForDevice:3298: Cmd 0x12 (0x43a5884ebb40, 0) to dev "mpx.vmhba0:C0:T0:L0" on path "vmhba0:C0:T0:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0. Act:NONE
2016-04-26T19:20:04.316Z cpu14:33357)NMP: nmp_ThrottleLogForDevice:3298: Cmd 0x1a (0x43a5884ebb40, 0) to dev "naa.600300570105616018539d48e5bbe52a" on path "vmhba2:C2:T0:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0. Act:NONE
2016-04-26T19:20:04.316Z cpu14:33357)ScsiDeviceIO: 2651: Cmd(0x43a5884ebb40) 0x1a, CmdSN 0xc17 from world 0 to dev "naa.600300570105616018539d48e5bbe52a" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.
2016-04-26T19:20:04.317Z cpu14:33357)ScsiDeviceIO: 2651: Cmd(0x43a58845a180) 0x1a, CmdSN 0xc1e from world 0 to dev "naa.600300570105616018539d48e5bbe52a" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.
2016-04-26T19:20:04.319Z cpu14:33357)ScsiDeviceIO: 2651: Cmd(0x43a5807134c0) 0x1a, CmdSN 0xc25 from world 0 to dev "naa.600300570105616018539d48e5bbe52a" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.
2016-04-26T19:20:04.319Z cpu14:33357)ScsiDeviceIO: 2651: Cmd(0x43a580713640) 0x1a, CmdSN 0xc2c from world 0 to dev "naa.600300570105616018539d48e5bbe52a" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.
2016-04-26T19:20:04.334Z cpu14:32821)NMP: nmp_ThrottleLogForDevice:3298: Cmd 0x28 (0x43a58880d1c0, 34863) to dev "naa.600300570105616018539d48e5bbe52a" on path "vmhba2:C2:T0:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x3 0x0 0x0. Act:NONE
2016-04-26T19:20:04.334Z cpu14:32821)ScsiDeviceIO: 2651: Cmd(0x43a58880d1c0) 0x28, CmdSN 0x54 from world 34863 to dev "naa.600300570105616018539d48e5bbe52a" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x3 0x0 0x0.
2016-04-26T19:20:04.345Z cpu14:32821)ScsiDeviceIO: 2651: Cmd(0x43a588801d40) 0x28, CmdSN 0x61 from world 34863 to dev "naa.600300570105616018539d48e5bbe52a" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x3 0x0 0x0.
2016-04-26T19:20:04.350Z cpu14:32821)NMP: nmp_ThrottleLogForDevice:3298: Cmd 0x9e (0x43a588842040, 0) to dev "mpx.vmhba33:C0:T0:L0" on path "vmhba33:C0:T0:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x20 0x0. Act:NONE
2016-04-26T19:20:04.358Z cpu22:34863 opID=394ee409)World: 15516: VC opID C4856144-00000078-2d53 maps to vmkernel opID 394ee409
2016-04-26T19:20:04.358Z cpu22:34863 opID=394ee409)<3>ata1.00: bad CDB len=16, scsi_op=0x9e, max=12
2016-04-26T19:20:04.358Z cpu16:32823)NMP: nmp_ThrottleLogForDevice:3298: Cmd 0x9e (0x43a588842040, 0) to dev "mpx.vmhba0:C0:T0:L0" on path "vmhba0:C0:T0:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x20 0x0. Act:NONE
2016-04-26T19:20:04.361Z cpu16:32823)NMP: nmp_ThrottleLogForDevice:3298: Cmd 0x1a (0x43a588842040, 0) to dev "mpx.vmhba0:C0:T0:L0" on path "vmhba0:C0:T0:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x20 0x0. Act:NONE
2016-04-26T19:20:04.361Z cpu16:32823)NMP: nmp_ThrottleLogForDevice:3298: Cmd 0x1a (0x43a588842040, 0) to dev "naa.600300570105616018539d48e5bbe52a" on path "vmhba2:C2:T0:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0. Act:NONE
2016-04-26T19:20:04.361Z cpu16:32823)ScsiDeviceIO: 2651: Cmd(0x43a588842040) 0x1a, CmdSN 0xc49 from world 0 to dev "naa.600300570105616018539d48e5bbe52a" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.
2016-04-26T19:20:04.385Z cpu16:32823)ScsiDeviceIO: 2651: Cmd(0x43a588842040) 0x1a, CmdSN 0xc65 from world 0 to dev "naa.600300570105616018539d48e5bbe52a" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.
2016-04-26T19:20:04.385Z cpu22:34863 opID=394ee409)<3>ata1.00: bad CDB len=16, scsi_op=0x9e, max=12
2016-04-26T19:20:04.410Z cpu16:32868)ScsiDeviceIO: 2651: Cmd(0x43a588842040) 0x1a, CmdSN 0xc83 from world 0 to dev "naa.600300570105616018539d48e5bbe52a" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.
2016-04-26T19:20:04.410Z cpu16:32868)ScsiDeviceIO: 2651: Cmd(0x43a5888abc40) 0x1a, CmdSN 0xc8a from world 0 to dev "naa.600300570105616018539d48e5bbe52a" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.
2016-04-26T19:20:04.411Z cpu16:32868)ScsiDeviceIO: 2651: Cmd(0x43a5888abac0) 0x1a, CmdSN 0xc91 from world 0 to dev "naa.600300570105616018539d48e5bbe52a" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.
2016-04-26T19:20:04.413Z cpu16:32868)ScsiDeviceIO: 2651: Cmd(0x43a5888aa8c0) 0x1a, CmdSN 0xc98 from world 0 to dev "naa.600300570105616018539d48e5bbe52a" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.
2016-04-26T19:20:04.413Z cpu16:32868)ScsiDeviceIO: 2651: Cmd(0x43a5888aa740) 0x1a, CmdSN 0xc9f from world 0 to dev "naa.600300570105616018539d48e5bbe52a" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.
2016-04-26T19:20:04.415Z cpu22:34863 opID=394ee409)<3>ata1.00: bad CDB len=16, scsi_op=0x9e, max=12
2016-04-26T19:20:04.415Z cpu16:32823)NMP: nmp_ThrottleLogForDevice:3298: Cmd 0x9e (0x43a5888a9540, 0) to dev "mpx.vmhba0:C0:T0:L0" on path "vmhba0:C0:T0:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x20 0x0. Act:NONE
2016-04-26T19:20:04.417Z cpu22:34863 opID=394ee409)<3>ata1.00: bad CDB len=16, scsi_op=0x9e, max=12
2016-04-26T19:20:04.417Z cpu16:32823)NMP: nmp_ThrottleLogForDevice:3298: Cmd 0x9e (0x43a5888a9540, 0) to dev "mpx.vmhba0:C0:T0:L0" on path "vmhba0:C0:T0:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x20 0x0. Act:NONE
2016-04-26T19:20:04.418Z cpu22:34863 opID=394ee409)<3>ata1.00: bad CDB len=16, scsi_op=0x9e, max=12
2016-04-26T19:20:04.418Z cpu16:32823)NMP: nmp_ThrottleLogForDevice:3298: Cmd 0x9e (0x43a5888a9540, 0) to dev "mpx.vmhba0:C0:T0:L0" on path "vmhba0:C0:T0:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x20 0x0. Act:NONE
2016-04-26T19:20:04.419Z cpu22:34863 opID=394ee409)<3>ata1.00: bad CDB len=16, scsi_op=0x9e, max=12
2016-04-26T19:20:04.419Z cpu16:32823)NMP: nmp_ThrottleLogForDevice:3298: Cmd 0x9e (0x43a5888a9540, 0) to dev "mpx.vmhba0:C0:T0:L0" on path "vmhba0:C0:T0:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x20 0x0. Act:NONE
2016-04-26T19:20:04.421Z cpu22:34863 opID=394ee409)<3>ata1.00: bad CDB len=16, scsi_op=0x9e, max=12
2016-04-26T19:20:04.421Z cpu16:32823)NMP: nmp_ThrottleLogForDevice:3248: last error status from device mpx.vmhba0:C0:T0:L0 repeated 1 times
2016-04-26T19:20:04.421Z cpu16:32823)NMP: nmp_ThrottleLogForDevice:3298: Cmd 0x9e (0x43a5888a8640, 0) to dev "mpx.vmhba0:C0:T0:L0" on path "vmhba0:C0:T0:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x20 0x0. Act:NONE
2016-04-26T19:20:04.421Z cpu22:34863 opID=394ee409)<3>ata1.00: bad CDB len=16, scsi_op=0x9e, max=12
2016-04-26T19:20:04.421Z cpu16:32823)NMP: nmp_ThrottleLogForDevice:3298: Cmd 0x9e (0x43a5888a8640, 0) to dev "mpx.vmhba0:C0:T0:L0" on path "vmhba0:C0:T0:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x20 0x0. Act:NONE
2016-04-26T19:20:04.423Z cpu22:34863 opID=394ee409)<3>ata1.00: bad CDB len=16, scsi_op=0x9e, max=12
2016-04-26T19:20:04.423Z cpu16:32823)NMP: nmp_ThrottleLogForDevice:3248: last error status from device mpx.vmhba0:C0:T0:L0 repeated 1 times
2016-04-26T19:20:04.423Z cpu16:32823)NMP: nmp_ThrottleLogForDevice:3298: Cmd 0x9e (0x43a58890ec80, 0) to dev "mpx.vmhba0:C0:T0:L0" on path "vmhba0:C0:T0:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x20 0x0. Act:NONE
2016-04-26T19:20:04.424Z cpu22:34863 opID=394ee409)<3>ata1.00: bad CDB len=16, scsi_op=0x9e, max=12
2016-04-26T19:20:04.424Z cpu16:32823)NMP: nmp_ThrottleLogForDevice:3298: Cmd 0x9e (0x43a58890ec80, 0) to dev "mpx.vmhba0:C0:T0:L0" on path "vmhba0:C0:T0:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x20 0x0. Act:NONE
2016-04-26T19:20:04.425Z cpu22:34863 opID=394ee409)<3>ata1.00: bad CDB len=16, scsi_op=0x9e, max=12
2016-04-26T19:20:04.425Z cpu16:32823)NMP: nmp_ThrottleLogForDevice:3298: Cmd 0x9e (0x43a58890ec80, 0) to dev "mpx.vmhba0:C0:T0:L0" on path "vmhba0:C0:T0:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x20 0x0. Act:NONE
2016-04-26T19:20:04.425Z cpu22:34863 opID=394ee409)FSS: 5334: No FS driver claimed device 'mpx.vmhba0:C0:T0:L0': No filesystem on the device
2016-04-26T19:20:04.448Z cpu16:32823)NMP: nmp_ThrottleLogForDevice:3231: last error status from device mpx.vmhba33:C0:T0:L0 repeated 10 times
2016-04-26T19:20:04.572Z cpu22:34863 opID=394ee409)VC: 3551: Device rescan time 60 msec (total number of devices 5)
2016-04-26T19:20:04.572Z cpu22:34863 opID=394ee409)VC: 3554: Filesystem probe time 162 msec (devices probed 5 of 5)
2016-04-26T19:20:04.572Z cpu22:34863 opID=394ee409)VC: 3556: Refresh open volume time 0 msec
2016-04-26T19:20:04.573Z cpu16:32823)ScsiDeviceIO: 2651: Cmd(0x43a58893e540) 0x1a, CmdSN 0xd21 from world 0 to dev "naa.600300570105616018539d48e5bbe52a" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.
2016-04-26T19:20:04.574Z cpu16:32823)ScsiDeviceIO: 2651: Cmd(0x43a58893e3c0) 0x1a, CmdSN 0xd28 from world 0 to dev "naa.600300570105616018539d48e5bbe52a" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.
2016-04-26T19:20:04.576Z cpu16:32823)ScsiDeviceIO: 2651: Cmd(0x43a58893d340) 0x1a, CmdSN 0xd2f from world 0 to dev "naa.600300570105616018539d48e5bbe52a" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.
2016-04-26T19:20:04.576Z cpu16:32823)NMP: nmp_ThrottleLogForDevice:3231: last error status from device naa.600300570105616018539d48e5bbe52a repeated 10 times
2016-04-26T19:20:04.576Z cpu16:32823)ScsiDeviceIO: 2651: Cmd(0x43a58893d1c0) 0x1a, CmdSN 0xd36 from world 0 to dev "naa.600300570105616018539d48e5bbe52a" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.
2016-04-26T19:20:04.592Z cpu16:32823)NMP: nmp_ThrottleLogForDevice:3298: Cmd 0x28 (0x43a58895a1c0, 34863) to dev "naa.600300570105616018539d48e5bbe52a" on path "vmhba2:C2:T0:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x3 0x0 0x0. Act:NONE
2016-04-26T19:20:04.592Z cpu16:32823)ScsiDeviceIO: 2651: Cmd(0x43a58895a1c0) 0x28, CmdSN 0x53 from world 34863 to dev "naa.600300570105616018539d48e5bbe52a" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x3 0x0 0x0.
2016-04-26T19:20:04.603Z cpu16:32823)ScsiDeviceIO: 2651: Cmd(0x43a58896d5c0) 0x28, CmdSN 0x60 from world 34863 to dev "naa.600300570105616018539d48e5bbe52a" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x3 0x0 0x0.


Kannst Du erkennen, was Sache ist?

Gruß
Tom

Experte
Beiträge: 1823
Registriert: 04.10.2011, 14:06

Beitragvon JustMe » 27.04.2016, 09:31

Ich fuer meinen Teil befuerchte hier das Schlimmste...

Die Meldungen zu vmhba0 (hoechstwahrscheinlich das CD-Laufwerk am ATA-Controller) und vmhba33 (das UFM an USB) sind zu vernachlaessigen.

Der vmhba2 ist ein LSI-based SAS-RAID D2616, mit einem Virtual Drive.

Schau doch mal auf der ESXi-Kommandozeile mit

Code: Alles auswählen

/dev/disks # hexdump -C naa.600300570105616018539d48e5bbe52a -n 512
/dev/disks # hexdump -C naa.600300570105616018539d48e5bbe52a\:1 -n 512

ob generell noch Daten vom Volume gelesen werden koennen.

Wenn das noch geht, suche hier im Forum die Nachrichten von continuum; dort findest Du seine Kontaktinformationen. Eventuell ist ueber ihn noch was zu retten.

Ich nehme aber an, dass Du schon die aktuelle Datensicherung zur Wiederherstellung bereitliegen hast, oder?

Profi
Beiträge: 993
Registriert: 31.03.2008, 17:26
Wohnort: Einzugsbereich des FC Schalke 04
Kontaktdaten:

Beitragvon kastlr » 27.04.2016, 11:44

Hallo zusammen,

sofern wir hier über das Device naa.600300570105616018539d48e5bbe52a sprechen sieht es tatsächlich nicht gut aus.
Zumindest gibt das Device auf jeden Read Request folgende Antwort.

Code: Alles auswählen

2016-04-26T19:20:04.334Z cpu14:32821)NMP: nmp_ThrottleLogForDevice:3298: Cmd 0x28 (0x43a58880d1c0, 34863) to dev "naa.600300570105616018539d48e5bbe52a" on path "vmhba2:C2:T0:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x3 0x0 0x0. Act:NONE
2016-04-26T19:20:04.334Z cpu14:32821)ScsiDeviceIO: 2651: Cmd(0x43a58880d1c0) 0x28, CmdSN 0x54 from world 34863 to dev "naa.600300570105616018539d48e5bbe52a" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x3 0x0 0x0.
2016-04-26T19:20:04.345Z cpu14:32821)ScsiDeviceIO: 2651: Cmd(0x43a588801d40) 0x28, CmdSN 0x61 from world 34863 to dev "naa.600300570105616018539d48e5bbe52a" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x3 0x0 0x0

0x28      ->     Read (10) IO   
H:0x0     ->     Host: no error
D:0x2     ->     Device: Check condition
p:0x0     ->     Plugin: no error

Valid Sense Data
0x3       ->     Medium Error

Es deutet somit viel auf einen Hardware Defekt hin.

Gruß,
Ralf

Member
Beiträge: 10
Registriert: 23.12.2015, 16:47

ESXi6.0.0 - kann 1TB Raid nicht hinzufügen

Beitragvon Pfalztomas » 27.04.2016, 18:07

Hallo Ralf,
Hallo JustMe,
vielen Dank für Eure Infos,

hier die Dumps:
[root@localhost:/dev/disks] hexdump -C naa.600300570105616018539d48e5bbe52a -n 5
12
00000000 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 |................|
*
000001b0 00 00 00 00 00 00 00 00 00 00 00 00 1d 9a 00 00 |................|
000001c0 01 00 ee fe ff ff 01 00 00 00 ff ff 66 d1 00 00 |............f...|
000001d0 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 |................|
*
000001f0 00 00 00 00 00 00 00 00 00 00 00 00 00 00 55 aa |..............U.|
00000200
[root@localhost:/dev/disks]


[root@localhost:/dev/disks] hexdump -C naa.600300570105616018539d48e5bbe52a\:1 -
n 512
00000000 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 |................|
*
00000200
[root@localhost:/dev/disks]


Interessant evtl.:
Wenn ich den Dump ohne -n 512 mache, dann kommt die Ausgabe, aber nach 01DFFE10 die Rückmeldung naa.600-----a: Input/output error 01e00000 jetzt weiß ich nicht, ob das normal ist,
beim dump mit naa.600-----a\:1 kommt nach 01CFFE10 ein Input/output error 01d00000.
Vielleicht hilft das noch bei der Analyse..


Datensicherung existiert, aber nicht für alles, da eine Anwendung noch auf eine alte Datenbank aufgebaut ist und die Sicherung immer nur nachts durchläuft - somit gingen die paar Datensätze vom selben Tag bis zum Crash verloren, d.t.o. mit den Exchange Server,
alles vertretbar aber wenn wir nochmal an die Daten kämen wär doch gut.
Aktuell läuft ja schon wieder ein Behelfsbetrieb, der mir mehr Zeit um Analysieren gibt..

Hab mit FTS telefoniert - auch die sind sich nicht sicher, ob die HW einen Defekt hat, muss erst noch ein paar weitere Analysetools drüber laufen lassen.

Wenn klar wäre welche HW-Komponente defekt ist, dann würde ich die ja schon tauschen, aber es könnte ja prinzipiell irgendwo zwischen Mainboard, RAID-Controller, Kabel, SAS-Backplane, SAS-Rahmen und SAS-Platten liegen. Das meiste davon müsste das System oder der DIFS Test zwar feststellen können, aber möglich wäre es doch, dass da was faul ist. Wenn ich das FTS Paper durch hab, werde ich das hier mitteilen, was bei raus kam..

Dank nochmals & Grüsse
Tom

Profi
Beiträge: 993
Registriert: 31.03.2008, 17:26
Wohnort: Einzugsbereich des FC Schalke 04
Kontaktdaten:

Beitragvon kastlr » 27.04.2016, 20:36

Hallo Tom,

so wie es aussieht kannst du nur noch auf die ersten 30 MB der Platte zugreifen.

0x1E00000 entspricht 31457280 Byte, das sind 30MB.

Gruß,
Ralf

Experte
Beiträge: 1823
Registriert: 04.10.2011, 14:06

Beitragvon JustMe » 28.04.2016, 12:06

Ein Punkt vorweg: Das DIFS hat fuer Server keine Aussagekraft. Das ist fuer Desktops, Notebooks und aehnlichen Kleinkram gedacht.

Ansonsten wuerde ich aus der I/O-Error-Meldung erst einmal nur rauslesen, dass AN DIESER STELLE ein Fehler existiert. Ich glaube, der hexdump-Befehl bricht einfach beim ersten Fehler ab, und sucht nicht weiter wie z.B. ddrescue.

Haeng' doch an den Befehl mal ein gepflegtes "-s 31M" (oder entsprechend mehr) an; dann koennte man iterativ ermitteln, wie gross der fehlerhafte Bereich ist, bzw. zumindest, ob "hinter" der Fehlerstelle noch lesbare Daten zu finden sind. Wenn wirklich "ab 30M" nur noch I/O-Errors kommen, dann sieht's echt schlecht aus.

Kleine eingeschobene Erklaerung:
Das naa.600300570105616018539d48e5bbe52a bezeichnet den kompletten Datentraeger, auch als (LSI) Virtual Drive oder allgemeiner "Logical Unit LUN" bekannt. Das naa.600300570105616018539d48e5bbe52a:1 dagegen ist die erste Partition auf genau diesem Datentraeger; deswegen ist es nicht weiter verwunderlich, dass hier der Lesefehler etwas frueher auftritt. Leider sind die abgebildeten Werte nicht so richtig einzuordnen, da trotz der "nur" 1.6TB hier offenbar mit GPT eingerichtet wurde (was aber definitiv kein Fehler ist!).

Abschliessend:
Das Wichtigste duerfte im PrimeCollect die MR?.log (oder MR?_log.txt, weiss ich gerade nicht so genau) sein. Das ist (neben anderem) der ausgelesene interne Fehlerspeicher des MegaRAID SAS Controllers. Da sollten entsprechende Lesefehler drin zu finden sein.
Selbstverstaendlich kannst Du das aber auch den Leuten von FTS ueberlassen ;-)

Achso, und dann noch, weil ich's bisher uebersehen hatte:
Was genau stoert Dich an den Datumswerten in Deinem ersten Posting hier im Thread? Das sieht fuer mich alles total schluessig aus...

Benutzeravatar
UNSTERBLICH(R.I.P.)
Beiträge: 14759
Registriert: 09.08.2003, 05:41
Wohnort: sauerland
Kontaktdaten:

Beitragvon continuum » 28.04.2016, 23:17

Wenn ich den Dump ohne -n 512 mache, dann kommt die Ausgabe, aber nach 01DFFE10 die Rückmeldung naa.600-----a: Input/output error 01e00000 jetzt weiß ich nicht, ob das normal ist,

Normal wäre wenn der Screen ewig lange hex-kolonnen anzeigt - bis zum ersten I/O error oder zum Ende des Device.
Hier bedeutet es, daß das Volume per ESXi nur bis zum Offset 01DFFE10 ausgelesen werden kann.
Wichtig dabei der Zusatz "per ESXi"
Ich glaube dem ESXi mittlerweile keinen I/O error mehr - meistens lassen sich die I/O Fehler umgehen wenn man mit Linux per sshfs direkt auf die /dev/disks/ naa.600300570105616018539d48e5bbe52a:1 readonly zugreift.
Falls dir das hilft - meld dich


Zurück zu „vSphere 5 / ESXi 5 und 5.1“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 9 Gäste