Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

Wegen Konnektivitätsproblemen kann nicht mehr auf Volume XXX zugegriffen werden.

Alles zum Thema vSphere 6, ESXi 6.0 und vCenter Server.

Moderatoren: irix, continuum, Dayworker

Member
Beiträge: 7
Registriert: 16.11.2016, 15:18

Wegen Konnektivitätsproblemen kann nicht mehr auf Volume XXX zugegriffen werden.

Beitragvon enis » 16.11.2016, 17:18

Hallo Forum,
ich habe auf einem ESX 6.0 Host seit kurzem ein „Wegen Konnektivitätsproblemen kann nicht mehr auf Volume XXX zugegriffen werden.“ Problem.
Den Forum Beitrag vom 24.05.2016 sowie VM Ware KB2113956 diesbezüglich habe ich gelesen. Trotzdem bin ich mir nicht sichrer, ob es bei mir nicht um eine falsche RAID bzw. LUN Konfiguration oder sogar ein defekten SCSI Kontroller handelt.

Hier einpaar Eckdaten:
ESX Host : Fujitsu PRIMERGY RX 2540 M2
SCSI MegaRaid EP420i
10x Server interne Festplatten – RAD 10
2x Datastore – VMFS5
Kein SAN, kein Switch
Hier ist die Meldung von den ESX Host:
„Wegen Konnektivitätsproblemen kann nicht mehr
auf Volume
580e4ef3-7159f633-b2e6-901b0e98db00
(Datastore2) zugegriffen werden. Es wird
versucht, eine Wiederherstellung durchzuführen.
Das Ergebnis liegt demnächst vor.
Info
16.11.2016 02:44:38
Datastore2“

vobd.log - „2016-11-16T01:44:38.860Z: [vmfsCorrelator] 302171263516us: [esx.problem.vmfs.heartbeat.timedout] 580e4ef3-7159f633-b2e6-901b0e98db00 Datastore2
2016-11-16T01:44:42.866Z: [vmfsCorrelator] 302175269109us: [esx.problem.vmfs.heartbeat.recovered] 580e4ef3-7159f633-b2e6-901b0e98db00 Datastore2“

vmkwarning.log - „2016-11-16T01:44:37.973Z cpu2:35619)WARNING: lsi_mr3: mfiIoctl_FWCmd:315: waiting for controller reset to finish
2016-11-16T01:44:40.863Z cpu20:32858)WARNING: NMP: nmp_DeviceRequestFastDeviceProbe:237: NMP device "naa.60030057026728b01fa0f48e935b1363" state in doubt; requested fast path state update...
2016-11-16T01:44:41.864Z cpu20:32858)WARNING: NMP: nmp_DeviceRequestFastDeviceProbe:237: NMP device "naa.60030057026728b01fa0f48e935b1363" state in doubt; requested fast path state update...”

vmkernel.log –“2016-11-16T01:38:27.584Z cpu1:32816)NMP: nmp_ThrottleLogForDevice:3298: Cmd 0x1a (0x439d8c790240, 0) to dev "mpx.vmhba38:C0:T0:L0" on path "vmhba38:C0:T0:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x20 0x0. Act:NONE
2016-11-16T01:44:37.860Z cpu12:33188)lsi_mr3: mfi_TaskMgmt:254: Processing taskMgmt abort for device: vmhba2:C2:T1:L0
2016-11-16T01:44:37.860Z cpu12:33188)lsi_mr3: mfi_TaskMgmt:262: ABORT
2016-11-16T01:44:37.973Z cpu2:35619)WARNING: lsi_mr3: mfiIoctl_FWCmd:315: waiting for controller reset to finish
2016-11-16T01:44:38.860Z cpu20:32858)lsi_mr3: mfi_TaskMgmt:254: Processing taskMgmt virt reset for device: vmhba2:C2:T1:L0
2016-11-16T01:44:38.860Z cpu20:32858)lsi_mr3: mfi_TaskMgmt:258: VIRT_RESET cmd # 33623736
2016-11-16T01:44:38.860Z cpu20:32858)lsi_mr3: mfi_TaskMgmt:262: ABORT
2016-11-16T01:44:38.860Z cpu12:33188)lsi_mr3: fusionWaitForOutstanding:2531: megasas: [ 0]waiting for 1 commands to complete
2016-11-16T01:44:40.863Z cpu20:32858)NMP: nmp_ThrottleLogForDevice:3298: Cmd 0x2a (0x43a58ddacb40, 36005) to dev "naa.60030057026728b01fa0f48e935b1363" on path "vmhba2:C2:T1:L0" Failed: H:0x8 D:0x0 P:0x0 Possible sense data: 0x0 0x0 0x0. Act:EVAL
2016-11-16T01:44:40.863Z cpu20:32858)WARNING: NMP: nmp_DeviceRequestFastDeviceProbe:237: NMP device "naa.60030057026728b01fa0f48e935b1363" state in doubt; requested fast path state update...
2016-11-16T01:44:40.863Z cpu20:32858)ScsiDeviceIO: 2595: Cmd(0x43a58ddacb40) 0x2a, CmdSN 0x80000079 from world 36005 to dev "naa.60030057026728b01fa0f48e935b1363" failed H:0x8 D:0x0 P:0x0
2016-11-16T01:44:40.863Z cpu20:32858)lsi_mr3: mfi_TaskMgmt:254: Processing taskMgmt virt reset for device: vmhba2:C2:T1:L0
2016-11-16T01:44:40.863Z cpu20:32858)lsi_mr3: mfi_TaskMgmt:258: VIRT_RESET cmd # 33623736
2016-11-16T01:44:40.863Z cpu20:32858)lsi_mr3: mfi_TaskMgmt:262: ABORT
2016-11-16T01:44:41.864Z cpu20:32858)WARNING: NMP: nmp_DeviceRequestFastDeviceProbe:237: NMP device "naa.60030057026728b01fa0f48e935b1363" state in doubt; requested fast path state update...
2016-11-16T01:44:41.864Z cpu20:32858)ScsiDeviceIO: 2595: Cmd(0x43a580bf03c0) 0x28, CmdSN 0x80000012 from world 36005 to dev "naa.60030057026728b01fa0f48e935b1363" failed H:0x8 D:0x0 P:0x0
2016-11-16T01:44:41.864Z cpu20:32858)lsi_mr3: mfi_TaskMgmt:254: Processing taskMgmt virt reset for device: vmhba2:C2:T1:L0
2016-11-16T01:44:41.864Z cpu20:32858)lsi_mr3: mfi_TaskMgmt:258: VIRT_RESET cmd # 33623736
2016-11-16T01:44:41.864Z cpu20:32858)lsi_mr3: mfi_TaskMgmt:262: ABORT
2016-11-16T01:44:42.865Z cpu20:32858)HBX: 276: 'Datastore2': HB at offset 4038656 - Reclaimed heartbeat [Timeout]:
2016-11-16T01:44:42.865Z cpu20:32858) [HB state abcdef02 offset 4038656 gen 81 stampUS 302175268874 uuid 58271dd7-96bbb858-ff73-901b0e98db00 jrnl <FB 1320600> drv 14.61 lockImpl 3]
2016-11-16T01:45:27.580Z cpu13:33406)NMP: nmp_ResetDeviceLogThrottling:3349: last error status from device naa.60030057026728b01fa0f48e935b1363 repeated 1 times
2016-11-16T01:48:27.585Z cpu14:32829)NMP: nmp_ThrottleLogForDevice:3298: Cmd 0x1a (0x439d80c4a1c0, 0) to dev "mpx.vmhba38:C0:T0:L0" on path "vmhba38:C0:T0:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x20 0x0. Act:NONE
2016-11-16T01:49:25.871Z cpu23:33497)NMP: nmp_ThrottleLogForDevice:3298: Cmd 0x1a (0x43a580c39fc0, 0) to dev "naa.60030057026728b01fa0f48e935b1363" on path "vmhba2:C2:T1:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0. Act:NONE
2016-11-16T01:49:25.876Z cpu23:33497)ScsiDeviceIO: 2651: Cmd(0x43a580c39fc0) 0x1a, CmdSN 0x1f11 from world 0 to dev "naa.60030057026728b01fa0f48e935b1363" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.
2016-11-16T01:49:25.876Z cpu23:33497)NMP: nmp_ThrottleLogForDevice:3298: Cmd 0x85 (0x43a580c39fc0, 34678) to dev "naa.60030057026728b01fa0f48e935b1363" on path "vmhba2:C2:T1:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x20 0x0. Act:NONE
2016-11-16T01:49:25.876Z cpu23:33497)ScsiDeviceIO: 2651: Cmd(0x43a580c39fc0) 0x4d, CmdSN 0x541 from world 34678 to dev "naa.60030057026728b01fa0f48e935b1363" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x20 0x0.
2016-11-16T01:49:25.876Z cpu23:33497)NMP: nmp_ThrottleLogForDevice:3298: Cmd 0x1a (0x43a580c39fc0, 34678) to dev "naa.60030057026728b01fa0f48e935b1363" on path "vmhba2:C2:T1:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0. Act:NONE”

Ich wäre sehr dankbar für jede Info.

Mit freundlichen Grüßen / Kind regards

Enis Al-Ubaydi

King of the Hill
Beiträge: 13331
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Re: Wegen Konnektivitätsproblemen kann nicht mehr auf Volume XXX zugegriffen werden.

Beitragvon Dayworker » 16.11.2016, 23:50

Verlinke mal bitte der Vollständigkeit halber die kompletten Log-Dateien. Die Snippets geben ja bereits einen Hinweis, aber wenn sich da User wie "kastlr" mal durchwühlen wollen, kommt man mit Snippets leider nicht sehr weit.

Member
Beiträge: 7
Registriert: 16.11.2016, 15:18

Re: Wegen Konnektivitätsproblemen kann nicht mehr auf Volume XXX zugegriffen werden.

Beitragvon enis » 17.11.2016, 09:26

Hallo Dayworker,
danke für dein Hinweis.
Hier die vollen Logs als Anhang.

Gruß Enis
Dateianhänge
vobd.txt
(189.46 KiB) 88-mal heruntergeladen
vmkwarning.txt
(24.3 KiB) 80-mal heruntergeladen
vmkernel.txt
(639.44 KiB) 82-mal heruntergeladen

Profi
Beiträge: 993
Registriert: 31.03.2008, 17:26
Wohnort: Einzugsbereich des FC Schalke 04
Kontaktdaten:

Re: Wegen Konnektivitätsproblemen kann nicht mehr auf Volume XXX zugegriffen werden.

Beitragvon kastlr » 17.11.2016, 23:16

Hallo Enis,

ich bin geneigt dir zuzustimmen, die Logs enthalten keine Hinweise dass deine/eure Probleme auf die Verwendung von ATS Heartbeats zurück zuführen sind.
Unabhängig davon würde ich aber dennoch empfehlen, ATS Heartbeats zu deaktivieren, denn dieses Feature sorgt immer wieder für Probleme.

Was mich etwas verwundert sind die vielen SCSI Fehlermeldungen in den Logs.
Einige behaupten, dass "Invalid Command Operation Codes" zum Einsatz kommen.
Wieder andere, dass "Invalid Field in CDB (Command Descriptor Block)" existieren.

Allerdings wage ich zu bezweifeln, dass derart viele SCSI Befehle mit falschem Inhalt versendet worden sind.
Eher würde ich vermuten, dass die Verbindung zwischen dem SCSI Controller und den Festplatten beeinträchtigt ist.
Oder dass der SCSI Controller in einem falschem Modus betrieben wird.

Zumindest lassen folgende Einträge den Schluß zu, dass eine Komponente mit einer falschen Einstellung betrieben wird.

Code: Alles auswählen

2016-10-27T20:49:47.164Z cpu26:33339)WARNING: LinuxSignal: 541: ignored unexpected signal flags 0x2 (sig 17)
2016-10-27T20:49:52.347Z cpu22:33339)WARNING: lsi_mr3: fusion_init:1141: To sync map
2016-10-27T20:49:56.020Z cpu18:33401)WARNING: VMK_PCI: 698: device 0000:00:14.0 failed to allocate 8 MSIX interrupts
2016-10-27T20:49:56.020Z cpu18:33401)WARNING: LinPCI: LinuxPCI_EnableMSIX:862: 0000:00:14.0: Interrupt allocation failed with Not supported

Nur mit Hilfe der Logs lässt sich allerdings nicht feststellen, welche Komponente sich hinter device 0000:00:14.0 verbirgt.

Eventuell wird auch der verwendete SCSI Controller nicht mehr durch ESXi 6.0 unterstützt.
Devices deprecated and unsupported in VMware ESXi 6.0 (2087970)

Mal schauen wie es weitergeht.
@Dayworker, vielen Dank für die Blumen.

Gruß,
Ralf

Member
Beiträge: 7
Registriert: 16.11.2016, 15:18

Re: Wegen Konnektivitätsproblemen kann nicht mehr auf Volume XXX zugegriffen werden.

Beitragvon enis » 18.11.2016, 12:23

Hallo Ralf,
erst einmal vielen Dank für deine Mühe.
Ok ich werde Heute noch den ATS Heartbeat deaktivieren.
Was das Device: 0000:00:14.0 betrifft, hat der: „# vmkchdev –l“ folgendes ausgegeben:
[root@vmcl4:~] vmkchdev -l
0000:00:00.0 8086:6f00 1734:1200 vmkernel PCIe RP[0000:00:00.0]
0000:00:01.0 8086:6f02 0000:0000 vmkernel PCIe RP[0000:00:01.0]
0000:00:03.0 8086:6f08 0000:0000 vmkernel PCIe RP[0000:00:03.0]
0000:00:03.2 8086:6f0a 0000:0000 vmkernel PCIe RP[0000:00:03.2]
0000:00:05.0 8086:6f28 1734:1200 vmkernel
0000:00:05.1 8086:6f29 1734:1200 vmkernel
0000:00:05.2 8086:6f2a 1734:1200 vmkernel
0000:00:05.4 8086:6f2c 1734:1200 vmkernel
0000:00:11.0 8086:8d7c 1734:1201 vmkernel
0000:00:11.4 8086:8d62 1734:1201 vmkernel vmhba0
0000:00:14.0 8086:8d31 1734:1201 vmkernel
0000:00:16.0 8086:8d3a 1734:1201 vmkernel
0000:00:16.1 8086:8d3b 1734:1201 vmkernel
0000:00:1a.0 8086:8d2d 1734:1201 vmkernel
0000:00:1c.0 8086:8d10 0000:0000 vmkernel PCIe RP[0000:00:1c.0]
0000:00:1c.3 8086:8d16 0000:0000 vmkernel PCIe RP[0000:00:1c.3]
0000:00:1d.0 8086:8d26 1734:1201 vmkernel
0000:00:1f.0 8086:8d44 1734:1201 vmkernel
0000:00:1f.2 8086:8d02 1734:1201 vmkernel vmhba1
0000:00:1f.3 8086:8d22 1734:1201 vmkernel
0000:01:00.0 1000:005d 1734:1212 vmkernel vmhba2
0000:03:00.0 10df:0720 1734:120d vmkernel vmnic0
0000:03:00.1 10df:0720 1734:120d vmkernel vmnic1
0000:03:00.2 10df:0720 1734:120d vmkernel vmnic2
0000:03:00.3 10df:0720 1734:120d vmkernel vmnic3
0000:05:00.0 102b:0522 1734:11cc vmkernel
0000:05:00.1 19a2:0800 1734:11cc vmkernel
0000:7f:08.0 8086:6f80 1734:1200 vmkernel
0000:7f:08.2 8086:6f32 1734:1200 vmkernel
0000:7f:08.3 8086:6f83 1734:1200 vmkernel
0000:7f:09.0 8086:6f90 1734:1200 vmkernel
0000:7f:09.2 8086:6f33 1734:1200 vmkernel
0000:7f:09.3 8086:6f93 1734:1200 vmkernel
0000:7f:0b.0 8086:6f81 1734:1200 vmkernel
0000:7f:0b.1 8086:6f36 1734:1200 vmkernel
0000:7f:0b.2 8086:6f37 1734:1200 vmkernel
0000:7f:0b.3 8086:6f76 0000:0000 vmkernel
0000:7f:0c.0 8086:6fe0 1734:1200 vmkernel
0000:7f:0c.1 8086:6fe1 1734:1200 vmkernel
0000:7f:0c.2 8086:6fe2 1734:1200 vmkernel
0000:7f:0c.3 8086:6fe3 1734:1200 vmkernel
0000:7f:0c.4 8086:6fe4 1734:1200 vmkernel
0000:7f:0c.5 8086:6fe5 1734:1200 vmkernel
0000:7f:0c.6 8086:6fe6 1734:1200 vmkernel
0000:7f:0c.7 8086:6fe7 1734:1200 vmkernel
0000:7f:0f.0 8086:6ff8 1734:1200 vmkernel
0000:7f:0f.1 8086:6ff9 1734:1200 vmkernel
0000:7f:0f.4 8086:6ffc 1734:1200 vmkernel
0000:7f:0f.5 8086:6ffd 1734:1200 vmkernel
0000:7f:0f.6 8086:6ffe 1734:1200 vmkernel
0000:7f:10.0 8086:6f1d 1734:1200 vmkernel
0000:7f:10.1 8086:6f34 1734:1200 vmkernel
0000:7f:10.5 8086:6f1e 1734:1200 vmkernel
0000:7f:10.6 8086:6f7d 1734:1200 vmkernel
0000:7f:10.7 8086:6f1f 1734:1200 vmkernel
0000:7f:12.0 8086:6fa0 1734:1200 vmkernel
0000:7f:12.1 8086:6f30 1734:1200 vmkernel
0000:7f:13.0 8086:6fa8 1734:1200 vmkernel
0000:7f:13.1 8086:6f71 1734:1200 vmkernel
0000:7f:13.2 8086:6faa 1734:1200 vmkernel
0000:7f:13.3 8086:6fab 1734:1200 vmkernel
0000:7f:13.4 8086:6fac 1734:1200 vmkernel
0000:7f:13.5 8086:6fad 1734:1200 vmkernel
0000:7f:14.0 8086:6fb0 1734:1200 vmkernel
0000:7f:14.1 8086:6fb1 1734:1200 vmkernel
0000:7f:14.2 8086:6fb2 1734:1200 vmkernel
0000:7f:14.3 8086:6fb3 1734:1200 vmkernel
0000:7f:15.0 8086:6fb4 1734:1200 vmkernel
0000:7f:15.1 8086:6fb5 1734:1200 vmkernel
0000:7f:15.2 8086:6fb6 1734:1200 vmkernel
0000:7f:15.3 8086:6fb7 1734:1200 vmkernel
0000:7f:16.0 8086:6f68 0000:0000 vmkernel
0000:7f:17.0 8086:6fd0 0000:0000 vmkernel
0000:7f:1e.0 8086:6f98 1734:1200 vmkernel
0000:7f:1e.1 8086:6f99 1734:1200 vmkernel
0000:7f:1e.2 8086:6f9a 1734:1200 vmkernel
0000:7f:1e.3 8086:6fc0 1734:1200 vmkernel
0000:7f:1e.4 8086:6f9c 1734:1200 vmkernel
0000:80:05.0 8086:6f28 1734:1200 vmkernel
0000:80:05.1 8086:6f29 1734:1200 vmkernel
0000:80:05.2 8086:6f2a 1734:1200 vmkernel
0000:80:05.4 8086:6f2c 1734:1200 vmkernel
0000:ff:08.0 8086:6f80 1734:1200 vmkernel
0000:ff:08.2 8086:6f32 1734:1200 vmkernel
0000:ff:08.3 8086:6f83 1734:1200 vmkernel
0000:ff:09.0 8086:6f90 1734:1200 vmkernel
0000:ff:09.2 8086:6f33 1734:1200 vmkernel
0000:ff:09.3 8086:6f93 1734:1200 vmkernel
0000:ff:0b.0 8086:6f81 1734:1200 vmkernel
0000:ff:0b.1 8086:6f36 1734:1200 vmkernel
0000:ff:0b.2 8086:6f37 1734:1200 vmkernel
0000:ff:0b.3 8086:6f76 0000:0000 vmkernel
0000:ff:0c.0 8086:6fe0 1734:1200 vmkernel
0000:ff:0c.1 8086:6fe1 1734:1200 vmkernel
0000:ff:0c.2 8086:6fe2 1734:1200 vmkernel
0000:ff:0c.3 8086:6fe3 1734:1200 vmkernel
0000:ff:0c.4 8086:6fe4 1734:1200 vmkernel
0000:ff:0c.5 8086:6fe5 1734:1200 vmkernel
0000:ff:0c.6 8086:6fe6 1734:1200 vmkernel
0000:ff:0c.7 8086:6fe7 1734:1200 vmkernel
0000:ff:0f.0 8086:6ff8 1734:1200 vmkernel
0000:ff:0f.1 8086:6ff9 1734:1200 vmkernel
0000:ff:0f.4 8086:6ffc 1734:1200 vmkernel
0000:ff:0f.5 8086:6ffd 1734:1200 vmkernel
0000:ff:0f.6 8086:6ffe 1734:1200 vmkernel
0000:ff:10.0 8086:6f1d 1734:1200 vmkernel
0000:ff:10.1 8086:6f34 1734:1200 vmkernel
0000:ff:10.5 8086:6f1e 1734:1200 vmkernel
0000:ff:10.6 8086:6f7d 1734:1200 vmkernel
0000:ff:10.7 8086:6f1f 1734:1200 vmkernel
0000:ff:12.0 8086:6fa0 1734:1200 vmkernel
0000:ff:12.1 8086:6f30 1734:1200 vmkernel
0000:ff:13.0 8086:6fa8 1734:1200 vmkernel
0000:ff:13.1 8086:6f71 1734:1200 vmkernel
0000:ff:13.2 8086:6faa 1734:1200 vmkernel
0000:ff:13.3 8086:6fab 1734:1200 vmkernel
0000:ff:13.4 8086:6fac 1734:1200 vmkernel
0000:ff:13.5 8086:6fad 1734:1200 vmkernel
0000:ff:14.0 8086:6fb0 1734:1200 vmkernel
0000:ff:14.1 8086:6fb1 1734:1200 vmkernel
0000:ff:14.2 8086:6fb2 1734:1200 vmkernel
0000:ff:14.3 8086:6fb3 1734:1200 vmkernel
0000:ff:15.0 8086:6fb4 1734:1200 vmkernel
0000:ff:15.1 8086:6fb5 1734:1200 vmkernel
0000:ff:15.2 8086:6fb6 1734:1200 vmkernel
0000:ff:15.3 8086:6fb7 1734:1200 vmkernel
0000:ff:16.0 8086:6f68 0000:0000 vmkernel
0000:ff:17.0 8086:6fd0 0000:0000 vmkernel
0000:ff:1e.0 8086:6f98 1734:1200 vmkernel
0000:ff:1e.1 8086:6f99 1734:1200 vmkernel
0000:ff:1e.2 8086:6f9a 1734:1200 vmkernel
0000:ff:1e.3 8086:6fc0 1734:1200 vmkernel
0000:ff:1e.4 8086:6f9c 1734:1200 vmkernel

Wenn ich das richtig sehe ist das Device die Zeile 10. ??
Unter der VM Ware „unsupported list“ habe ich den SAS Raid Kontroller von LSI (MegaRaid EP420i) auch nicht gefunden. ??
Gruß Enis

King of the Hill
Beiträge: 12569
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Re: Wegen Konnektivitätsproblemen kann nicht mehr auf Volume XXX zugegriffen werden.

Beitragvon irix » 18.11.2016, 12:33

Sei froh das du ihn nicht gefunden hast ;) Der steht auf der Liste der supporteten Geraete unter http://www.vmware.com/resources/compati ... ctid=36650

Gruss
Joerg

Experte
Beiträge: 1778
Registriert: 04.10.2011, 14:06

Re: Wegen Konnektivitätsproblemen kann nicht mehr auf Volume XXX zugegriffen werden.

Beitragvon JustMe » 18.11.2016, 12:34

8086:8d31 ist laut https://pci-ids.ucw.cz/read/PC/8086 der "C610/X99 series chipset USB xHCI Host Controller".

Der MegaRAID ist dagegen der hier: 0000:01:00.0 1000:005d 1734:1212 vmkernel vmhba2
...und der ist selbstverstaendlich "supported".

Hast Du das Original-ESXi von VMware verwendet, oder das FTS-Custom Image?
Irgendwelche Hinweise aus dem ReadMe zum FTS-Custom Image befolgt?

Member
Beiträge: 7
Registriert: 16.11.2016, 15:18

Re: Wegen Konnektivitätsproblemen kann nicht mehr auf Volume XXX zugegriffen werden.

Beitragvon enis » 18.11.2016, 14:16

Danke für die Antworten,

@Jörg ich bin echt froh, dass Maschine und Teile supportet sind, ich mache mir aber Gedanken da es weder von VM Ware Support noch von Fujitsu Support an Antworten was vernünftiges kam.

@ JustMe - Ja ich habe das FTS Image von der VM Ware Seite installiert. Was meinst du mit den Hinweise? Readme habe ich natürlich durchgelesen und dann VM installiert.

Profi
Beiträge: 993
Registriert: 31.03.2008, 17:26
Wohnort: Einzugsbereich des FC Schalke 04
Kontaktdaten:

Re: Wegen Konnektivitätsproblemen kann nicht mehr auf Volume XXX zugegriffen werden.

Beitragvon kastlr » 18.11.2016, 15:25

Hallo Enis,

bitte beachte auch, dass HBA Treiber und Firmware immer als Gesamtpacket zu verstehen sind, da Sie voneinander abhängig sind.
Es ist bei einem Treiberupdate daher immer sinnvoll zu prüfen, ob nicht auch eine neue Firmware verfügbar ist.

Was für Antworten hast du denn bisher vom VMware und vom FSC Support erhalten?

Gruß,
Ralf

King of the Hill
Beiträge: 13331
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Re: Wegen Konnektivitätsproblemen kann nicht mehr auf Volume XXX zugegriffen werden.

Beitragvon Dayworker » 18.11.2016, 17:08

Die Abhängigkeit von HBA, Treiber und Firmware geht sogar noch viel weiter, als es der Begriff Gesamtpaket assoziiert. Bei einigen Intel-NICs ist bekannt, daß die Treiber nicht geladen werden können, wenn die Firmware nicht einen gewissen Mindest-Stand hat und bei LSI-Controllern kann die neueste FW-Version sogar zu Probleme im Zusammenspiel mit einigen Datenträgertypen führen. Da gilt es also genau hinzusehen.

Mich würde auch interessieren, was der Support beider Firmen dazu sagt.

Experte
Beiträge: 1778
Registriert: 04.10.2011, 14:06

Re: Wegen Konnektivitätsproblemen kann nicht mehr auf Volume XXX zugegriffen werden.

Beitragvon JustMe » 19.11.2016, 09:40

@enis:
Auf der FTS-Seite zum Download des Custom Image (die dann auf VMware verweist) gibt's noch ein Bundle mit 'ner .pdf, die diverse Hinweise zur Konfiguration freigegebener PRIMERGY-Serversysteme enthaelt, z.B. BIOS-Einstellungen, die vom Default abweichen, Treiber, Firmware, ...

Manchmal reicht auch schon, einen Patch von VMware auf die Installation mit FTS-Image draufzuspielen, und Treiber werden stillschweigend ausgetauscht, weil VMware der Ansicht ist, dass die besser wissen als der HW-Hersteller welche Treiber die richtigen sind.

Member
Beiträge: 7
Registriert: 16.11.2016, 15:18

Re: Wegen Konnektivitätsproblemen kann nicht mehr auf Volume XXX zugegriffen werden.

Beitragvon enis » 21.11.2016, 11:06

Hallo Zusammen,
danke für die Antworten.


@Ralf – VM Ware haben mir geschrieben, dass das Ticket vom FTS bzw. vom Systemhaus erstellt werden soll. Daraufhin hat mein Systemhaus FTS angeschrieben und sie sollten ihrerseits den VM Ware Support aktivieren. Bis her ist aber leider noch nichts gekommen. Trotz Garantie und laufenden Service Vertrag bei FTS.

@ Dayworker – Ich bin davon ausgegangen, dass FTS beim Server Projekten, die Server testen und passend zum VM Ware Image vorbereiten. (BIOS und RAID Firmware). In dem Fall habe ich den Server sogar mit Platten bestellt. Es sollten auch diese einer entsprechenden Firmware haben. Deshalb habe ich keiner Firmware Update gemacht.

@ JustMe – Ich werde die Installationsanweisungen durchgehen um Fehler auszuschließen. Ich muss ehrlich gestehen, dass ich nicht mehr sicher bin, ob im Eifer des Gefechts ich alles richtig Konfiguriert habe.

Experte
Beiträge: 1778
Registriert: 04.10.2011, 14:06

Re: Wegen Konnektivitätsproblemen kann nicht mehr auf Volume XXX zugegriffen werden.

Beitragvon JustMe » 21.11.2016, 11:44

Nichts gegen das "Systemhaus" (ich kenn's ja noch nicht einmal), aber hier gibt's schon ein paar Unbekannte...

Ich nehme mal an, dass das Systemhaus den Rechner nach Kundenvorgaben konfiguriert und dann bei FTS bestellt hat. (Erste Unwaegbarkeit)
Dann verweigert VMware selber den Support, weil es sich vmtl. um eine vSphere-OEM-Lizenz von FTS handelt. (Normales Verhalten)
Wer genau hat die Einrichtung/Inbetriebnahme des Systems durchgefuehrt? (Noch 'ne Unwaegbarkeit)
Hat das Systemhaus das Problem als HW- (d.h. Warranty) oder als vSphere-Problem bei FTS (auf die OEM-Lizenz) gemeldet? (Naechste Unwaegbarkeit)
Wurden von FTS schon Rueckmeldungen gegeben, dass das Ticket akzeptiert wurde? (Noch so'n Punkt)
Welche Informationen (komplettes vm-support Logbundle, "PrimeCollect"-Archiv) wurden schon (und wann) an FTS gegeben? (Letzter Punkt...)

Bei so einem aktuellen System wuerde ich auch erst einmal davon ausgehen, dass die grundsaetzlichen Komponenten zueinander passen. Updates moegen schon existieren, aber "erst einmal" sollte es laufen.

Member
Beiträge: 7
Registriert: 16.11.2016, 15:18

Re: Wegen Konnektivitätsproblemen kann nicht mehr auf Volume XXX zugegriffen werden.

Beitragvon enis » 21.11.2016, 12:15

Hallo JustMe,
also es sieht wie folgt aus:

1. richtig – das Systemhaus (FTS Partner in übrigen) hat auf mein Wunsch den Server konfiguriert und bestellt.
2. auch richtig – es handelt sich um eine FSC OEM Royalty, vSphere 6 Essent. Lizenz
3. Inbetriebnahme und Einrichtung habe ich in Zusammenarbeit mit einen Systemhaus Techniker durchgeführt.
4. das ist das Problem nämlich- gemeldet wurde als vSphere Problem bei FTS, verstanden wurde als HW (Warranty) (laut Systemhaus) was eine neue Meldung zu Folge hatte. Und jetzt warte ich auf neue Info’s …
5. das ist auch so ein Punkt- Auf meine Frage „ob man die komplette Log’s bräuchte, um sie an FTS weiterzuleiten“ sagten sie mir: es sei erstmal nicht notwendig! Ich habe trotzdem vmkernel.log, vmkwarning.log, und vobd.log richtung mein Systemhaus gesendet.

Experte
Beiträge: 1778
Registriert: 04.10.2011, 14:06

Re: Wegen Konnektivitätsproblemen kann nicht mehr auf Volume XXX zugegriffen werden.

Beitragvon JustMe » 21.11.2016, 12:21

Hallo enis,

nun, die Leute vom Support werden schon die kompletten Informationen brauchen. Da finden sich dann wirklich alle Daten zu Treibern, Firmwares, Konfiguration etc.pp. Die lassen sich so aus den drei Log-Dateien allein nicht extrahieren.

Kleiner Tipp an's Systemhaus:
Das Ticket nicht auf die HW-Identnummer eroeffnen, sondern auf die vSphere-OEM-Lizenznummer SWLxxxxxxx. Dann wird's auch gleich ein Software-Ticket.

Member
Beiträge: 7
Registriert: 16.11.2016, 15:18

Re: Wegen Konnektivitätsproblemen kann nicht mehr auf Volume XXX zugegriffen werden.

Beitragvon enis » 21.11.2016, 12:25

Danke für den Tipp,
werde ich gleich nachfragen.

Gruß Enis


Zurück zu „vSphere 6.0“

Wer ist online?

Mitglieder in diesem Forum: Google [Bot] und 2 Gäste