Hallo,
ich habe hier ein "interessantes" Problem. Grundlegend hat das Ganze heute damit begonnen, dass VEEAM eine `Windows VM auf einem ESXI HOST nicht mehr sichern konnte. (Fehler 13 -- kein Zugriff). Andere VMs auf diesem Host lassen sich problemlos sichern / nur diese eine nicht.
Nun hab ich mir gedacht: OK, dann kopiere ich die VMX und die VMDK zumindest per ESXI Dateibrowser herunter, nachdem ich die VM heruntergefahren habe.
Aber: Auch hier bekomme ich "Dateioperation fehlgeschlagen".
Die VM läuft ohne Probleme, habe aber offenbar keine Möglichkeit mehr die VM-Dateien "zu sichern/herunterzuladen".
Wo könnte man hier ansetzen?
Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!
Herunterladen einer VM per Datastorebrowser - Vorgang fehlgeschlagen
Re: Herunterladen einer VM per Datastorebrowser - Vorgang fehlgeschlagen
Lief die VM zum Zeitpunkt des Kopierversuchs? Dann kann es nicht gehen (File lock).
Re: Herunterladen einer VM per Datastorebrowser - Vorgang fehlgeschlagen
Hi,
nein die VM ist nicht gelaufen. Ich habe gerade versucht die Maschine als Template OVF zu exportieren nachdem ich sie heruntergefahren hab
Folgender Fehler:
Der Vollständigkeit halber, falls mal jemand ein ähnliches Problem hat - Veeam sagt:
Kopieren innerhalb des Datastore
Das Kopieren aller Files in ein anderes Verzeichnis auf dem Datastore (bei ausgeschalteter VM) schlägt fehl, sobald die VMDK kopiert wird.
Verzeichnis am Datastore
Am Datastore (im Verzeichnis der betr. Maschine sieht es so aus):
ACHTUNG: Hier läuft die VM!
nein die VM ist nicht gelaufen. Ich habe gerade versucht die Maschine als Template OVF zu exportieren nachdem ich sie heruntergefahren hab
Folgender Fehler:
Der Vollständigkeit halber, falls mal jemand ein ähnliches Problem hat - Veeam sagt:
Code: Alles auswählen
ERR |VDDK error: 13 (You do not have access rights to this file). Value: 0x000000000000000d
[15.02.2019 15:23:48] < 19376> >> |--tr:Failed to read from a virtual disk. Start sector: 1894400, length: 2048
[15.02.2019 15:23:48] < 19376> >> |--tr:Failed to execute VDDK command 'Read'
[15.02.2019 15:23:48] < 19376> >> |--tr:Disk read operation has failed. Disk path: [[datastore1] SRV-DC2/SRV-DC2.vmdk]. Read offset: [969,932,800]. Requested data size: [1048576]. Disk size: [214,748,364,800]
[15.02.2019 15:23:48] < 19376> >> |--tr:CFsAwareDisk::Read failed. Offset: 969932800, length: 1048576
[15.02.2019 15:23:48] < 19376> >> |--tr:Failed to pre-read data ( first start block '925', blocks num '1'. Block size: '1048576').
[15.02.2019 15:23:48] < 19376> >> |--tr:Next asynchronous read request cannot be processed.
[15.02.2019 15:23:48] < 19376> >> |--tr:Asynchronous data reader has failed.
[15.02.2019 15:23:48] < 19376> >> |Unable to retrieve next block transmission command. Number of already processed blocks: [146].
[15.02.2019 15:23:48] < 19376> >> |--tr:Next asynchronous read request cannot be processed.
Kopieren innerhalb des Datastore
Das Kopieren aller Files in ein anderes Verzeichnis auf dem Datastore (bei ausgeschalteter VM) schlägt fehl, sobald die VMDK kopiert wird.
Verzeichnis am Datastore
Am Datastore (im Verzeichnis der betr. Maschine sieht es so aus):
ACHTUNG: Hier läuft die VM!
Re: Herunterladen einer VM per Datastorebrowser - Vorgang fehlgeschlagen
Nachsatz:
hab mir jetzt gerade die Logdatei /var/log/vpxa.log angeschaut. Gefällt mir nicht wirklich (auch wenn ich nicht genau weiß, was all diese Meldungen bedeuten...)
testdc2 war das Verzeichnis, welches ich erstellt habe. Dorthin wollte ich zuletzt alle Files des DC2 kopieren.
hab mir jetzt gerade die Logdatei /var/log/vpxa.log angeschaut. Gefällt mir nicht wirklich (auch wenn ich nicht genau weiß, was all diese Meldungen bedeuten...)
testdc2 war das Verzeichnis, welches ich erstellt habe. Dorthin wollte ich zuletzt alle Files des DC2 kopieren.
Code: Alles auswählen
2019-02-15T17:54:06.286Z [4D922B70 error 'provisioningvpxNfcClient' opID=3D5565B0-000002CC-ea-18] [VpxNfcClient] Unable to get info for local file ds:///vmfs/volumes/52d50e78-1223b160-4975-a0369f2c1e34/SRV-DC2/SRV-DC2-flat.vmdk
2019-02-15T17:54:06.291Z [4D922B70 verbose 'PropertyProvider' opID=3D5565B0-000002CC-ea-18] RecordOp ASSIGN: info.error, task-285291
2019-02-15T17:55:05.104Z [FFC371A0 error 'vpxavpxaVmomi' opID=5695cf12-26] [VpxaClientAdapter::InvokeCommon] Re-throwing method-fault 'vim.fault.InvalidState' received while invoking acquireTicket on vim.VirtualMachine:1
2019-02-15T17:55:05.677Z [4D901B70 error 'vpxavpxaVmomi' opID=2eccabc3-bf] [VpxaClientAdapter::InvokeCommon] Re-throwing method-fault 'vim.fault.InvalidState' received while invoking acquireTicket on vim.VirtualMachine:1
2019-02-15T17:55:06.207Z [4D901B70 error 'vpxavpxaVmomi' opID=79f741af-28] [VpxaClientAdapter::InvokeCommon] Re-throwing method-fault 'vim.fault.InvalidState' received while invoking acquireTicket on vim.VirtualMachine:1
2019-02-15T17:55:06.735Z [FFC371A0 error 'vpxavpxaVmomi' opID=685087b3-c7] [VpxaClientAdapter::InvokeCommon] Re-throwing method-fault 'vim.fault.InvalidState' received while invoking acquireTicket on vim.VirtualMachine:1
2019-02-15T17:55:07.266Z [4D901B70 error 'vpxavpxaVmomi' opID=12f9b0a5-83] [VpxaClientAdapter::InvokeCommon] Re-throwing method-fault 'vim.fault.InvalidState' received while invoking acquireTicket on vim.VirtualMachine:1
2019-02-15T17:55:07.803Z [FFC371A0 error 'vpxavpxaVmomi' opID=209bb1fe-f0] [VpxaClientAdapter::InvokeCommon] Re-throwing method-fault 'vim.fault.InvalidState' received while invoking acquireTicket on vim.VirtualMachine:1
2019-02-15T17:55:08.331Z [4D901B70 error 'vpxavpxaVmomi' opID=196dc796-e7] [VpxaClientAdapter::InvokeCommon] Re-throwing method-fault 'vim.fault.InvalidState' received while invoking acquireTicket on vim.VirtualMachine:1
2019-02-15T17:55:08.864Z [4D901B70 error 'vpxavpxaVmomi' opID=76157cb2-8d] [VpxaClientAdapter::InvokeCommon] Re-throwing method-fault 'vim.fault.InvalidState' received while invoking acquireTicket on vim.VirtualMachine:1
2019-02-15T17:55:09.395Z [FFC371A0 error 'vpxavpxaVmomi' opID=15618f50-6f] [VpxaClientAdapter::InvokeCommon] Re-throwing method-fault 'vim.fault.InvalidState' received while invoking acquireTicket on vim.VirtualMachine:1
2019-02-15T17:55:09.926Z [FFC371A0 error 'vpxavpxaVmomi' opID=4f425669-79] [VpxaClientAdapter::InvokeCommon] Re-throwing method-fault 'vim.fault.InvalidState' received while invoking acquireTicket on vim.VirtualMachine:1
2019-02-15T17:55:10.453Z [FFC7AB70 error 'vpxavpxaVmomi' opID=238643b8-79] [VpxaClientAdapter::InvokeCommon] Re-throwing method-fault 'vim.fault.InvalidState' received while invoking acquireTicket on vim.VirtualMachine:1
2019-02-15T17:55:10.989Z [FFC7AB70 error 'vpxavpxaVmomi' opID=734e6f0a-75] [VpxaClientAdapter::InvokeCommon] Re-throwing method-fault 'vim.fault.InvalidState' received while invoking acquireTicket on vim.VirtualMachine:1
2019-02-15T17:55:55.724Z [FFC371A0 info 'Libs' opID=3D5565B0-00000343-76-2a] OBJLIB-FILEBE : FileBEIoctl: ioctl operation failed on '/vmfs/volumes/52d50e78-1223b160-4975-a0369f2c1e34/SRV-DC2/SRV-DC2-flat.vmdk' : Input/output error (327682)
2019-02-15T17:55:55.724Z [FFC371A0 info 'DiskLib' opID=3D5565B0-00000343-76-2a] DISKLIB-VMFS :Vmfs_MoveData : failed to move data (Input/output error:0x50009).
2019-02-15T17:55:55.724Z [FFC371A0 info 'DiskLib' opID=3D5565B0-00000343-76-2a] DISKLIB-LIB : DiskLibCopyDataInt: Failed to copy using vmkernel data mover; falling back to non-accelerated copy. Input/output error
2019-02-15T17:56:15.385Z [FFC371A0 info 'Libs' opID=3D5565B0-00000343-76-2a] FileIOErrno2Result: Unexpected errno=5, Input/output error
2019-02-15T17:56:15.385Z [FFC371A0 info 'DiskLib' opID=3D5565B0-00000343-76-2a] DISKLIB-LIB : DiskLibCopyDataInt failed with Input/output error.
2019-02-15T17:56:15.917Z [FFC371A0 info 'DiskLib' opID=3D5565B0-00000343-76-2a] DISKLIB-LIB : Failed to clone : Input/output error (327689).
2019-02-15T17:56:15.922Z [FFC371A0 error 'provisioningvpxNfcClient' opID=3D5565B0-00000343-76-2a] [VpxNfcClient] File transfer [ds:///vmfs/volumes/52d50e78-1223b160-4975-a0369f2c1e34/SRV-DC2/SRV-DC2.vmdk -> ds:///vmfs/volumes/52d50e78-1223b160-4975-a0369f2c1e34/testdc2/SRV-DC2.vmdk] failed: The operation completed successfully
2019-02-15T17:56:15.922Z [FFC371A0 verbose 'provisioningvpxNfcClient' opID=3D5565B0-00000343-76-2a] [VpxNfcClient] NFC file error for file ds:///vmfs/volumes/52d50e78-1223b160-4975-a0369f2c1e34/SRV-DC2/SRV-DC2.vmdk
2019-02-15T17:56:15.927Z [FFC371A0 verbose 'PropertyProvider' opID=3D5565B0-00000343-76-2a] RecordOp ASSIGN: info.error, task-285369
2019-02-15T17:56:16.006Z [4DB3BB70 error 'hostdds' opID=3D5565B0-00000343-76-1b] [VpxaHalDSHostagent::DeleteDirectory] Error deleting directory on file-based datastore '/vmfs/volumes/52d50e78-1223b160-4975-a0369f2c1e34/testdc2'
2019-02-15T17:56:16.006Z [4DB3BB70 error 'vpxavpxaVmprov' opID=3D5565B0-00000343-76-1b] Error deleting directory /vmfs/volumes/52d50e78-1223b160-4975-a0369f2c1e34/testdc2: vmodl.fault.SystemError
2019-02-15T17:56:16.024Z [4D922B70 error 'hostdds' opID=3D5565B0-00000343-76-41] [VpxaHalDSHostagent::DeleteDirectory] Error deleting directory on file-based datastore '/vmfs/volumes/52d50e78-1223b160-4975-a0369f2c1e34/testdc2'
2019-02-15T17:56:16.024Z [4D922B70 error 'vpxavpxaVmprov' opID=3D5565B0-00000343-76-41] Error deleting directory /vmfs/volumes/52d50e78-1223b160-4975-a0369f2c1e34/testdc2: vmodl.fault.SystemError
Re: Herunterladen einer VM per Datastorebrowser - Vorgang fehlgeschlagen
Das sieht wirklich sehr merkwuerdig aus...
Das groesste Problem und vmtl. die Ursache duerfte der Input/Output Error beim Zugriff auf die -flat.vmdk sein.
Trotzdem erscheint mir aussergewoehnlich, dass der ESXi hier von file-based datastore berichtet, aber eine "lange" UUID wie von VMFS anzeigt. Normalerweise sind die UUIDs von NFS-Datastores kuerzer...
Was ist das denn fuer ein Speichergeraet, das hier zum Einsatz kommt? VSAN?
Eventuell wird's Zeit fuer eine Kontaktaufnahme mit "continuum", um zu retten, was noch zu retten ist...
Das groesste Problem und vmtl. die Ursache duerfte der Input/Output Error beim Zugriff auf die -flat.vmdk sein.
Trotzdem erscheint mir aussergewoehnlich, dass der ESXi hier von file-based datastore berichtet, aber eine "lange" UUID wie von VMFS anzeigt. Normalerweise sind die UUIDs von NFS-Datastores kuerzer...
Was ist das denn fuer ein Speichergeraet, das hier zum Einsatz kommt? VSAN?
Eventuell wird's Zeit fuer eine Kontaktaufnahme mit "continuum", um zu retten, was noch zu retten ist...
Re: Herunterladen einer VM per Datastorebrowser - Vorgang fehlgeschlagen
Hi,
nein das ist ein DAS -- Raid 10
...wie ginge das am Besten?
LG
nein das ist ein DAS -- Raid 10
Eventuell wird's Zeit fuer eine Kontaktaufnahme mit "continuum", um zu retten, was noch zu retten ist...
...wie ginge das am Besten?
LG
Re: Herunterladen einer VM per Datastorebrowser - Vorgang fehlgeschlagen
Im Screenshot oben ist eine "ctk"-Datei zu sehen (Change Tracking) - da bin ich dann raus.
Re: Herunterladen einer VM per Datastorebrowser - Vorgang fehlgeschlagen
~thc hat geschrieben:Im Screenshot oben ist eine "ctk"-Datei zu sehen (Change Tracking) - da bin ich dann raus.
das ist meines Wissens kein Problem. Wird u.a. vom Veeam für Changed Block Tracking genutzt.
Re: Herunterladen einer VM per Datastorebrowser - Vorgang fehlgeschlagen
Skype- und Telefondaten stehen in seiner Benutzersignatur hier im Forum.
Die I/O-Errors sollten auch im vmkernel.log entsprechende Hinweise erzeugt haben. Vielleicht helfen die Daten dort ja weiter.
@~thc: Na, soo schlimm sind die -ctks ja auch nicht . Die kann man sogar voellig gefahrlos einfach loeschen (OK, auf diesem potentiell defekten Datastore eventuell nicht...).
Die I/O-Errors sollten auch im vmkernel.log entsprechende Hinweise erzeugt haben. Vielleicht helfen die Daten dort ja weiter.
@~thc: Na, soo schlimm sind die -ctks ja auch nicht . Die kann man sogar voellig gefahrlos einfach loeschen (OK, auf diesem potentiell defekten Datastore eventuell nicht...).
Re: Herunterladen einer VM per Datastorebrowser - Vorgang fehlgeschlagen
JustMe hat geschrieben:Skype- und Telefondaten stehen in seiner Benutzersignatur hier im Forum.
Die I/O-Errors sollten auch im vmkernel.log entsprechende Hinweise erzeugt haben. Vielleicht helfen die Daten dort ja weiter.
Das schaut nicht gut aus...
Code: Alles auswählen
2019-02-15T15:36:40.996Z cpu5:32810)NMP: nmp_ThrottleLogForDevice:2321: Cmd 0x28 (0x412e83474400, 97281139) to dev "naa.6c81f660d4a9fe001a66cd570830eb96" on path "vmhba1:C2:T0:L0" Failed: H:0x7 D:0x2 P:0x0 Possible sense data: 0x0 0x0 0x0. Act:EVAL
2019-02-15T15:36:40.996Z cpu5:32810)WARNING: NMP: nmp_DeviceRequestFastDeviceProbe:237: NMP device "naa.6c81f660d4a9fe001a66cd570830eb96" state in doubt; requested fast path state update...
2019-02-15T15:36:40.996Z cpu5:32810)ScsiDeviceIO: 2337: Cmd(0x412e83474400) 0x28, CmdSN 0x5b57c6a from world 97281139 to dev "naa.6c81f660d4a9fe001a66cd570830eb96" failed H:0x7 D:0x2 P:0x0 Possible sense data: 0x0 0x0 0x0.
2019-02-15T15:37:14.153Z cpu18:32823)WARNING: NMP: nmp_DeviceRequestFastDeviceProbe:237: NMP device "naa.6c81f660d4a9fe001a66cd570830eb96" state in doubt; requested fast path state update...
2019-02-15T15:37:14.153Z cpu18:32823)ScsiDeviceIO: 2337: Cmd(0x4136857edc00) 0x28, CmdSN 0x5b57c96 from world 97281152 to dev "naa.6c81f660d4a9fe001a66cd570830eb96" failed H:0x7 D:0x2 P:0x0 Possible sense data: 0x2 0x3a 0x1.
2019-02-15T15:37:47.207Z cpu23:32828)NMP: nmp_ThrottleLogForDevice:2321: Cmd 0x28 (0x413684c39bc0, 97281020) to dev "naa.6c81f660d4a9fe001a66cd570830eb96" on path "vmhba1:C2:T0:L0" Failed: H:0x7 D:0x2 P:0x0 Possible sense data: 0x0 0x0 0x0. Act:EVAL
2019-02-15T15:38:23.757Z cpu23:59567517)ScsiDeviceIO: 2337: Cmd(0x4136852e0c00) 0x85, CmdSN 0x143aee98 from world 34404 to dev "naa.6c81f660d4a9fe001a66cd570830eb96" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x20 0x0.
2019-02-15T15:38:23.757Z cpu23:59567517)ScsiDeviceIO: 2337: Cmd(0x4136852e0c00) 0x4d, CmdSN 0x143aee99 from world 34404 to dev "naa.6c81f660d4a9fe001a66cd570830eb96" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x20 0x0.
2019-02-15T15:38:23.757Z cpu23:59567517)ScsiDeviceIO: 2337: Cmd(0x4136852e0c00) 0x1a, CmdSN 0x143aee9a from world 34404 to dev "naa.6c81f660d4a9fe001a66cd570830eb96" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.
2019-02-15T15:38:23.757Z cpu23:59567517)ScsiDeviceIO: 2337: Cmd(0x4136852e0c00) 0x85, CmdSN 0x143aee98 from world 34404 to dev "naa.6c81f660d4a9fe001a66cd570830eb96" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x20 0x0.
2019-02-15T15:38:23.757Z cpu23:59567517)ScsiDeviceIO: 2337: Cmd(0x4136852e0c00) 0x4d, CmdSN 0x143aee99 from world 34404 to dev "naa.6c81f660d4a9fe001a66cd570830eb96" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x20 0x0.
2019-02-15T15:38:23.757Z cpu23:59567517)ScsiDeviceIO: 2337: Cmd(0x4136852e0c00) 0x1a, CmdSN 0x143aee9a from world 34404 to dev "naa.6c81f660d4a9fe001a66cd570830eb96" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.
EDIT: Bin in Kontakt mit continuum...
- continuum
- UNSTERBLICH(R.I.P.)
- Beiträge: 14759
- Registriert: 09.08.2003, 05:41
- Wohnort: sauerland
- Kontaktdaten:
Re: Herunterladen einer VM per Datastorebrowser - Vorgang fehlgeschlagen
Wir kopieren die Problem-vmdk gerade per ddrescue via sshfs auf einen anderen Host.
Ein Drittel ist schon drueben .... sieht gut aus.
Ein Drittel ist schon drueben .... sieht gut aus.
Re: Herunterladen einer VM per Datastorebrowser - Vorgang fehlgeschlagen
Server ist wieder hochgefahren.
Zur Zeit sieht es ganz gut aus. (Ein paar Kleinigkeiten sind wohl noch geradezubiegen.
Vermutlich hat das Problem mit einer defekten Festplatte des RAID 10 - (6 Festplatten) - zu tun. Leider wurde es verabsäumt, diesen Fehler rechtzeitig zu melden.
Es wundert mich allerdings etwas, dass ggf. die eine defekte Platte zu so einem Fehler führt... (wie oben erwähnt, aber nur eine Vermutung). Sollte doch bei einem 10er Raid egal sein.
Ich konnte nun alle anderen verbleibenden VMs auf den zweiten ESXI Host migrieren.
Dieser hat GsD iDrac laufen (d.h. rechtzeitige Meldung von Fehlern, ohne dass ein "Humanoid" involviert ist).
Zur Zeit sieht es ganz gut aus. (Ein paar Kleinigkeiten sind wohl noch geradezubiegen.
Vermutlich hat das Problem mit einer defekten Festplatte des RAID 10 - (6 Festplatten) - zu tun. Leider wurde es verabsäumt, diesen Fehler rechtzeitig zu melden.
Es wundert mich allerdings etwas, dass ggf. die eine defekte Platte zu so einem Fehler führt... (wie oben erwähnt, aber nur eine Vermutung). Sollte doch bei einem 10er Raid egal sein.
Ich konnte nun alle anderen verbleibenden VMs auf den zweiten ESXI Host migrieren.
Dieser hat GsD iDrac laufen (d.h. rechtzeitige Meldung von Fehlern, ohne dass ein "Humanoid" involviert ist).
Zurück zu „vSphere 5.5 / ESXi 5.5“
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 6 Gäste