Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!
mehrere Festplatten Snapshots
mehrere Festplatten Snapshots
Hallo, habe eine VM mit 2 Festplatten. Während von der einen Festpaltte nur 3 Snapshots existieren, gibt es von der anderen 53 Stück. Angefangen hat es im November. Der Ärger hat angefangen in dem ich die Platte (die mit den 52 SS) von der VM entfernt und an eine andere VM anhängen wollte. Ich kann nur den alten Stand mounten (xxx_1-flat.vmdk) und nicht den aktuellen (xxx_1-000050.vmdk).
Da mittlerweile noch neuere Snapshots existieren xxx_1-000053.vmdk (wieder alter November Stand) muss ich irgendwie auf die Version 050 zurückkommen.
Bei Aenderung der VMX Datei auf den alten Stand kann er die VM nicht starten.
Grund: The parent virtual disk has been modified since the child was created.
Gibt es hier eine Möglichkeit??? Bitte Hilfe!!
Da mittlerweile noch neuere Snapshots existieren xxx_1-000053.vmdk (wieder alter November Stand) muss ich irgendwie auf die Version 050 zurückkommen.
Bei Aenderung der VMX Datei auf den alten Stand kann er die VM nicht starten.
Grund: The parent virtual disk has been modified since the child was created.
Gibt es hier eine Möglichkeit??? Bitte Hilfe!!
Hallo nochmal,
kann ich das Problem lösen indem ich:
1) In die xx.vmx die gewünschte Snapshot-Datei (xxx_1-000050.vmdk ) als Disc eintrage
2) In die xxx_1-000001.vmdk als parent_CID die CID der xx_1.vmdk angebe
Der "alte Stand" wurde erst in der xxx_1-000051.vmdk geladen. Ab hier war es falsch.
Die Referenzierung der CID's von xx_1.vmdk zu xxx_1-000001.vmdk bis xxx_1-000050.vmdk wäre dann durchgängig.
->wenn die xxx_1.vmdk neu gemountet wird erhält Sie wohl eine neue CID. Oder ist dies zu einfach?
Gruss
kann ich das Problem lösen indem ich:
1) In die xx.vmx die gewünschte Snapshot-Datei (xxx_1-000050.vmdk ) als Disc eintrage
2) In die xxx_1-000001.vmdk als parent_CID die CID der xx_1.vmdk angebe
Der "alte Stand" wurde erst in der xxx_1-000051.vmdk geladen. Ab hier war es falsch.
Die Referenzierung der CID's von xx_1.vmdk zu xxx_1-000001.vmdk bis xxx_1-000050.vmdk wäre dann durchgängig.
->wenn die xxx_1.vmdk neu gemountet wird erhält Sie wohl eine neue CID. Oder ist dies zu einfach?
Gruss
Dank an Ulli
Hallo Ulli,
an dieser Stelle nochmals Dank für deine schnelle und professionelle Hilfe, es hat mich gefreut deine Bekanntschaft zu machen.
Vielen Dank!!
Gruss
Daniel
an dieser Stelle nochmals Dank für deine schnelle und professionelle Hilfe, es hat mich gefreut deine Bekanntschaft zu machen.
Vielen Dank!!
Gruss
Daniel
- continuum
- UNSTERBLICH(R.I.P.)
- Beiträge: 14759
- Registriert: 09.08.2003, 05:41
- Wohnort: sauerland
- Kontaktdaten:
Ist dir das noch nie passiert ?
VEEAM - wie andere backup-tools auch - neigt dazu snapshogts nicht sauber aufzuraeumen.
Wenn dann die VM noch selten betrachtet wird kann es schon mal vorkommen das ein snapshot an den anderen gehangt wird.
In diesem fall kamen da 50 snapshots zusammen - die VM wird dann immer langsamer und crasht irgendwann - entweder wenn das VMFS voll ist oder manchmal auch schon eher.
Fuer alle automatischen backup-tools gilt : immer schoen aufassen ob sie ihre snapshots auch wieder wegraeumen
VEEAM - wie andere backup-tools auch - neigt dazu snapshogts nicht sauber aufzuraeumen.
Wenn dann die VM noch selten betrachtet wird kann es schon mal vorkommen das ein snapshot an den anderen gehangt wird.
In diesem fall kamen da 50 snapshots zusammen - die VM wird dann immer langsamer und crasht irgendwann - entweder wenn das VMFS voll ist oder manchmal auch schon eher.
Fuer alle automatischen backup-tools gilt : immer schoen aufassen ob sie ihre snapshots auch wieder wegraeumen
Nee, das ist mir in den 2 Jahren, die ich Veeam einsetze, tatsächlich noch nicht passiert, dass der Snapshot nicht weggeräumt worden ist. Gesichert werden regelmäßig jede Woche so ca. 30 VMs.
Ich schaue meist (in unregelmäßigen Abständen) mit den RV-Tools nach, welche Snapshots es gibt (momentan keine), aber wo ich den Experten schon mal "an der Strippe" habe: Was empfiehlst du zur automatisierten Überprüfung?
Georg.
Ich schaue meist (in unregelmäßigen Abständen) mit den RV-Tools nach, welche Snapshots es gibt (momentan keine), aber wo ich den Experten schon mal "an der Strippe" habe: Was empfiehlst du zur automatisierten Überprüfung?
Georg.
Hallo,
veeam erstellt die snapshots seltsamerweiser immer noch obwohl der Job gestoppt ist.
Auch lassen sich diese nicht löschen:
Zugriff auf eine Datei <unspecified filename> nicht möglich, weil sie
gesperrt ist. (Stunden nach der Erstellung)
Im Snapshot Manager werden keine mehr angezeigt, vorhanden sind sie immer noch.
Gruss
veeam erstellt die snapshots seltsamerweiser immer noch obwohl der Job gestoppt ist.
Auch lassen sich diese nicht löschen:
Zugriff auf eine Datei <unspecified filename> nicht möglich, weil sie
gesperrt ist. (Stunden nach der Erstellung)
Im Snapshot Manager werden keine mehr angezeigt, vorhanden sind sie immer noch.
Gruss
gelöscht hab ich nix.
Die Snapshots von den geklonten Laufwerken erstellt, angestossen von Veeam.
#!/usr/bin/vmware
.encoding = "UTF-8"
config.version = "8"
virtualHW.version = "7"
pciBridge0.present = "TRUE"
pciBridge4.present = "TRUE"
pciBridge4.virtualDev = "pcieRootPort"
pciBridge4.functions = "8"
pciBridge5.present = "TRUE"
pciBridge5.virtualDev = "pcieRootPort"
pciBridge5.functions = "8"
pciBridge6.present = "TRUE"
pciBridge6.virtualDev = "pcieRootPort"
pciBridge6.functions = "8"
pciBridge7.present = "TRUE"
pciBridge7.virtualDev = "pcieRootPort"
pciBridge7.functions = "8"
vmci0.present = "TRUE"
nvram = "server03.nvram"
virtualHW.productCompatibility = "hosted"
powerType.powerOff = "soft"
powerType.powerOn = "hard"
powerType.suspend = "hard"
powerType.reset = "soft"
displayName = "server03"
extendedConfigFile = "server03.vmxf"
numvcpus = "2"
scsi0.present = "TRUE"
scsi0.sharedBus = "none"
memsize = "4096"
scsi0:0.present = "TRUE"
scsi0:0.fileName = "server03-system-000003.vmdk"
scsi0:0.deviceType = "disk"
sched.scsi0:0.shares = "normal"
sched.scsi0:0.throughputCap = "off"
sched.scsi0:1.shares = "normal"
sched.scsi0:1.throughputCap = "none"
ide0:0.present = "TRUE"
ide0:0.fileName = "/vmfs/devices/genscsi/mpx.vmhba1:C0:T0:L0"
ide0:0.deviceType = "atapi-cdrom"
ethernet1.present = "TRUE"
ethernet1.virtualDev = "e1000"
ethernet1.dvs.switchId = "13 ea 30 50 c7 40 ed 36-6b c8 37 98 ad 98 fa cd"
ethernet1.dvs.portId = "106"
ethernet1.dvs.portgroupId = "dvportgroup-483"
ethernet1.dvs.connectionId = "1292827610"
ethernet1.addressType = "vpx"
ethernet1.generatedAddress = "00:50:56:9e:7e:76"
tools.syncTime = "TRUE"
guestOSAltName = "Microsoft Windows Server 2003, Enterprise Edition (32-Bit)"
guestOS = "winnetenterprise"
uuid.bios = "42 0a 66 e4 72 15 37 8c-87 59 62 db 6a a2 db 80"
bios.bootDelay = "500"
vc.uuid = "52 57 d0 c3 ab f5 1c e2-6b 90 5c 82 65 73 87 54"
log.fileName = "vmware.log"
snapshot.action = "keep"
sched.cpu.min = "0"
sched.cpu.units = "mhz"
sched.cpu.shares = "normal"
sched.mem.minsize = "0"
sched.mem.shares = "normal"
tools.upgrade.policy = "upgradeAtPowerCycle"
pciBridge6.pciSlotNumber = "23"
pciBridge7.pciSlotNumber = "24"
vmci0.pciSlotNumber = "33"
deploymentPlatform = "windows"
unity.customColor = "#C0C0C0"
scsi0.pciSlotNumber = "16"
pciBridge0.pciSlotNumber = "17"
replay.supported = "FALSE"
vmotion.checkpointFBSize = "4194304"
hostCPUID.0 = "0000000d756e65476c65746e49656e69"
hostCPUID.1 = "0001067a00040800040ce3bdbfebfbff"
hostCPUID.80000001 = "00000000000000000000000120100800"
guestCPUID.0 = "0000000d756e65476c65746e49656e69"
guestCPUID.1 = "0001067a00010800800822010febbbff"
guestCPUID.80000001 = "00000000000000000000000120100800"
userCPUID.0 = "0000000d756e65476c65746e49656e69"
userCPUID.1 = "0001067a00040800000822010febbbff"
userCPUID.80000001 = "00000000000000000000000120100800"
evcCompatibilityMode = "FALSE"
uuid.action = "keep"
scsi0:0.redo = ""
ethernet1.pciSlotNumber = "34"
scsi0:0.ctkEnabled = "TRUE"
ctkEnabled = "TRUE"
tools.remindInstall = "false"
replay.filename = ""
unity.wasCapable = "FALSE"
pciBridge4.pciSlotNumber = "21"
pciBridge5.pciSlotNumber = "22"
config.readOnly = "false"
vmci0.id = "1789057921"
uuid.location = "56 4d 3e a9 95 31 7e 93-20 b8 cf 20 1a 0c 1d f8"
sched.swap.derivedName = "/vmfs/volumes/4cd3bd8c-587ee95f-9d63-001517b913c9/server03/server03-ec6b3a49.vswp"
cleanShutdown = "FALSE"
scsi0:1.present = "TRUE"
scsi0:1.fileName = "server03-daten-000003.vmdk"
scsi0:1.deviceType = "disk"
scsi0:1.ctkEnabled = "TRUE"
scsi0:1.redo = ""
scsi0:2.fileName = "/vmfs/volumes/4cc4762a-fe94fb8a-76c4-001517b913c9/server03/server03.vmdk"
scsi0:2.mode = "independent-persistent"
scsi0:2.ctkEnabled = "true"
scsi0:2.deviceType = "disk"
scsi0:2.present = "TRUE"
scsi0:2.redo = ""
sched.scsi0:2.shares = "normal"
sched.scsi0:2.throughputCap = "off"
floppy0.present = "FALSE"
scsi0:3.present = "FALSE"
Die Snapshots von den geklonten Laufwerken erstellt, angestossen von Veeam.
#!/usr/bin/vmware
.encoding = "UTF-8"
config.version = "8"
virtualHW.version = "7"
pciBridge0.present = "TRUE"
pciBridge4.present = "TRUE"
pciBridge4.virtualDev = "pcieRootPort"
pciBridge4.functions = "8"
pciBridge5.present = "TRUE"
pciBridge5.virtualDev = "pcieRootPort"
pciBridge5.functions = "8"
pciBridge6.present = "TRUE"
pciBridge6.virtualDev = "pcieRootPort"
pciBridge6.functions = "8"
pciBridge7.present = "TRUE"
pciBridge7.virtualDev = "pcieRootPort"
pciBridge7.functions = "8"
vmci0.present = "TRUE"
nvram = "server03.nvram"
virtualHW.productCompatibility = "hosted"
powerType.powerOff = "soft"
powerType.powerOn = "hard"
powerType.suspend = "hard"
powerType.reset = "soft"
displayName = "server03"
extendedConfigFile = "server03.vmxf"
numvcpus = "2"
scsi0.present = "TRUE"
scsi0.sharedBus = "none"
memsize = "4096"
scsi0:0.present = "TRUE"
scsi0:0.fileName = "server03-system-000003.vmdk"
scsi0:0.deviceType = "disk"
sched.scsi0:0.shares = "normal"
sched.scsi0:0.throughputCap = "off"
sched.scsi0:1.shares = "normal"
sched.scsi0:1.throughputCap = "none"
ide0:0.present = "TRUE"
ide0:0.fileName = "/vmfs/devices/genscsi/mpx.vmhba1:C0:T0:L0"
ide0:0.deviceType = "atapi-cdrom"
ethernet1.present = "TRUE"
ethernet1.virtualDev = "e1000"
ethernet1.dvs.switchId = "13 ea 30 50 c7 40 ed 36-6b c8 37 98 ad 98 fa cd"
ethernet1.dvs.portId = "106"
ethernet1.dvs.portgroupId = "dvportgroup-483"
ethernet1.dvs.connectionId = "1292827610"
ethernet1.addressType = "vpx"
ethernet1.generatedAddress = "00:50:56:9e:7e:76"
tools.syncTime = "TRUE"
guestOSAltName = "Microsoft Windows Server 2003, Enterprise Edition (32-Bit)"
guestOS = "winnetenterprise"
uuid.bios = "42 0a 66 e4 72 15 37 8c-87 59 62 db 6a a2 db 80"
bios.bootDelay = "500"
vc.uuid = "52 57 d0 c3 ab f5 1c e2-6b 90 5c 82 65 73 87 54"
log.fileName = "vmware.log"
snapshot.action = "keep"
sched.cpu.min = "0"
sched.cpu.units = "mhz"
sched.cpu.shares = "normal"
sched.mem.minsize = "0"
sched.mem.shares = "normal"
tools.upgrade.policy = "upgradeAtPowerCycle"
pciBridge6.pciSlotNumber = "23"
pciBridge7.pciSlotNumber = "24"
vmci0.pciSlotNumber = "33"
deploymentPlatform = "windows"
unity.customColor = "#C0C0C0"
scsi0.pciSlotNumber = "16"
pciBridge0.pciSlotNumber = "17"
replay.supported = "FALSE"
vmotion.checkpointFBSize = "4194304"
hostCPUID.0 = "0000000d756e65476c65746e49656e69"
hostCPUID.1 = "0001067a00040800040ce3bdbfebfbff"
hostCPUID.80000001 = "00000000000000000000000120100800"
guestCPUID.0 = "0000000d756e65476c65746e49656e69"
guestCPUID.1 = "0001067a00010800800822010febbbff"
guestCPUID.80000001 = "00000000000000000000000120100800"
userCPUID.0 = "0000000d756e65476c65746e49656e69"
userCPUID.1 = "0001067a00040800000822010febbbff"
userCPUID.80000001 = "00000000000000000000000120100800"
evcCompatibilityMode = "FALSE"
uuid.action = "keep"
scsi0:0.redo = ""
ethernet1.pciSlotNumber = "34"
scsi0:0.ctkEnabled = "TRUE"
ctkEnabled = "TRUE"
tools.remindInstall = "false"
replay.filename = ""
unity.wasCapable = "FALSE"
pciBridge4.pciSlotNumber = "21"
pciBridge5.pciSlotNumber = "22"
config.readOnly = "false"
vmci0.id = "1789057921"
uuid.location = "56 4d 3e a9 95 31 7e 93-20 b8 cf 20 1a 0c 1d f8"
sched.swap.derivedName = "/vmfs/volumes/4cd3bd8c-587ee95f-9d63-001517b913c9/server03/server03-ec6b3a49.vswp"
cleanShutdown = "FALSE"
scsi0:1.present = "TRUE"
scsi0:1.fileName = "server03-daten-000003.vmdk"
scsi0:1.deviceType = "disk"
scsi0:1.ctkEnabled = "TRUE"
scsi0:1.redo = ""
scsi0:2.fileName = "/vmfs/volumes/4cc4762a-fe94fb8a-76c4-001517b913c9/server03/server03.vmdk"
scsi0:2.mode = "independent-persistent"
scsi0:2.ctkEnabled = "true"
scsi0:2.deviceType = "disk"
scsi0:2.present = "TRUE"
scsi0:2.redo = ""
sched.scsi0:2.shares = "normal"
sched.scsi0:2.throughputCap = "off"
floppy0.present = "FALSE"
scsi0:3.present = "FALSE"
VEEAM logs lesen - wenn da "failed" steht sollte man wirklich mal nachsehen Cool
Ok, die Logs bekomme ich per E-Mail und durchforste sie auch.
Ich könnte ein Skript schreiben... aber wenn jemand eines hat, das regelmäßig den Datenbestand nach Snapshots durchforstet (oder auch den Füllstand berichtet), so dass ich mir die Arbeit spare, wäre ich dafür nicht undankbar
Georg.
werde es morgen versuchen, zZt läuft ein größerer Kopiervorgang.
Der Eintrag betrifft allerdings eine Platte die auf einem anderen Storage liegt und die ich eben erst wieder drangehangen habe.
zZt der Snapshoterstellung und des Versuchs diese zu löschen war diese nicht an der VM dran.
Dürfte also nicht damit zu tun haben.
Der Eintrag betrifft allerdings eine Platte die auf einem anderen Storage liegt und die ich eben erst wieder drangehangen habe.
zZt der Snapshoterstellung und des Versuchs diese zu löschen war diese nicht an der VM dran.
Dürfte also nicht damit zu tun haben.
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 9 Gäste

