Folgende Ausgabe kommt:
partedUtil get "/vmfs/devices/disks/naa.600605b00492768019a32e94a0af1bdb"
243068 255 63 3904897024
1 2048 3904896990 0 0
Von Anfang bis Ende der Abhandlung hat es maximal 10 Minuten gedauert...
Das Problem mit dem Vmware-Support ist, dass ich nur eine Essentials-Lizenz habe und damit keinen Support bekomme.
Das mit dem geringeren Endsektor probiere ich mal.
Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!
lokaler Datenspeicher lässt sich nicht erhöhen
-
albiderbaer
- Member
- Beiträge: 82
- Registriert: 12.09.2012, 20:56
jetzt kommt plötzlich:
~ # vmkfstools -P "vmfs/volumes/SSD-Raid"
VMFS-5.58 file system spanning 1 partitions.
File system label (if any): SSD-Raid
Mode: public
Capacity 497947770880 (474880 file blocks * 1048576), 101241061376 (96551 blocks) avail, max file size 69201586814976
UUID: 52110709-26e4caa2-32ec-00262d004afa
Partitions spanned (on "lvm"):
naa.600605b00492768019a32e94a0af1bdb:1
Is Native Snapshot Capable: YES
~ # partedUtil getUsableSectors "/vmfs/devices/disks/naa.600605b00492768019a32e94a0af1bdb"
34 3904896990
~ # partedUtil resize "/vmfs/devices/disks/naa.600605b00492768019a32e94a0af1bdb" 1 2048 3904890000
Error: Read-only file system during write on /dev/disks/naa.600605b00492768019a32e94a0af1bdb
- keine 2 Minuten von Anfang bis Ende...
~ # vmkfstools -P "vmfs/volumes/SSD-Raid"
VMFS-5.58 file system spanning 1 partitions.
File system label (if any): SSD-Raid
Mode: public
Capacity 497947770880 (474880 file blocks * 1048576), 101241061376 (96551 blocks) avail, max file size 69201586814976
UUID: 52110709-26e4caa2-32ec-00262d004afa
Partitions spanned (on "lvm"):
naa.600605b00492768019a32e94a0af1bdb:1
Is Native Snapshot Capable: YES
~ # partedUtil getUsableSectors "/vmfs/devices/disks/naa.600605b00492768019a32e94a0af1bdb"
34 3904896990
~ # partedUtil resize "/vmfs/devices/disks/naa.600605b00492768019a32e94a0af1bdb" 1 2048 3904890000
Error: Read-only file system during write on /dev/disks/naa.600605b00492768019a32e94a0af1bdb
- keine 2 Minuten von Anfang bis Ende...
Jepp, das kommt in meinem virtuellen ESXi auch, wenn ich versuche, die Partition mit dem VMFS zu "verkleinern".
Das wuerde in meinen Augen eigentlich darauf hindeuten, dass die Vergroesserung doch schon abgeschlossen sein sollte.
Natuerlich beantwortet das nicht die Frage, warum die Partition beim growfs bisher als "not found" gemeldet wird/wurde.
Hast Du wirklich mal die vSphere (Web) Client Ansichten aktualisiert, und den Host rebootet?
Falls sich nicht doch noch jemand mit einer zuendenden Idee findet:
Da VMware bei Essentials (ohne Plus) den Griffel nur gegen Einwurf grosser Mengen kleiner Muenzen (oder entsprechender Mengen grosser Scheine) in die Hand nehmen mag, wuerde sich vielleicht dann doch irgendwann die pragmatische Loesung aufdraengen:
VMs woanders hin umziehen, Platte loeschen, Partition und VMFS neu auf der neuen Groesse einrichten, VMs wieder zurueck. Feddich.
Bei dem Zeitaufwand, der bisher da reingesteckt wurde...
Das wuerde in meinen Augen eigentlich darauf hindeuten, dass die Vergroesserung doch schon abgeschlossen sein sollte.
Natuerlich beantwortet das nicht die Frage, warum die Partition beim growfs bisher als "not found" gemeldet wird/wurde.
Hast Du wirklich mal die vSphere (Web) Client Ansichten aktualisiert, und den Host rebootet?
Falls sich nicht doch noch jemand mit einer zuendenden Idee findet:
Da VMware bei Essentials (ohne Plus) den Griffel nur gegen Einwurf grosser Mengen kleiner Muenzen (oder entsprechender Mengen grosser Scheine) in die Hand nehmen mag, wuerde sich vielleicht dann doch irgendwann die pragmatische Loesung aufdraengen:
VMs woanders hin umziehen, Platte loeschen, Partition und VMFS neu auf der neuen Groesse einrichten, VMs wieder zurueck. Feddich.
Bei dem Zeitaufwand, der bisher da reingesteckt wurde...
-
albiderbaer
- Member
- Beiträge: 82
- Registriert: 12.09.2012, 20:56
@Dayworker & @JustMe:
Erst mal vielen Dank für eure Geduld.
Ja der Host wurde schon mehrfach neu gestartet und auch die Anzeige aktualisiert.
Ihr habt ja Recht, wenn man die pragmatische Lösung als am besten zielführend betrachtet.
Allerdings hat sich mein Vertrauen hinsichtlich Datensicherheit und Praktikabilität beim Esxi dadurch nicht erhöht. Es kann doch nicht sein, dass sich bei derart oft wiederholenden bzw. lapidaren Vorgängen solche Probleme auftun.
Bei meinem vorhergehenden Esxi 5.1 (free + lamw-Script als Backup-Lösung) hatte ich das schön öfter gemacht und da lief es ohne Probleme. Jetzt denkt man sich mit käuflicher Vers. 5.5 Lizenz + Vcenter + veeam sollte es zumindest genauso gehen, aber schwuppdiewupp: es geht gar nicht mehr!
Die "Hin-und-Her-Geeirei" mit dem Webclient oder Vsphere-Client und den Anzeige-Problemen geht mir auch auf den Zünder!
Dann hätte man ja doch beim "free" bleiben sollen und entsprechend doppelten Speicherplatz vorgehalten, wenn man ihn für den Ernstfall eh braucht.
Trotzdem danke nochmal an euch.
Erst mal vielen Dank für eure Geduld.
Ja der Host wurde schon mehrfach neu gestartet und auch die Anzeige aktualisiert.
Ihr habt ja Recht, wenn man die pragmatische Lösung als am besten zielführend betrachtet.
Allerdings hat sich mein Vertrauen hinsichtlich Datensicherheit und Praktikabilität beim Esxi dadurch nicht erhöht. Es kann doch nicht sein, dass sich bei derart oft wiederholenden bzw. lapidaren Vorgängen solche Probleme auftun.
Bei meinem vorhergehenden Esxi 5.1 (free + lamw-Script als Backup-Lösung) hatte ich das schön öfter gemacht und da lief es ohne Probleme. Jetzt denkt man sich mit käuflicher Vers. 5.5 Lizenz + Vcenter + veeam sollte es zumindest genauso gehen, aber schwuppdiewupp: es geht gar nicht mehr!
Die "Hin-und-Her-Geeirei" mit dem Webclient oder Vsphere-Client und den Anzeige-Problemen geht mir auch auf den Zünder!
Dann hätte man ja doch beim "free" bleiben sollen und entsprechend doppelten Speicherplatz vorgehalten, wenn man ihn für den Ernstfall eh braucht.
Trotzdem danke nochmal an euch.
-
albiderbaer
- Member
- Beiträge: 82
- Registriert: 12.09.2012, 20:56
So jetzt habe ich alle VMs auf einen anderen Datenstore verschoben.
Wollte dann den Datenstore trennen und wieder neu mit der richtigen Größe hinzufügen. Geht nun leider auch nicht. Der Host ist im Wartzungszustand.
Es kommt folgende Meldung:
Zwangsweise gemountetes VMFS unmounten
192.168.1.21
Die Ressource '52110709-26e4caa2-32ec-00262d004afa'
ist in Gebrauch.
root
06.06.2015 08:54:37
06.06.2015 08:54:37
06.06.2015 08:54:38
Irgendetwas muss noch auf dem Datenstore Zugriff haben. Eim Verzeichnis ".locker" sind scheinbar auch sehr aktuelle Dateien (Ich nehme an Log-Dateien).
Wie und wo kann ich die Logs denn abstellen und den Datenstore komplett freistellen, so dass tatsächlich kein Zugriff von irgendwo erfolgt?
Wollte dann den Datenstore trennen und wieder neu mit der richtigen Größe hinzufügen. Geht nun leider auch nicht. Der Host ist im Wartzungszustand.
Es kommt folgende Meldung:
Zwangsweise gemountetes VMFS unmounten
192.168.1.21
Die Ressource '52110709-26e4caa2-32ec-00262d004afa'
ist in Gebrauch.
root
06.06.2015 08:54:37
06.06.2015 08:54:37
06.06.2015 08:54:38
Irgendetwas muss noch auf dem Datenstore Zugriff haben. Eim Verzeichnis ".locker" sind scheinbar auch sehr aktuelle Dateien (Ich nehme an Log-Dateien).
Wie und wo kann ich die Logs denn abstellen und den Datenstore komplett freistellen, so dass tatsächlich kein Zugriff von irgendwo erfolgt?
Zurück zu „vSphere 5.5 / ESXi 5.5“
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 9 Gäste