Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!
Bekomme Datatstores nicht entfernt
Re: Bekomme Datatstores nicht entfernt
Lieben Dank für eure Infos
Ich mach das alles mal und erstatte Bericht
Ich mach das alles mal und erstatte Bericht
Re: Bekomme Datatstores nicht entfernt
Erstmal die ISO Frage
Code: Alles auswählen
[root@ESX01:~] cat /vmfs/volumes/*/*/*.vmx | grep -i iso
cdrom.showIsoLockWarning = "FALSE"
cdrom.showIsoLockWarning = "FALSE"
[root@ESX01:~]
Re: Bekomme Datatstores nicht entfernt
Scratch Partition:
Dann der Befehl. Dabei habe ich aber bestimmt was falsch gemacht:
Dann der Befehl:
Code: Alles auswählen
[root@ESX01:~] vim-cmd hostsvc/advopt/view ScratchConfig.ConfiguredScratchLocation
(vim.option.OptionValue) [
(vim.option.OptionValue) {
key = "ScratchConfig.ConfiguredScratchLocation",
value = "/vmfs/volumes/5ecebdea-0d1f2d9e-be92-002655d94b41/.locker"
}
]
[root@ESX01:~]
Dann der Befehl. Dabei habe ich aber bestimmt was falsch gemacht:
Code: Alles auswählen
[root@ESX01:~] ls -lh /vmfs/devices/disks/ (ls -lh /dev/disks/
-sh: syntax error: unexpected "("
[root@ESX01:~]
Dann der Befehl:
Code: Alles auswählen
[root@ESX01:~] fdisk -l
***
*** The fdisk command is deprecated: fdisk does not handle GPT partitions. Please use partedUtil
***
fdisk: device has more than 2^32 sectors, can't use all of them
Found valid GPT with protective MBR; using GPT
Disk /dev/disks/naa.600605b003180f202661753f130ee589: 4294967295 sectors, 4095M
Logical sector size: 512
Disk identifier (GUID): aafa2431-87fa-4d3f-b8b9-4dbb9d1e7472
Partition table holds up to 128 entries
First usable sector is 34, last usable sector is 23437498334
Number Start (sector) End (sector) Size Code Name
1 2048 23437496320 10.9T 0700
Found valid GPT with protective MBR; using GPT
Disk /dev/disks/naa.2020030102060804: 30535680 sectors, 2622M
Logical sector size: 512
Disk identifier (GUID): a56c3693-e79d-414d-9cfd-fac726b32828
Partition table holds up to 128 entries
First usable sector is 34, last usable sector is 30535646
Number Start (sector) End (sector) Size Code Name
1 64 8191 4064K 0700
5 8224 520191 249M 0700
6 520224 1032191 249M 0700
7 1032224 1257471 109M 0700
8 1257504 1843199 285M 0700
9 1843200 7086079 2560M 0700
fdisk: device has more than 2^32 sectors, can't use all of them
Found valid GPT with protective MBR; using GPT
Disk /dev/disks/naa.600605b00758f1102661774131ac425d: 4294967295 sectors, 4095M
Logical sector size: 512
Disk identifier (GUID): aa68e7a8-1107-42ff-8464-dd465e55b0ed
Partition table holds up to 128 entries
First usable sector is 34, last usable sector is 46880980958
Number Start (sector) End (sector) Size Code Name
1 2048 46880978944 21.8T 0700
Found valid GPT with protective MBR; using GPT
Disk /dev/disks/naa.600605b003180f20266175b71a40670a: 697264128 sectors, 493M
Logical sector size: 512
Disk identifier (GUID): 77b3c856-05db-482a-bfcb-9e725b1a9efb
Partition table holds up to 128 entries
First usable sector is 34, last usable sector is 697264094
Number Start (sector) End (sector) Size Code Name
1 2048 697262080 332G 0700
[root@ESX01:~]
Re: Bekomme Datatstores nicht entfernt
Nein, Du hast da nichts falsch gemacht.
ICH habe in der Klammer verwirrenderweise einen alternativen Kommandoaufruf angegeben, also muss Deine Eingabe lauten ODER ALTERNATIV
Denn /vmfs/devices ist lediglich ein Link auf /dev.
Ansonsten sieht die Tabelle auf /dev/disks/naa.2020030102060804 fuer mich erst einmal gut aus, und ich hoffe (und vermute), dass die Ausgabe EINES der beiden obigen Befehle auf 5ecebdea-0d1f2d9e-be92-002655d94b41 verweist, denn in einem frueheren Post hattest Du schon hier hinein kopiert:
und damit zeigt die Scratchconfig auf den 22TB Datastore.
Aber was ist mit der Frage nach der Anzahl der verwendeten Hosts?
ICH habe in der Klammer verwirrenderweise einen alternativen Kommandoaufruf angegeben, also muss Deine Eingabe lauten
Code: Alles auswählen
ls -lh /vmfs/devices/disks/
Code: Alles auswählen
ls -lh /dev/disks/
Denn /vmfs/devices ist lediglich ein Link auf /dev.
Ansonsten sieht die Tabelle auf /dev/disks/naa.2020030102060804 fuer mich erst einmal gut aus, und ich hoffe (und vermute), dass die Ausgabe EINES der beiden obigen Befehle auf 5ecebdea-0d1f2d9e-be92-002655d94b41 verweist, denn in einem frueheren Post hattest Du schon hier hinein kopiert:
Code: Alles auswählen
/vmfs/volumes/5ecebdea-0d1f2d9e-be92-002655d94b41 RAID5 22TB (1) 5ecebdea-0d1f2d9e-be92-002655d94b41 true VMFS-6 24002961604608 22203662860288
und damit zeigt die Scratchconfig auf den 22TB Datastore.
Aber was ist mit der Frage nach der Anzahl der verwendeten Hosts?
Re: Bekomme Datatstores nicht entfernt
Danke für die ausführliche Info Da lernt man was dabei. Danke!
Hier nun die Ausgaben:
und
Hier nun die Ausgaben:
Code: Alles auswählen
[root@ESX01:~] ls -lh /vmfs/devices/disks/
total 71034548130
-rw------- 1 root root 14.6G Jun 4 15:09 naa.2020030102060804
-rw------- 1 root root 4.0M Jun 4 15:09 naa.2020030102060804:1
-rw------- 1 root root 250.0M Jun 4 15:09 naa.2020030102060804:5
-rw------- 1 root root 250.0M Jun 4 15:09 naa.2020030102060804:6
-rw------- 1 root root 110.0M Jun 4 15:09 naa.2020030102060804:7
-rw------- 1 root root 286.0M Jun 4 15:09 naa.2020030102060804:8
-rw------- 1 root root 2.5G Jun 4 15:09 naa.2020030102060804:9
-rw------- 1 root root 10.9T Jun 4 15:09 naa.600605b003180f202661753f130ee589
-rw------- 1 root root 10.9T Jun 4 15:09 naa.600605b003180f202661753f130ee589:1
-rw------- 1 root root 332.5G Jun 4 15:09 naa.600605b003180f20266175b71a40670a
-rw------- 1 root root 332.5G Jun 4 15:09 naa.600605b003180f20266175b71a40670a:1
-rw------- 1 root root 21.8T Jun 4 15:09 naa.600605b00758f1102661774131ac425d
-rw------- 1 root root 21.8T Jun 4 15:09 naa.600605b00758f1102661774131ac425d:1
lrwxrwxrwx 1 root root 20 Jun 4 15:09 vml.0100000000434359594d4d444448486d6d535330585149365553544f524520 -> naa.2020030102060804
lrwxrwxrwx 1 root root 22 Jun 4 15:09 vml.0100000000434359594d4d444448486d6d535330585149365553544f524520:1 -> naa.2020030102060804:1
lrwxrwxrwx 1 root root 22 Jun 4 15:09 vml.0100000000434359594d4d444448486d6d535330585149365553544f524520:5 -> naa.2020030102060804:5
lrwxrwxrwx 1 root root 22 Jun 4 15:09 vml.0100000000434359594d4d444448486d6d535330585149365553544f524520:6 -> naa.2020030102060804:6
lrwxrwxrwx 1 root root 22 Jun 4 15:09 vml.0100000000434359594d4d444448486d6d535330585149365553544f524520:7 -> naa.2020030102060804:7
lrwxrwxrwx 1 root root 22 Jun 4 15:09 vml.0100000000434359594d4d444448486d6d535330585149365553544f524520:8 -> naa.2020030102060804:8
lrwxrwxrwx 1 root root 22 Jun 4 15:09 vml.0100000000434359594d4d444448486d6d535330585149365553544f524520:9 -> naa.2020030102060804:9
lrwxrwxrwx 1 root root 36 Jun 4 15:09 vml.0200000000600605b003180f202661753f130ee589536572766552 -> naa.600605b003180f202661753f130ee589
lrwxrwxrwx 1 root root 38 Jun 4 15:09 vml.0200000000600605b003180f202661753f130ee589536572766552:1 -> naa.600605b003180f202661753f130ee589:1
lrwxrwxrwx 1 root root 36 Jun 4 15:09 vml.0200000000600605b003180f20266175b71a40670a536572766552 -> naa.600605b003180f20266175b71a40670a
lrwxrwxrwx 1 root root 38 Jun 4 15:09 vml.0200000000600605b003180f20266175b71a40670a536572766552:1 -> naa.600605b003180f20266175b71a40670a:1
lrwxrwxrwx 1 root root 36 Jun 4 15:09 vml.0200000000600605b00758f1102661774131ac425d4d5239323630 -> naa.600605b00758f1102661774131ac425d
lrwxrwxrwx 1 root root 38 Jun 4 15:09 vml.0200000000600605b00758f1102661774131ac425d4d5239323630:1 -> naa.600605b00758f1102661774131ac425d:1
[root@ESX01:~]
und
Code: Alles auswählen
[root@ESX01:~] ls -lh /dev/disks/
total 71034548130
-rw------- 1 root root 14.6G Jun 4 15:10 naa.2020030102060804
-rw------- 1 root root 4.0M Jun 4 15:10 naa.2020030102060804:1
-rw------- 1 root root 250.0M Jun 4 15:10 naa.2020030102060804:5
-rw------- 1 root root 250.0M Jun 4 15:10 naa.2020030102060804:6
-rw------- 1 root root 110.0M Jun 4 15:10 naa.2020030102060804:7
-rw------- 1 root root 286.0M Jun 4 15:10 naa.2020030102060804:8
-rw------- 1 root root 2.5G Jun 4 15:10 naa.2020030102060804:9
-rw------- 1 root root 10.9T Jun 4 15:10 naa.600605b003180f202661753f130ee589
-rw------- 1 root root 10.9T Jun 4 15:10 naa.600605b003180f202661753f130ee589:1
-rw------- 1 root root 332.5G Jun 4 15:10 naa.600605b003180f20266175b71a40670a
-rw------- 1 root root 332.5G Jun 4 15:10 naa.600605b003180f20266175b71a40670a:1
-rw------- 1 root root 21.8T Jun 4 15:10 naa.600605b00758f1102661774131ac425d
-rw------- 1 root root 21.8T Jun 4 15:10 naa.600605b00758f1102661774131ac425d:1
lrwxrwxrwx 1 root root 20 Jun 4 15:10 vml.0100000000434359594d4d444448486d6d535330585149365553544f524520 -> naa.2020030102060804
lrwxrwxrwx 1 root root 22 Jun 4 15:10 vml.0100000000434359594d4d444448486d6d535330585149365553544f524520:1 -> naa.2020030102060804:1
lrwxrwxrwx 1 root root 22 Jun 4 15:10 vml.0100000000434359594d4d444448486d6d535330585149365553544f524520:5 -> naa.2020030102060804:5
lrwxrwxrwx 1 root root 22 Jun 4 15:10 vml.0100000000434359594d4d444448486d6d535330585149365553544f524520:6 -> naa.2020030102060804:6
lrwxrwxrwx 1 root root 22 Jun 4 15:10 vml.0100000000434359594d4d444448486d6d535330585149365553544f524520:7 -> naa.2020030102060804:7
lrwxrwxrwx 1 root root 22 Jun 4 15:10 vml.0100000000434359594d4d444448486d6d535330585149365553544f524520:8 -> naa.2020030102060804:8
lrwxrwxrwx 1 root root 22 Jun 4 15:10 vml.0100000000434359594d4d444448486d6d535330585149365553544f524520:9 -> naa.2020030102060804:9
lrwxrwxrwx 1 root root 36 Jun 4 15:10 vml.0200000000600605b003180f202661753f130ee589536572766552 -> naa.600605b003180f202661753f130ee589
lrwxrwxrwx 1 root root 38 Jun 4 15:10 vml.0200000000600605b003180f202661753f130ee589536572766552:1 -> naa.600605b003180f202661753f130ee589:1
lrwxrwxrwx 1 root root 36 Jun 4 15:10 vml.0200000000600605b003180f20266175b71a40670a536572766552 -> naa.600605b003180f20266175b71a40670a
lrwxrwxrwx 1 root root 38 Jun 4 15:10 vml.0200000000600605b003180f20266175b71a40670a536572766552:1 -> naa.600605b003180f20266175b71a40670a:1
lrwxrwxrwx 1 root root 36 Jun 4 15:10 vml.0200000000600605b00758f1102661774131ac425d4d5239323630 -> naa.600605b00758f1102661774131ac425d
lrwxrwxrwx 1 root root 38 Jun 4 15:10 vml.0200000000600605b00758f1102661774131ac425d4d5239323630:1 -> naa.600605b00758f1102661774131ac425d:1
[root@ESX01:~]
Re: Bekomme Datatstores nicht entfernt
Wie erwaehnt: EINE Ausgabe haette gereicht, denn die sind beide identisch. Und sie passen zur Ausgabe von fdisk. (Die UUID taucht hier doch nicht auf, weil es ja eine DS-UUID und nicht vom Geraet ist. Mein naechster Fehler, sorry...)
Aber die Frage nach der Anzahl Deiner in Betrieb befindlichen HP-Hosts hast Du noch immer nicht beantworten wollen
Ich bin mir einigermassen sicher, dass es nur einer ist, auch wenn der ESX01 heisst.
Sonst haette der iso-Suchbefehl bei mindestens einer auf einem anderen Host ausgefuehrten VM des Shared Storage eine "busy"-Meldung ausgeben muessen.
Uebrigens saehe die Ausgabe mit etwas besser aus, denn dann bekommt man auch die VM-Namen mitgeliefert.
Vielleicht hat jemand anderes noch eine Idee; ich jedenfalls komme ohne die Angabe der Hostanzahl (und ob das vCenter vielleicht noch mehr Hosts verwaltet, ob die gerade disconnected oder sonstwas sind, etc.pp.) nicht weiter. Ich verstehe auch nicht, warum da so ein Geheimnis drum gemacht wird...
Aber die Frage nach der Anzahl Deiner in Betrieb befindlichen HP-Hosts hast Du noch immer nicht beantworten wollen
Ich bin mir einigermassen sicher, dass es nur einer ist, auch wenn der ESX01 heisst.
Sonst haette der iso-Suchbefehl bei mindestens einer auf einem anderen Host ausgefuehrten VM des Shared Storage eine "busy"-Meldung ausgeben muessen.
Uebrigens saehe die Ausgabe mit
Code: Alles auswählen
cat /vmfs/volumes/*/*/*.vmx | egrep -i "vmxf|iso"
Vielleicht hat jemand anderes noch eine Idee; ich jedenfalls komme ohne die Angabe der Hostanzahl (und ob das vCenter vielleicht noch mehr Hosts verwaltet, ob die gerade disconnected oder sonstwas sind, etc.pp.) nicht weiter. Ich verstehe auch nicht, warum da so ein Geheimnis drum gemacht wird...
Re: Bekomme Datatstores nicht entfernt
Huch. Entschuldige bitte.
Es handelt sich um einen Host mit VMware 6.7 und einem vCenter 6
Um es skalierbar zu machen und vielleicht noch einen zweiten oder gar einen dritten hinzufügen zu können habe ich mal mit -01 angefangen.
Es handelt sich um einen Host mit VMware 6.7 und einem vCenter 6
Um es skalierbar zu machen und vielleicht noch einen zweiten oder gar einen dritten hinzufügen zu können habe ich mal mit -01 angefangen.
Re: Bekomme Datatstores nicht entfernt
Die Ausgabe finde ich merkwürdig.
Da fehlen VMs. Das sind scheinbar nur die die gerade eingeschaltet sind
Da fehlen VMs. Das sind scheinbar nur die die gerade eingeschaltet sind
Code: Alles auswählen
[root@ESX01:~] cat /vmfs/volumes/*/*/*.vmx | egrep -i "vmxf|iso"
extendedConfigFile = "vpMediaserver Neu.vmxf"
cdrom.showIsoLockWarning = "FALSE"
extendedConfigFile = "vpBanking.vmxf"
extendedConfigFile = "vsDCw2k8R2-01.vmxf"
extendedConfigFile = "vsExchange.vmxf"
extendedConfigFile = "vsMAS-DC-01-2019.vmxf"
extendedConfigFile = "vsMAS-SRV-Verwaltung-2016.vmxf"
extendedConfigFile = "vsSharePoint.vmxf"
cdrom.showIsoLockWarning = "FALSE"
extendedConfigFile = "vpBanking.vmxf"
extendedConfigFile = "vsDCw2k8R2-01.vmxf"
extendedConfigFile = "vsExchange.vmxf"
extendedConfigFile = "vsMAS-DC-01-2019.vmxf"
extendedConfigFile = "vsMAS-SRV-Verwaltung-2016.vmxf"
extendedConfigFile = "vsSharePoint.vmxf"
extendedConfigFile = "vpMediaserver Neu.vmxf"
[root@ESX01:~]
-
- King of the Hill
- Beiträge: 13561
- Registriert: 01.10.2008, 12:54
- Wohnort: laut USV-Log am Ende der Welt...
Re: Bekomme Datatstores nicht entfernt
Echt jetzt?VMware 6.7 und einem vCenter 6
Das vCenter muß versionstechnisch mindestens gleich oder höher der genutzten ESXi-Version sein. Mit einem älteren vCenter kannst du keinen neuen ESXi verwalten.
Re: Bekomme Datatstores nicht entfernt
Hm, nein, nicht ganz. Die .vmxf enthaelt zusaetzliche Konfigurationsinformationen einer VM, aber nicht jeder Typ VM hat so eine Datei.
Ich habe es nur als Vehikel verwendet, um eine Zeile mit dem Namen der VM auszugeben. Stattdessen (also statt "vmxf") koenntest Du auf ESXi fuer aber auch wieder nur zumindest fast alle VMs auch "scsi0:0.filename" beim egrep-Pattern verwenden. Dabei gingen Dir aber u.U. VMs mit nur IDE- und/oder SATA-vmdks durch die Lappen. Wenn man allerdings alles zusammen in das Pattern packt, wird die Ausgabe nur unuebersichtlich. Leute mit etwas mehr Knoffhoff von der bash-aehnlichen busybox-Shell des ESXi koennten wohl auch einen smarteren Oneliner zimmern, aber fuer mich hat's bisher immer so ausgereicht.
Wo genau laeuft eigentlich Dein vCenter Server? Als Appliance, oder auf einer der Windows-VMs?
Und wie sieht die Konfiguration innerhalb des vCenters aus? Hast Du den Host direkt im Datacenter aufgenommen, oder bereits einen 1-Host-Cluster eingerichtet?
Was greift denn bereits so alles auf das vCenter zu (z.B. Backup-Programme, ...)?
Als pragmatische Loesung schwebt mir vor, einfach den Host aus dem vCenter zu werfen (erst trennen, dann loeschen; dabei laufen die VMs weiter), das Datacenter zu loeschen, und neu mit einem solchen anzufangen. Das sollte auch die jetzt veralteten Kenntnisse des bei der HW-Veraenderung ja ausgeschalteten vCenters verwerfen. Die ganze erwaehnte Netzwerkkonfiguration (und auch so ziemlich alles andere wie z.B. VM-Einstellungen) duerfte sich ja in der Konfig und den Datastores des Hosts ESX01 befinden. Oder hast Du etwa mit dem einen einsamen Host eine Enterprise-Plus-Lizenz in Verwendung, und einen Distributed vSwitch eingerichtet?
PS: Ich nehme mal an, dass "vCenter 6" NICHT "vCenter 6.0" heisst, sonst waere der Host ja auch VOR der HW-Aenderung nicht drin verwaltet worden...
Ich habe es nur als Vehikel verwendet, um eine Zeile mit dem Namen der VM auszugeben. Stattdessen (also statt "vmxf") koenntest Du auf ESXi fuer aber auch wieder nur zumindest fast alle VMs auch "scsi0:0.filename" beim egrep-Pattern verwenden. Dabei gingen Dir aber u.U. VMs mit nur IDE- und/oder SATA-vmdks durch die Lappen. Wenn man allerdings alles zusammen in das Pattern packt, wird die Ausgabe nur unuebersichtlich. Leute mit etwas mehr Knoffhoff von der bash-aehnlichen busybox-Shell des ESXi koennten wohl auch einen smarteren Oneliner zimmern, aber fuer mich hat's bisher immer so ausgereicht.
Wo genau laeuft eigentlich Dein vCenter Server? Als Appliance, oder auf einer der Windows-VMs?
Und wie sieht die Konfiguration innerhalb des vCenters aus? Hast Du den Host direkt im Datacenter aufgenommen, oder bereits einen 1-Host-Cluster eingerichtet?
Was greift denn bereits so alles auf das vCenter zu (z.B. Backup-Programme, ...)?
Als pragmatische Loesung schwebt mir vor, einfach den Host aus dem vCenter zu werfen (erst trennen, dann loeschen; dabei laufen die VMs weiter), das Datacenter zu loeschen, und neu mit einem solchen anzufangen. Das sollte auch die jetzt veralteten Kenntnisse des bei der HW-Veraenderung ja ausgeschalteten vCenters verwerfen. Die ganze erwaehnte Netzwerkkonfiguration (und auch so ziemlich alles andere wie z.B. VM-Einstellungen) duerfte sich ja in der Konfig und den Datastores des Hosts ESX01 befinden. Oder hast Du etwa mit dem einen einsamen Host eine Enterprise-Plus-Lizenz in Verwendung, und einen Distributed vSwitch eingerichtet?
PS: Ich nehme mal an, dass "vCenter 6" NICHT "vCenter 6.0" heisst, sonst waere der Host ja auch VOR der HW-Aenderung nicht drin verwaltet worden...
Re: Bekomme Datatstores nicht entfernt
Die vCenter Version ist aktuell nur nicht 7 und läuft als Appliance auf dem ESX01
Das mit dem Host entfernen kann ich gern probieren.
Distributed vSwitch ist nicht eingerichtet.
Ja es war ein einsamer Host mit einer Enterprise Plus Lizenz. Ich habe gestern och einen ESX02 hinzugefügt. Dieser ist aber schon recht betagt und sollte nur im Fall der allergrößten Not die eine oder andere VM übernehmen. Dazu habe ich noch eine Synology an beide Hosts angebunden.
Ich könnte somit den ESX neu installieren, wenn es sein sollte.
Was denkt ihr? Macht es Sinn?
Es gibt Veeam das auf das vCenter zugreift und Datensicherungen durchführt. Das kann aber auch neu konfiguriert werden
Das mit dem Host entfernen kann ich gern probieren.
Distributed vSwitch ist nicht eingerichtet.
Ja es war ein einsamer Host mit einer Enterprise Plus Lizenz. Ich habe gestern och einen ESX02 hinzugefügt. Dieser ist aber schon recht betagt und sollte nur im Fall der allergrößten Not die eine oder andere VM übernehmen. Dazu habe ich noch eine Synology an beide Hosts angebunden.
Ich könnte somit den ESX neu installieren, wenn es sein sollte.
Was denkt ihr? Macht es Sinn?
Es gibt Veeam das auf das vCenter zugreift und Datensicherungen durchführt. Das kann aber auch neu konfiguriert werden
Re: Bekomme Datatstores nicht entfernt
Update:
Host ESX02 aus dem vCenter getrennt und aus Bestandsliste entfernt. Keine Probleme
ESX02 wieder hinzugefügt. Alles palletti
ESX01 getrennt und aus Bestandsliste entfernt. Keine Probleme
ESX01 wieder hinzugefügt. Alles palletti.
Nur noch die Datastores werden angezeigt die auch tatsächlich da sind.
Coole Sache. Danke euch!!!
Schönes Wochenende.
Host ESX02 aus dem vCenter getrennt und aus Bestandsliste entfernt. Keine Probleme
ESX02 wieder hinzugefügt. Alles palletti
ESX01 getrennt und aus Bestandsliste entfernt. Keine Probleme
ESX01 wieder hinzugefügt. Alles palletti.
Nur noch die Datastores werden angezeigt die auch tatsächlich da sind.
Coole Sache. Danke euch!!!
Schönes Wochenende.
Re: Bekomme Datatstores nicht entfernt
Na, das ist doch erfreulich so vor dem Wochenende.
Wenn Du jetzt mehrere Hosts betreibst, solltest Du, falls noch nicht bedacht, darauf achten, dass die nicht alle in dasselbe Scratchverzeichnis auf dem 22TB Datastore schreiben. Das erzeugt nur Kuddelmuddel, und VMware haette auch gerne 1 Verzeichnis je Host. Scratchconfig musst Du ja koennen, sonst waere das von ESX01 nicht schon auf dem 22TB-DS...
Wenn Du jetzt mehrere Hosts betreibst, solltest Du, falls noch nicht bedacht, darauf achten, dass die nicht alle in dasselbe Scratchverzeichnis auf dem 22TB Datastore schreiben. Das erzeugt nur Kuddelmuddel, und VMware haette auch gerne 1 Verzeichnis je Host. Scratchconfig musst Du ja koennen, sonst waere das von ESX01 nicht schon auf dem 22TB-DS...
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 8 Gäste