Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!
[Solved] Probleme nach Serverausfall
[Solved] Probleme nach Serverausfall
Hallo!
Eins vorweg: ich habe nicht sondelrich viel Ahnung vond er ganzen Materie, möchte jedoch das Problem so gut es geht schildern.
Also am Wochenende sind durch den Ausfall einer Klimaanlage im Serverraum zwei von drei ESX-Server ausgegangen. Diese laufen jetzt wieder.
Die drei bilden zusammen ein Failover-Cluster.
Durch den Ausfall der Server 1&2 wurden alle VMs auf Server 3 "verschoben".
Nun würde ich diese gerne wieder zurückmigrieren mit vMotion.
Wenn ich jetzt jedoch eine VM dafür auswähle, dann den Host auf den sie zurücksoll,
so kommt die Fehlermeldung, daß der Zugriff auf die Konfiguration der VM nicht möglich ist.
In der Fehlermeldung wird ein Datastore angezeigt, der dem Server nicht mehr zugeordnet ist. Dieser Datastore (SAN) wird nur vom Server 3 erkannt.
Kann mir Jemand in einfachen Schritten erklären, was ich machen muss?
Falls noch Angaben fehlen, so bitte ich um Entschuldigung, aber ich weiß leide rnicht welche Angaben ihr benötigt.
Vspehre Client ist Version 5.0, und der vCenter Server ebenfalls 5.0.
Das ganze läuft unter wndows 2008 R2
Bitte keine Ratschläge wie "hol Dir nen Fachmann" usw. Ich weiß daß das die beste Lösung ist, aber leider könnte der Fachmann nicht kurzfristig erscheinen.
Bin für jede Hilfe dankbar
Eins vorweg: ich habe nicht sondelrich viel Ahnung vond er ganzen Materie, möchte jedoch das Problem so gut es geht schildern.
Also am Wochenende sind durch den Ausfall einer Klimaanlage im Serverraum zwei von drei ESX-Server ausgegangen. Diese laufen jetzt wieder.
Die drei bilden zusammen ein Failover-Cluster.
Durch den Ausfall der Server 1&2 wurden alle VMs auf Server 3 "verschoben".
Nun würde ich diese gerne wieder zurückmigrieren mit vMotion.
Wenn ich jetzt jedoch eine VM dafür auswähle, dann den Host auf den sie zurücksoll,
so kommt die Fehlermeldung, daß der Zugriff auf die Konfiguration der VM nicht möglich ist.
In der Fehlermeldung wird ein Datastore angezeigt, der dem Server nicht mehr zugeordnet ist. Dieser Datastore (SAN) wird nur vom Server 3 erkannt.
Kann mir Jemand in einfachen Schritten erklären, was ich machen muss?
Falls noch Angaben fehlen, so bitte ich um Entschuldigung, aber ich weiß leide rnicht welche Angaben ihr benötigt.
Vspehre Client ist Version 5.0, und der vCenter Server ebenfalls 5.0.
Das ganze läuft unter wndows 2008 R2
Bitte keine Ratschläge wie "hol Dir nen Fachmann" usw. Ich weiß daß das die beste Lösung ist, aber leider könnte der Fachmann nicht kurzfristig erscheinen.
Bin für jede Hilfe dankbar
Ich denke mal, und moechte vorschlagen, zu klaeren, warum denn die beiden Hosts nicht (mehr) auf diesen Datastore zugreifen koennen.
Gibt es irgendwelche Fehlermeldungen bei diesen beiden Hosts, z.B. im Client, im vmkernel.log, beim Booten?
Selbstverstaendlich koennen ESXi-Hosts nur VMs ausfuehren, auf deren Dateien sie auch zugreifen koennen. Ist diese Voraussetzung nicht erfuellt, dann geht kein vMotion.
Um was fuer ein "SAN" handelt es sich? FibreChannel, iSCSI? Oder doch NFS? Switches dazwischen? Zugriffsbeschraenkungen?
Sehen alle drei Hosts noch "gemeinsame" Datastores? Dann koennte man die VMs ggfs. erst einmal per Storage-vMotion dorthin verschieben, um dann mit den anderen beiden Hosts wieder die VMs ausfuehren zu koennen.
Ein "Fachmann" koennte in dieser Situation nur so gut sein, wie die Dokumentation zur bestehenden Installation, die man ihm zur Verfuegung stellen kann...
Gibt es irgendwelche Fehlermeldungen bei diesen beiden Hosts, z.B. im Client, im vmkernel.log, beim Booten?
Selbstverstaendlich koennen ESXi-Hosts nur VMs ausfuehren, auf deren Dateien sie auch zugreifen koennen. Ist diese Voraussetzung nicht erfuellt, dann geht kein vMotion.
Um was fuer ein "SAN" handelt es sich? FibreChannel, iSCSI? Oder doch NFS? Switches dazwischen? Zugriffsbeschraenkungen?
Sehen alle drei Hosts noch "gemeinsame" Datastores? Dann koennte man die VMs ggfs. erst einmal per Storage-vMotion dorthin verschieben, um dann mit den anderen beiden Hosts wieder die VMs ausfuehren zu koennen.
Ein "Fachmann" koennte in dieser Situation nur so gut sein, wie die Dokumentation zur bestehenden Installation, die man ihm zur Verfuegung stellen kann...
Danke schon mal für die Antworten.
Es handelt sich um ein Fibre-Channel SAN. Switche sind nach meinem Wissensstand nicht dazwischen und es gibt auch keine Zugriffsbeschränkungen.
Nein, die Host sehen keine gemeinsamen Datastores mehr.
Eine Dokumentation habe ich zwar, aber damit kann ich als Nicht-Fachmann wenig bis garnix anfangen.
Ein Rescan bleibt leider erfolglos. Schon mehrfach gemacht. Habe die betreffenden ESX-Server auch schon neu gestartet. Weiterhin nix zu sehen.
Fehlermeldungen kann ich übrigens nicht erkennen, aber ich schaue mir jetzt noch mal die vmkernel.log an.
Es handelt sich um ein Fibre-Channel SAN. Switche sind nach meinem Wissensstand nicht dazwischen und es gibt auch keine Zugriffsbeschränkungen.
Nein, die Host sehen keine gemeinsamen Datastores mehr.
Eine Dokumentation habe ich zwar, aber damit kann ich als Nicht-Fachmann wenig bis garnix anfangen.
Ein Rescan bleibt leider erfolglos. Schon mehrfach gemacht. Habe die betreffenden ESX-Server auch schon neu gestartet. Weiterhin nix zu sehen.
Fehlermeldungen kann ich übrigens nicht erkennen, aber ich schaue mir jetzt noch mal die vmkernel.log an.
-
irix
- King of the Hill
- Beiträge: 13058
- Registriert: 02.08.2008, 15:06
- Wohnort: Hannover/Wuerzburg
- Kontaktdaten:
Die VMs wurde hart ausgeschaltet und auf dem 3. Host registriert und neugestartet. Verschoben wurde da nichts.
Zum Problem.
Wenn die LUN einen (Vor)schaden hat kann es sein das man dieses erst beim Neustart bzw. reconnect bemerkt in der Form das der Datastore nicht mehr eingebunden wird. Auch wenn ein Volume als Snapshot erkannt wird wird hier erstmal geblockt.
Auch schon gesehen ist das in der Vergangenheit das Storage umkonfiguriert wurde was die ACLs angeht und diese nun durch den Neustart erst aktiv sind.
Wenn man auf der Konsole von ESX1+2 ein "df -h" macht was sieht man dann im Vergleich zum ESX3?
Ohne das vmkernel.log mal zusehen kann aus der Ferne keiner Sagen was die Ursache ist. Somit mein Ratschlag
- VMware Support einschalten
- Den ESX3 nicht anfassen
- Sofern eh nicht am laufen eine Sicherung der VMs einrichten und gucken obs auch Verwendbar ist das Backup
Gruss
Joerg
Zum Problem.
Wenn die LUN einen (Vor)schaden hat kann es sein das man dieses erst beim Neustart bzw. reconnect bemerkt in der Form das der Datastore nicht mehr eingebunden wird. Auch wenn ein Volume als Snapshot erkannt wird wird hier erstmal geblockt.
Auch schon gesehen ist das in der Vergangenheit das Storage umkonfiguriert wurde was die ACLs angeht und diese nun durch den Neustart erst aktiv sind.
Wenn man auf der Konsole von ESX1+2 ein "df -h" macht was sieht man dann im Vergleich zum ESX3?
Ohne das vmkernel.log mal zusehen kann aus der Ferne keiner Sagen was die Ursache ist. Somit mein Ratschlag
- VMware Support einschalten
- Den ESX3 nicht anfassen
- Sofern eh nicht am laufen eine Sicherung der VMs einrichten und gucken obs auch Verwendbar ist das Backup
Gruss
Joerg
-
kastlr
- Profi
- Beiträge: 993
- Registriert: 31.03.2008, 17:26
- Wohnort: Einzugsbereich des FC Schalke 04
- Kontaktdaten:
Hallo,
führe mal auf allen ESXi Servern folgende Befehle aus, damit du eine bessere Übersicht der aktuellen Situation erhältst.
esxcli storage vmfs extent list
esxcli storage core device list
Der erste Befehl liefert dir eine Übersicht, auf welchen Platten du vmfs Datastores liegen hast.
Der zweite Befehl liefert dir Details zu den Platten.
Ich würde erwarten, das der Output des zweiten Befehls auf allen Servern nahezu identisch ist (bis auf die interne Platte).
Beim ersten Befehl wirst du wahrscheinlich nur auf dem "surviving" Server die komplette Liste deiner VMFS Datastores vorfinden.
Weitere Schritte sind dann abhängig von den Erkenntnissen.
Gruß,
Ralf
führe mal auf allen ESXi Servern folgende Befehle aus, damit du eine bessere Übersicht der aktuellen Situation erhältst.
esxcli storage vmfs extent list
esxcli storage core device list
Der erste Befehl liefert dir eine Übersicht, auf welchen Platten du vmfs Datastores liegen hast.
Der zweite Befehl liefert dir Details zu den Platten.
Ich würde erwarten, das der Output des zweiten Befehls auf allen Servern nahezu identisch ist (bis auf die interne Platte).
Beim ersten Befehl wirst du wahrscheinlich nur auf dem "surviving" Server die komplette Liste deiner VMFS Datastores vorfinden.
Weitere Schritte sind dann abhängig von den Erkenntnissen.
Gruß,
Ralf
-
irix
- King of the Hill
- Beiträge: 13058
- Registriert: 02.08.2008, 15:06
- Wohnort: Hannover/Wuerzburg
- Kontaktdaten:
Helgomat hat geschrieben:führe mal auf allen ESXi Servern folgende Befehle aus, damit du eine bessere Übersicht der aktuellen Situation erhältst.
esxcli storage vmfs extent list
esxcli storage core device list
Sorry wenn ich so blöd nachfrage, aber wie mache ich das genau?
Über Telnet, Putty?
Ja, weil du hier die Ausgabe an deinem Client abgreifen und hier Posten kannst. Direkt an der Konsole wuerde es auch gehen in der Form
Code: Alles auswählen
command > /vmfs/volumes/datastore_der_noch_da_ist/asa.txtIch wuerde in den Security Profiles den SSH anschalten und dann per Putty zugreifen. Vor der Verbindung noch das Logging im Putty konfigurieren weil dann schreibt er alles was du in dem Fenster siehst in eine putty-&H.log. Das &H wird dabei ersetzt durch den verwendeten Hostnamen.
Da ihr aber ein Produkt habt was zumind. mal VMware Support hatte wuerde ich gucken ob dieser noch Vorhanden ist und den Hersteller befragen zu diesem Problem. Der beisst nicht und und spricht im Idealfall auch deine Sprache.
Gruss
Joerg
Okay. Jetzt mal die Ergebnisse von den Servern:
ESX1 (durch Sternchenlinie getrennt):
ESX3 (der funktionierende):
ESX1 (durch Sternchenlinie getrennt):
Code: Alles auswählen
~ # esxcli storage vmfs extent list
Volume Name VMFS UUID Extent Number Device N ame Partition
------------------ ----------------------------------- ------------- -------- ---------------------------- ---------
datastore_raid10 4c62820f-7635422c-ce76-d8d385a621cc 0 naa.600a 0b800049b07c000001ef4c60e3ae 1
datastore_raid10_2 5087c361-43d86f21-7036-d8d385fec934 0 naa.600a 0b800049b07c0000050a50877604 1
datastore_raid5 4c628254-87bbce0d-d4c7-d8d385a621cc 0 naa.600a 0b8000753c95000001314c60e3ac 1
datastore3 4c88d98a-593aeabd-e01c-d8d385fc28ca 0 naa.6005 08b1001030383932393544300900
************************************************************************************
naa.600a0b8000753c95000001314c60e3ac
Display Name: LSI Fibre Channel Disk (naa.600a0b8000753c95000001314c60e3ac)
Has Settable Display Name: true
Size: 571180
Device Type: Direct-Access
Multipath Plugin: NMP
Devfs Path: /vmfs/devices/disks/naa.600a0b8000753c95000001314c60e3ac
Vendor: LSI
Model: INF-01-00
Revision: 0735
SCSI Level: 5
Is Pseudo: false
Status: on
Is RDM Capable: true
Is Local: false
Is Removable: false
Is SSD: false
Is Offline: false
Is Perennially Reserved: false
Thin Provisioning Status: unknown
Attached Filters:
VAAI Status: unknown
Other UIDs: vml.0200000000600a0b8000753c95000001314c60e3ac494e462d3031
naa.600a0b800049b07c000001d34c60c982
Display Name: LSI Fibre Channel Disk (naa.600a0b800049b07c000001d34c60c982)
Has Settable Display Name: true
Size: 20
Device Type: Direct-Access
Multipath Plugin: NMP
Devfs Path: /vmfs/devices/disks/naa.600a0b800049b07c000001d34c60c982
Vendor: LSI
Model: Universal Xport
Revision: 0735
SCSI Level: 5
Is Pseudo: true
Status: on
Is RDM Capable: true
Is Local: false
Is Removable: false
Is SSD: false
Is Offline: false
Is Perennially Reserved: false
Thin Provisioning Status: unknown
Attached Filters:
VAAI Status: unknown
Other UIDs: vml.0200070000600a0b800049b07c000001d34c60c982556e69766572
naa.600508b1001030383932393544300900
Display Name: HP Serial Attached SCSI Disk (naa.600508b1001030383932393544300900)
Has Settable Display Name: true
Size: 139979
Device Type: Direct-Access
Multipath Plugin: NMP
Devfs Path: /vmfs/devices/disks/naa.600508b1001030383932393544300900
Vendor: HP
Model: LOGICAL VOLUME
Revision: 3.00
SCSI Level: 5
Is Pseudo: false
Status: degraded
Is RDM Capable: true
Is Local: false
Is Removable: false
Is SSD: false
Is Offline: false
Is Perennially Reserved: false
Thin Provisioning Status: unknown
Attached Filters:
VAAI Status: unknown
Other UIDs: vml.0200000000600508b10010303839323935443009004c4f47494341
mpx.vmhba3:C0:T0:L0
Display Name: Local TEAC CD-ROM (mpx.vmhba3:C0:T0:L0)
Has Settable Display Name: false
Size: 0
Device Type: CD-ROM
Multipath Plugin: NMP
Devfs Path: /vmfs/devices/cdrom/mpx.vmhba3:C0:T0:L0
Vendor: TEAC
Model: DV-W28S-VS
Revision: G.V0
SCSI Level: 5
Is Pseudo: false
Status: on
Is RDM Capable: false
Is Local: true
Is Removable: true
Is SSD: false
Is Offline: false
Is Perennially Reserved: false
Thin Provisioning Status: unknown
Attached Filters:
VAAI Status: unsupported
Other UIDs: vml.0005000000766d686261333a303a30
naa.600a0b800049b07c0000050a50877604
Display Name: LSI Fibre Channel Disk (naa.600a0b800049b07c0000050a50877604)
Has Settable Display Name: true
Size: 7628864
Device Type: Direct-Access
Multipath Plugin: NMP
Devfs Path: /vmfs/devices/disks/naa.600a0b800049b07c0000050a50877604
Vendor: LSI
Model: INF-01-00
Revision: 0735
SCSI Level: 5
Is Pseudo: false
Status: on
Is RDM Capable: true
Is Local: false
Is Removable: false
Is SSD: false
Is Offline: false
Is Perennially Reserved: false
Thin Provisioning Status: unknown
Attached Filters:
VAAI Status: unknown
Other UIDs: vml.0200020000600a0b800049b07c0000050a50877604494e462d3031
naa.600a0b800049b07c000001ef4c60e3ae
Display Name: LSI Fibre Channel Disk (naa.600a0b800049b07c000001ef4c60e3ae)
Has Settable Display Name: true
Size: 1142360
Device Type: Direct-Access
Multipath Plugin: NMP
Devfs Path: /vmfs/devices/disks/naa.600a0b800049b07c000001ef4c60e3ae
Vendor: LSI
Model: INF-01-00
Revision: 0735
SCSI Level: 5
Is Pseudo: false
Status: on
Is RDM Capable: true
Is Local: false
Is Removable: false
Is SSD: false
Is Offline: false
Is Perennially Reserved: false
Thin Provisioning Status: unknown
Attached Filters:
VAAI Status: unknown
Other UIDs: vml.0200010000600a0b800049b07c000001ef4c60e3ae494e462d3031
~ #
ESX3 (der funktionierende):
Code: Alles auswählen
~ # esxcli storage vmfs extent list
Volume Name VMFS UUID Extent Number Device Name Partition
------------------ ----------------------------------- ------------- ------------------------------------ ---------
datastore_raid10 4c62820f-7635422c-ce76-d8d385a621cc 0 naa.600a0b800049b07c000001ef4c60e3ae 1
datastore_raid10_2 5087c361-43d86f21-7036-d8d385fec934 0 naa.600a0b800049b07c0000050a50877604 1
datastore_raid5 4c628254-87bbce0d-d4c7-d8d385a621cc 0 naa.600a0b8000753c95000001314c60e3ac 1
datastore3 4c88d98a-593aeabd-e01c-d8d385fc28ca 0 naa.600508b1001030383932393544300900 3
*************************************************************
~ # esxcli storage core device list
naa.600a0b8000753c95000001314c60e3ac
Display Name: LSI Fibre Channel Disk (naa.600a0b8000753c95000001314c60e3ac)
Has Settable Display Name: true
Size: 571180
Device Type: Direct-Access
Multipath Plugin: NMP
Devfs Path: /vmfs/devices/disks/naa.600a0b8000753c95000001314c60e3ac
Vendor: LSI
Model: INF-01-00
Revision: 0735
SCSI Level: 5
Is Pseudo: false
Status: on
Is RDM Capable: true
Is Local: false
Is Removable: false
Is SSD: false
Is Offline: false
Is Perennially Reserved: false
Thin Provisioning Status: unknown
Attached Filters:
VAAI Status: unknown
Other UIDs: vml.0200000000600a0b8000753c95000001314c60e3ac494e462d3031
naa.600a0b800049b07c000001d34c60c982
Display Name: LSI Fibre Channel Disk (naa.600a0b800049b07c000001d34c60c982)
Has Settable Display Name: true
Size: 20
Device Type: Direct-Access
Multipath Plugin: NMP
Devfs Path: /vmfs/devices/disks/naa.600a0b800049b07c000001d34c60c982
Vendor: LSI
Model: Universal Xport
Revision: 0735
SCSI Level: 5
Is Pseudo: true
Status: on
Is RDM Capable: true
Is Local: false
Is Removable: false
Is SSD: false
Is Offline: false
Is Perennially Reserved: false
Thin Provisioning Status: unknown
Attached Filters:
VAAI Status: unknown
Other UIDs: vml.0200070000600a0b800049b07c000001d34c60c982556e69766572
naa.600508b1001030383932393544300900
Display Name: HP Serial Attached SCSI Disk (naa.600508b1001030383932393544300900)
Has Settable Display Name: true
Size: 139979
Device Type: Direct-Access
Multipath Plugin: NMP
Devfs Path: /vmfs/devices/disks/naa.600508b1001030383932393544300900
Vendor: HP
Model: LOGICAL VOLUME
Revision: 3.00
SCSI Level: 5
Is Pseudo: false
Status: degraded
Is RDM Capable: true
Is Local: false
Is Removable: false
Is SSD: false
Is Offline: false
Is Perennially Reserved: false
Thin Provisioning Status: unknown
Attached Filters:
VAAI Status: unknown
Other UIDs: vml.0200000000600508b10010303839323935443009004c4f47494341
mpx.vmhba3:C0:T0:L0
Display Name: Local TEAC CD-ROM (mpx.vmhba3:C0:T0:L0)
Has Settable Display Name: false
Size: 0
Device Type: CD-ROM
Multipath Plugin: NMP
Devfs Path: /vmfs/devices/cdrom/mpx.vmhba3:C0:T0:L0
Vendor: TEAC
Model: DV-W28S-VS
Revision: G.V0
SCSI Level: 5
Is Pseudo: false
Status: on
Is RDM Capable: false
Is Local: true
Is Removable: true
Is SSD: false
Is Offline: false
Is Perennially Reserved: false
Thin Provisioning Status: unknown
Attached Filters:
VAAI Status: unsupported
Other UIDs: vml.0005000000766d686261333a303a30
naa.600a0b800049b07c0000050a50877604
Display Name: LSI Fibre Channel Disk (naa.600a0b800049b07c0000050a50877604)
Has Settable Display Name: true
Size: 7628864
Device Type: Direct-Access
Multipath Plugin: NMP
Devfs Path: /vmfs/devices/disks/naa.600a0b800049b07c0000050a50877604
Vendor: LSI
Model: INF-01-00
Revision: 0735
SCSI Level: 5
Is Pseudo: false
Status: on
Is RDM Capable: true
Is Local: false
Is Removable: false
Is SSD: false
Is Offline: false
Is Perennially Reserved: false
Thin Provisioning Status: unknown
Attached Filters:
VAAI Status: unknown
Other UIDs: vml.0200020000600a0b800049b07c0000050a50877604494e462d3031
naa.600a0b800049b07c000001ef4c60e3ae
Display Name: LSI Fibre Channel Disk (naa.600a0b800049b07c000001ef4c60e3ae)
Has Settable Display Name: true
Size: 1142360
Device Type: Direct-Access
Multipath Plugin: NMP
Devfs Path: /vmfs/devices/disks/naa.600a0b800049b07c000001ef4c60e3ae
Vendor: LSI
Model: INF-01-00
Revision: 0735
SCSI Level: 5
Is Pseudo: false
Status: on
Is RDM Capable: true
Is Local: false
Is Removable: false
Is SSD: false
Is Offline: false
Is Perennially Reserved: false
Thin Provisioning Status: unknown
Attached Filters:
VAAI Status: unknown
Other UIDs: vml.0200010000600a0b800049b07c000001ef4c60e3ae494e462d3031
Auch, wenn's ketzerisch klingt:
Bist Du sicher, dass Du nicht 2x dieselbe Datei hier abgelegt hast?
Die sind (zumindest in meinem Browser) erschreckend identisch; inkl. "degraded" HP SAS disk (von der ich jetzt zugegebenermassen eine lokale Anbindung annehme, obwohl "IsLocal" auf false steht, aber das ist bei LSI-based Controllern haeufiger der Fall) mit identischer naa-ID und identischem Datastore-Namen "datastore3"...
Normalerweise gibt's in einem Cluster keine zwei Datstores mit demselben Namen.
Auf welchem Datastore liegen denn die VMs momentan? Verteilt auf allen 4?
Kannst Du nochmal einen Rescan durchfuehren, und gleich danach die vmkernel.log auslesen, und posten?
Bist Du sicher, dass Du nicht 2x dieselbe Datei hier abgelegt hast?
Die sind (zumindest in meinem Browser) erschreckend identisch; inkl. "degraded" HP SAS disk (von der ich jetzt zugegebenermassen eine lokale Anbindung annehme, obwohl "IsLocal" auf false steht, aber das ist bei LSI-based Controllern haeufiger der Fall) mit identischer naa-ID und identischem Datastore-Namen "datastore3"...
Normalerweise gibt's in einem Cluster keine zwei Datstores mit demselben Namen.
Auf welchem Datastore liegen denn die VMs momentan? Verteilt auf allen 4?
Kannst Du nochmal einen Rescan durchfuehren, und gleich danach die vmkernel.log auslesen, und posten?
JustMe hat geschrieben:Auch, wenn's ketzerisch klingt:
Bist Du sicher, dass Du nicht 2x dieselbe Datei hier abgelegt hast?
Die sind (zumindest in meinem Browser) erschreckend identisch; inkl. "degraded" HP SAS disk (von der ich jetzt zugegebenermassen eine lokale Anbindung annehme, obwohl "IsLocal" auf false steht, aber das ist bei LSI-based Controllern haeufiger der Fall) mit identischer naa-ID und identischem Datastore-Namen "datastore3"...
Normalerweise gibt's in einem Cluster keine zwei Datstores mit demselben Namen.
Auf welchem Datastore liegen denn die VMs momentan? Verteilt auf allen 4?
Kannst Du nochmal einen Rescan durchfuehren, und gleich danach die vmkernel.log auslesen, und posten?
Also die VMs liegen auf drei Datastores verteilt.
Was die gleichen Daten betrifft, so habe ich gerade festgestellt, daß in Putty, in der die ESX-Server 1 und 3 bereits hinterlegt waren, der ESX1 mit der Adresse vom ESX3 hinterlegt war. Ich habe das mal kurz korrigiert und hier kommt die korregte ausgabe vom ESX1:
Code: Alles auswählen
~ # esxcli storage vmfs extent list
Volume Name VMFS UUID Extent Number Device Name Partition
----------- ----------------------------------- ------------- ------------------------------------ ---------
datastore1 4c85f7b2-815315d3-a456-d8d385fec934 0 naa.600508b1001030383935433335300300 3
*******************************************************************************
~ # esxcli storage core device list
naa.600a0b8000753c95000001314c60e3ac
Display Name: LSI Fibre Channel Disk (naa.600a0b8000753c95000001314c60e3ac)
Has Settable Display Name: true
Size: 571180
Device Type: Direct-Access
Multipath Plugin: NMP
Devfs Path: /vmfs/devices/disks/naa.600a0b8000753c95000001314c60e3ac
Vendor: SGI
Model: IS400
Revision: 0735
SCSI Level: 5
Is Pseudo: false
Status: on
Is RDM Capable: true
Is Local: false
Is Removable: false
Is SSD: false
Is Offline: false
Is Perennially Reserved: false
Thin Provisioning Status: unknown
Attached Filters:
VAAI Status: unknown
Other UIDs: vml.0200000000600a0b8000753c95000001314c60e3ac495334303020
naa.600a0b800049b07c000001d34c60c982
Display Name: LSI Fibre Channel Disk (naa.600a0b800049b07c000001d34c60c982)
Has Settable Display Name: true
Size: 20
Device Type: Direct-Access
Multipath Plugin: NMP
Devfs Path: /vmfs/devices/disks/naa.600a0b800049b07c000001d34c60c982
Vendor: SGI
Model: Universal Xport
Revision: 0735
SCSI Level: 5
Is Pseudo: true
Status: on
Is RDM Capable: true
Is Local: false
Is Removable: false
Is SSD: false
Is Offline: false
Is Perennially Reserved: false
Thin Provisioning Status: unknown
Attached Filters:
VAAI Status: unknown
Other UIDs: vml.0200070000600a0b800049b07c000001d34c60c982556e69766572
naa.600508b1001030383935433335300300
Display Name: HP Serial Attached SCSI Disk (naa.600508b1001030383935433335300300)
Has Settable Display Name: true
Size: 139979
Device Type: Direct-Access
Multipath Plugin: NMP
Devfs Path: /vmfs/devices/disks/naa.600508b1001030383935433335300300
Vendor: HP
Model: LOGICAL VOLUME
Revision: 3.00
SCSI Level: 5
Is Pseudo: false
Status: degraded
Is RDM Capable: true
Is Local: false
Is Removable: false
Is SSD: false
Is Offline: false
Is Perennially Reserved: false
Thin Provisioning Status: unknown
Attached Filters:
VAAI Status: unknown
Other UIDs: vml.0200000000600508b10010303839354333353003004c4f47494341
mpx.vmhba3:C0:T0:L0
Display Name: Local Optiarc CD-ROM (mpx.vmhba3:C0:T0:L0)
Has Settable Display Name: false
Size: 0
Device Type: CD-ROM
Multipath Plugin: NMP
Devfs Path: /vmfs/devices/cdrom/mpx.vmhba3:C0:T0:L0
Vendor: Optiarc
Model: DVD RW AD-7561S
Revision: AH52
SCSI Level: 5
Is Pseudo: false
Status: on
Is RDM Capable: false
Is Local: true
Is Removable: true
Is SSD: false
Is Offline: false
Is Perennially Reserved: false
Thin Provisioning Status: unknown
Attached Filters:
VAAI Status: unsupported
Other UIDs: vml.0005000000766d686261333a303a30
naa.600a0b800049b07c0000050a50877604
Display Name: LSI Fibre Channel Disk (naa.600a0b800049b07c0000050a50877604)
Has Settable Display Name: true
Size: 7628864
Device Type: Direct-Access
Multipath Plugin: NMP
Devfs Path: /vmfs/devices/disks/naa.600a0b800049b07c0000050a50877604
Vendor: SGI
Model: IS400
Revision: 0735
SCSI Level: 5
Is Pseudo: false
Status: on
Is RDM Capable: true
Is Local: false
Is Removable: false
Is SSD: false
Is Offline: false
Is Perennially Reserved: false
Thin Provisioning Status: unknown
Attached Filters:
VAAI Status: unknown
Other UIDs: vml.0200020000600a0b800049b07c0000050a50877604495334303020
naa.600a0b800049b07c000001ef4c60e3ae
Display Name: LSI Fibre Channel Disk (naa.600a0b800049b07c000001ef4c60e3ae)
Has Settable Display Name: true
Size: 1142360
Device Type: Direct-Access
Multipath Plugin: NMP
Devfs Path: /vmfs/devices/disks/naa.600a0b800049b07c000001ef4c60e3ae
Vendor: SGI
Model: IS400
Revision: 0735
SCSI Level: 5
Is Pseudo: false
Status: on
Is RDM Capable: true
Is Local: false
Is Removable: false
Is SSD: false
Is Offline: false
Is Perennially Reserved: false
Thin Provisioning Status: unknown
Attached Filters:
VAAI Status: unknown
Other UIDs: vml.0200010000600a0b800049b07c000001ef4c60e3ae495334303020
~ #
Sorry für den Fehler.
Die vmkernel.log vom ESX1 nach dem rescan ist megalang und passt hier nicht rein.
Kann ich das irgendwie leeren?
-
irix
- King of the Hill
- Beiträge: 13058
- Registriert: 02.08.2008, 15:06
- Wohnort: Hannover/Wuerzburg
- Kontaktdaten:
Ich wuerde annehmen das dies das Problem ist
Kannst du ausschliessen das euer SAN Hardware Snapshots vorhaelt?
Bitte mal ein
ausfuehren.
ich wuerde dann ein ausfuehren
Gruss
Joerg
Code: Alles auswählen
Device naa.600a0b8000753c95000001314c60e3ac:1 detected to be a snapshotKannst du ausschliessen das euer SAN Hardware Snapshots vorhaelt?
Bitte mal ein
Code: Alles auswählen
esxcfg-volume -lausfuehren.
ich wuerde dann ein
Code: Alles auswählen
esxcfg-volume -M <UUID/label>Gruss
Joerg
irix hat geschrieben:Ich wuerde annehmen das dies das Problem istCode: Alles auswählen
Device naa.600a0b8000753c95000001314c60e3ac:1 detected to be a snapshot
Kannst du ausschliessen das euer SAN Hardware Snapshots vorhaelt?
Bitte mal einCode: Alles auswählen
esxcfg-volume -l
ausfuehren.
ich wuerde dann einausfuehrenCode: Alles auswählen
esxcfg-volume -M <UUID/label>
Gruss
Joerg
Also wenn ich den ersten Befehl eingebe kommt:
Code: Alles auswählen
VMFS UUID/label: 4c62820f-7635422c-ce76-d8d385a621cc/datastore_raid10
Can mount: Yes
Can resignature: No (the volume is being actively used)
Extent name: naa.600a0b800049b07c000001ef4c60e3ae:1 range: 0 - 1142271 (MB)
VMFS UUID/label: 4c628254-87bbce0d-d4c7-d8d385a621cc/datastore_raid5
Can mount: Yes
Can resignature: No (the volume is being actively used)
Extent name: naa.600a0b8000753c95000001314c60e3ac:1 range: 0 - 571135 (MB)
VMFS UUID/label: 5087c361-43d86f21-7036-d8d385fec934/datastore_raid10_2
Can mount: Yes
Can resignature: No (the volume is being actively used)
Extent name: naa.600a0b800049b07c0000050a50877604:1 range: 0 - 7628799 (MB)
Bevor ich jetzt den zweiten Befehl eingebe...was macht der?
Liege ich richtig, daß wenn ich hier z.B. den datastore raid_5 nhemen würde ich das so eingeben muss:
Code: Alles auswählen
esxcfg-volume -M 4c628254-87bbce0d-d4c7-d8d385a621cc/datastore_raid5oder müssen die eckigen Klammern miteingegeben werden?
-
irix
- King of the Hill
- Beiträge: 13058
- Registriert: 02.08.2008, 15:06
- Wohnort: Hannover/Wuerzburg
- Kontaktdaten:
Nein..... wenn du nicht weist was ein Befehl macht dann schaut man erstmal nach
Dann anschliessend
Alterntiv die UUID aber nicht beides zusammen
Der Datastore sollte dann im am Host wieder sichtbar werden. Ein "df -h" sollte ihn zeigen. Im Client dann mal eine VM per vMotion auf den Host ziehen und gucken ob diese auch ausfuert wird.
Falls ja die VM wieder weg migrieren.
- fehlende Volume mounten mit -M
- Host rebooten um zugucken ob die nach dem Neustart immer noch da sind
- Auf dem 2. Host das gleiche
Gruss
Joerg
Code: Alles auswählen
esxcfg-volume -hDann anschliessend
Code: Alles auswählen
esxcfg-volume -M datastore_raid5Alterntiv die UUID aber nicht beides zusammen
Der Datastore sollte dann im am Host wieder sichtbar werden. Ein "df -h" sollte ihn zeigen. Im Client dann mal eine VM per vMotion auf den Host ziehen und gucken ob diese auch ausfuert wird.
Falls ja die VM wieder weg migrieren.
- fehlende Volume mounten mit -M
- Host rebooten um zugucken ob die nach dem Neustart immer noch da sind
- Auf dem 2. Host das gleiche
Gruss
Joerg
irix hat geschrieben:Nein..... wenn du nicht weist was ein Befehl macht dann schaut man erstmal nachCode: Alles auswählen
esxcfg-volume -h
Dann anschliessendCode: Alles auswählen
esxcfg-volume -M datastore_raid5
Alterntiv die UUID aber nicht beides zusammen
Der Datastore sollte dann im am Host wieder sichtbar werden. Ein "df -h" sollte ihn zeigen. Im Client dann mal eine VM per vMotion auf den Host ziehen und gucken ob diese auch ausfuert wird.
Falls ja die VM wieder weg migrieren.
- fehlende Volume mounten mit -M
- Host rebooten um zugucken ob die nach dem Neustart immer noch da sind
- Auf dem 2. Host das gleiche
Gruss
Joerg
Juhu! Es klappt. Vielen vielen Dank!!!
-
irix
- King of the Hill
- Beiträge: 13058
- Registriert: 02.08.2008, 15:06
- Wohnort: Hannover/Wuerzburg
- Kontaktdaten:
Bitte.
Magst du uns noch veraten warum du den VMware Support nicht mit ins Boot geholt hast? Es scheint sich ja um eine Produktivumgebung zuhandeln. Die Loesungsfindung hier hat ja nun etwas gedauert und das es so einfach war weis man ja zu Beginn nicht.
Sollte der Support ausgelaufen sein so sag bescheid... das Problem koennte ich beheben mit einem Angebot ueber die Wiederaufnahme des VMware SnS
Gruss
Joerg
Magst du uns noch veraten warum du den VMware Support nicht mit ins Boot geholt hast? Es scheint sich ja um eine Produktivumgebung zuhandeln. Die Loesungsfindung hier hat ja nun etwas gedauert und das es so einfach war weis man ja zu Beginn nicht.
Sollte der Support ausgelaufen sein so sag bescheid... das Problem koennte ich beheben mit einem Angebot ueber die Wiederaufnahme des VMware SnS
Gruss
Joerg
-
kastlr
- Profi
- Beiträge: 993
- Registriert: 31.03.2008, 17:26
- Wohnort: Einzugsbereich des FC Schalke 04
- Kontaktdaten:
Ein Hinweis noch.
Wenn der VMFS Datastore als Snapshot erkannt wurde, sollte dieser Umstand behoben werden.
Denn jeder neue Host wird diesen Datastore nach einem Reboot in seiner Standard Einstellung nicht automatisch mounten.
Auch kann es zu Problemen im Cluster kommen, wenn z. B. die Force Mount Operation verwendet wird.
vSphere handling of LUNs detected as snapshot LUNs
Das Problem könnte auch noch für deinen surviving Host existieren, denn dieser ist ja bisher noch nicht rebootet worden.
Beim nächsten Reboot wird aber auch er den/die Datastores als Snapshot erkennen und du mußt wieder aktiv werden.
Gruß,
Ralf
Wenn der VMFS Datastore als Snapshot erkannt wurde, sollte dieser Umstand behoben werden.
Denn jeder neue Host wird diesen Datastore nach einem Reboot in seiner Standard Einstellung nicht automatisch mounten.
Auch kann es zu Problemen im Cluster kommen, wenn z. B. die Force Mount Operation verwendet wird.
vSphere handling of LUNs detected as snapshot LUNs
Das Problem könnte auch noch für deinen surviving Host existieren, denn dieser ist ja bisher noch nicht rebootet worden.
Beim nächsten Reboot wird aber auch er den/die Datastores als Snapshot erkennen und du mußt wieder aktiv werden.
Gruß,
Ralf
Zurück zu „vSphere 5 / ESXi 5 und 5.1“
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 9 Gäste