Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

[Solved] Probleme nach Serverausfall

Moderatoren: Dayworker, irix

Member
Beiträge: 23
Registriert: 20.02.2013, 11:40

[Solved] Probleme nach Serverausfall

Beitragvon Helgomat » 09.02.2015, 14:04

Hallo!

Eins vorweg: ich habe nicht sondelrich viel Ahnung vond er ganzen Materie, möchte jedoch das Problem so gut es geht schildern.

Also am Wochenende sind durch den Ausfall einer Klimaanlage im Serverraum zwei von drei ESX-Server ausgegangen. Diese laufen jetzt wieder.
Die drei bilden zusammen ein Failover-Cluster.

Durch den Ausfall der Server 1&2 wurden alle VMs auf Server 3 "verschoben".

Nun würde ich diese gerne wieder zurückmigrieren mit vMotion.

Wenn ich jetzt jedoch eine VM dafür auswähle, dann den Host auf den sie zurücksoll,
so kommt die Fehlermeldung, daß der Zugriff auf die Konfiguration der VM nicht möglich ist.
In der Fehlermeldung wird ein Datastore angezeigt, der dem Server nicht mehr zugeordnet ist. Dieser Datastore (SAN) wird nur vom Server 3 erkannt.

Kann mir Jemand in einfachen Schritten erklären, was ich machen muss?
Falls noch Angaben fehlen, so bitte ich um Entschuldigung, aber ich weiß leide rnicht welche Angaben ihr benötigt.

Vspehre Client ist Version 5.0, und der vCenter Server ebenfalls 5.0.
Das ganze läuft unter wndows 2008 R2

Bitte keine Ratschläge wie "hol Dir nen Fachmann" usw. Ich weiß daß das die beste Lösung ist, aber leider könnte der Fachmann nicht kurzfristig erscheinen.

Bin für jede Hilfe dankbar

Experte
Beiträge: 1847
Registriert: 04.10.2011, 14:06

Beitragvon JustMe » 09.02.2015, 14:41

Ich denke mal, und moechte vorschlagen, zu klaeren, warum denn die beiden Hosts nicht (mehr) auf diesen Datastore zugreifen koennen.

Gibt es irgendwelche Fehlermeldungen bei diesen beiden Hosts, z.B. im Client, im vmkernel.log, beim Booten?

Selbstverstaendlich koennen ESXi-Hosts nur VMs ausfuehren, auf deren Dateien sie auch zugreifen koennen. Ist diese Voraussetzung nicht erfuellt, dann geht kein vMotion.

Um was fuer ein "SAN" handelt es sich? FibreChannel, iSCSI? Oder doch NFS? Switches dazwischen? Zugriffsbeschraenkungen?

Sehen alle drei Hosts noch "gemeinsame" Datastores? Dann koennte man die VMs ggfs. erst einmal per Storage-vMotion dorthin verschieben, um dann mit den anderen beiden Hosts wieder die VMs ausfuehren zu koennen.

Ein "Fachmann" koennte in dieser Situation nur so gut sein, wie die Dokumentation zur bestehenden Installation, die man ihm zur Verfuegung stellen kann...

Member
Beiträge: 480
Registriert: 03.08.2010, 11:13
Wohnort: Sauerland

Beitragvon stahly » 09.02.2015, 14:42

Hi!

Vmware-Support :D :D :D

Sieht jeder Server alle LUNs?
Wenn nicht, mal einen Rescan gemacht?
-> Host > Konfiguration > Speicher > Aller erneut prüfen...

Member
Beiträge: 23
Registriert: 20.02.2013, 11:40

Beitragvon Helgomat » 09.02.2015, 15:44

Danke schon mal für die Antworten.

Es handelt sich um ein Fibre-Channel SAN. Switche sind nach meinem Wissensstand nicht dazwischen und es gibt auch keine Zugriffsbeschränkungen.

Nein, die Host sehen keine gemeinsamen Datastores mehr.

Eine Dokumentation habe ich zwar, aber damit kann ich als Nicht-Fachmann wenig bis garnix anfangen.

Ein Rescan bleibt leider erfolglos. Schon mehrfach gemacht. Habe die betreffenden ESX-Server auch schon neu gestartet. Weiterhin nix zu sehen.

Fehlermeldungen kann ich übrigens nicht erkennen, aber ich schaue mir jetzt noch mal die vmkernel.log an.

King of the Hill
Beiträge: 13058
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 09.02.2015, 15:47

Die VMs wurde hart ausgeschaltet und auf dem 3. Host registriert und neugestartet. Verschoben wurde da nichts.

Zum Problem.
Wenn die LUN einen (Vor)schaden hat kann es sein das man dieses erst beim Neustart bzw. reconnect bemerkt in der Form das der Datastore nicht mehr eingebunden wird. Auch wenn ein Volume als Snapshot erkannt wird wird hier erstmal geblockt.

Auch schon gesehen ist das in der Vergangenheit das Storage umkonfiguriert wurde was die ACLs angeht und diese nun durch den Neustart erst aktiv sind.

Wenn man auf der Konsole von ESX1+2 ein "df -h" macht was sieht man dann im Vergleich zum ESX3?

Ohne das vmkernel.log mal zusehen kann aus der Ferne keiner Sagen was die Ursache ist. Somit mein Ratschlag
- VMware Support einschalten
- Den ESX3 nicht anfassen
- Sofern eh nicht am laufen eine Sicherung der VMs einrichten und gucken obs auch Verwendbar ist das Backup

Gruss
Joerg

Member
Beiträge: 23
Registriert: 20.02.2013, 11:40

Beitragvon Helgomat » 09.02.2015, 16:54

@irix.

Deshalb habe ich das "verschoben" ja auch in Anführungszeichen gesetzt.

Übrigens sind doch switche dazwischen. Zwei QLOGIC-Teile

Profi
Beiträge: 993
Registriert: 31.03.2008, 17:26
Wohnort: Einzugsbereich des FC Schalke 04
Kontaktdaten:

Beitragvon kastlr » 09.02.2015, 18:25

Hallo,

führe mal auf allen ESXi Servern folgende Befehle aus, damit du eine bessere Übersicht der aktuellen Situation erhältst.

esxcli storage vmfs extent list
esxcli storage core device list

Der erste Befehl liefert dir eine Übersicht, auf welchen Platten du vmfs Datastores liegen hast.
Der zweite Befehl liefert dir Details zu den Platten.

Ich würde erwarten, das der Output des zweiten Befehls auf allen Servern nahezu identisch ist (bis auf die interne Platte).
Beim ersten Befehl wirst du wahrscheinlich nur auf dem "surviving" Server die komplette Liste deiner VMFS Datastores vorfinden.

Weitere Schritte sind dann abhängig von den Erkenntnissen.

Gruß,
Ralf

Member
Beiträge: 23
Registriert: 20.02.2013, 11:40

Beitragvon Helgomat » 10.02.2015, 09:26

führe mal auf allen ESXi Servern folgende Befehle aus, damit du eine bessere Übersicht der aktuellen Situation erhältst.

esxcli storage vmfs extent list
esxcli storage core device list


Sorry wenn ich so blöd nachfrage, aber wie mache ich das genau?
Über Telnet, Putty?

Guru
Beiträge: 2761
Registriert: 23.02.2012, 12:26

Beitragvon ~thc » 10.02.2015, 09:32

Ja, das sind ESXI-Konsolen-Befehle. Auf dem ESXi den SSH-Dienst starten und mit puTTY (Windows) oder ssh (Linux, MacOSX) eine Verbindung herstellen.

King of the Hill
Beiträge: 13058
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 10.02.2015, 09:37

Helgomat hat geschrieben:
führe mal auf allen ESXi Servern folgende Befehle aus, damit du eine bessere Übersicht der aktuellen Situation erhältst.

esxcli storage vmfs extent list
esxcli storage core device list


Sorry wenn ich so blöd nachfrage, aber wie mache ich das genau?
Über Telnet, Putty?


Ja, weil du hier die Ausgabe an deinem Client abgreifen und hier Posten kannst. Direkt an der Konsole wuerde es auch gehen in der Form

Code: Alles auswählen

command > /vmfs/volumes/datastore_der_noch_da_ist/asa.txt
um diese Textdatei dann spaeter ueber den Datastorebrowser herunter zuladen.

Ich wuerde in den Security Profiles den SSH anschalten und dann per Putty zugreifen. Vor der Verbindung noch das Logging im Putty konfigurieren weil dann schreibt er alles was du in dem Fenster siehst in eine putty-&H.log. Das &H wird dabei ersetzt durch den verwendeten Hostnamen.

Da ihr aber ein Produkt habt was zumind. mal VMware Support hatte wuerde ich gucken ob dieser noch Vorhanden ist und den Hersteller befragen zu diesem Problem. Der beisst nicht und und spricht im Idealfall auch deine Sprache.

Gruss
Joerg

Member
Beiträge: 23
Registriert: 20.02.2013, 11:40

Beitragvon Helgomat » 10.02.2015, 10:35

Okay. Jetzt mal die Ergebnisse von den Servern:

ESX1 (durch Sternchenlinie getrennt):

Code: Alles auswählen

~ # esxcli storage vmfs extent list
Volume Name         VMFS UUID                            Extent Number  Device N                                                                             ame                           Partition
------------------  -----------------------------------  -------------  --------                                                                             ----------------------------  ---------
datastore_raid10    4c62820f-7635422c-ce76-d8d385a621cc              0  naa.600a                                                                             0b800049b07c000001ef4c60e3ae          1
datastore_raid10_2  5087c361-43d86f21-7036-d8d385fec934              0  naa.600a                                                                             0b800049b07c0000050a50877604          1
datastore_raid5     4c628254-87bbce0d-d4c7-d8d385a621cc              0  naa.600a                                                                             0b8000753c95000001314c60e3ac          1
datastore3          4c88d98a-593aeabd-e01c-d8d385fc28ca              0  naa.6005                                                                             08b1001030383932393544300900
************************************************************************************
naa.600a0b8000753c95000001314c60e3ac
   Display Name: LSI Fibre Channel Disk (naa.600a0b8000753c95000001314c60e3ac)
   Has Settable Display Name: true
   Size: 571180
   Device Type: Direct-Access
   Multipath Plugin: NMP
   Devfs Path: /vmfs/devices/disks/naa.600a0b8000753c95000001314c60e3ac
   Vendor: LSI
   Model: INF-01-00
   Revision: 0735
   SCSI Level: 5
   Is Pseudo: false
   Status: on
   Is RDM Capable: true
   Is Local: false
   Is Removable: false
   Is SSD: false
   Is Offline: false
   Is Perennially Reserved: false
   Thin Provisioning Status: unknown
   Attached Filters:
   VAAI Status: unknown
   Other UIDs: vml.0200000000600a0b8000753c95000001314c60e3ac494e462d3031

naa.600a0b800049b07c000001d34c60c982
   Display Name: LSI Fibre Channel Disk (naa.600a0b800049b07c000001d34c60c982)
   Has Settable Display Name: true
   Size: 20
   Device Type: Direct-Access
   Multipath Plugin: NMP
   Devfs Path: /vmfs/devices/disks/naa.600a0b800049b07c000001d34c60c982
   Vendor: LSI
   Model: Universal Xport
   Revision: 0735
   SCSI Level: 5
   Is Pseudo: true
   Status: on
   Is RDM Capable: true
   Is Local: false
   Is Removable: false
   Is SSD: false
   Is Offline: false
   Is Perennially Reserved: false
   Thin Provisioning Status: unknown
   Attached Filters:
   VAAI Status: unknown
   Other UIDs: vml.0200070000600a0b800049b07c000001d34c60c982556e69766572

naa.600508b1001030383932393544300900
   Display Name: HP Serial Attached SCSI Disk (naa.600508b1001030383932393544300900)
   Has Settable Display Name: true
   Size: 139979
   Device Type: Direct-Access
   Multipath Plugin: NMP
   Devfs Path: /vmfs/devices/disks/naa.600508b1001030383932393544300900
   Vendor: HP
   Model: LOGICAL VOLUME
   Revision: 3.00
   SCSI Level: 5
   Is Pseudo: false
   Status: degraded
   Is RDM Capable: true
   Is Local: false
   Is Removable: false
   Is SSD: false
   Is Offline: false
   Is Perennially Reserved: false
   Thin Provisioning Status: unknown
   Attached Filters:
   VAAI Status: unknown
   Other UIDs: vml.0200000000600508b10010303839323935443009004c4f47494341

mpx.vmhba3:C0:T0:L0
   Display Name: Local TEAC CD-ROM (mpx.vmhba3:C0:T0:L0)
   Has Settable Display Name: false
   Size: 0
   Device Type: CD-ROM
   Multipath Plugin: NMP
   Devfs Path: /vmfs/devices/cdrom/mpx.vmhba3:C0:T0:L0
   Vendor: TEAC
   Model: DV-W28S-VS
   Revision: G.V0
   SCSI Level: 5
   Is Pseudo: false
   Status: on
   Is RDM Capable: false
   Is Local: true
   Is Removable: true
   Is SSD: false
   Is Offline: false
   Is Perennially Reserved: false
   Thin Provisioning Status: unknown
   Attached Filters:
   VAAI Status: unsupported
   Other UIDs: vml.0005000000766d686261333a303a30

naa.600a0b800049b07c0000050a50877604
   Display Name: LSI Fibre Channel Disk (naa.600a0b800049b07c0000050a50877604)
   Has Settable Display Name: true
   Size: 7628864
   Device Type: Direct-Access
   Multipath Plugin: NMP
   Devfs Path: /vmfs/devices/disks/naa.600a0b800049b07c0000050a50877604
   Vendor: LSI
   Model: INF-01-00
   Revision: 0735
   SCSI Level: 5
   Is Pseudo: false
   Status: on
   Is RDM Capable: true
   Is Local: false
   Is Removable: false
   Is SSD: false
   Is Offline: false
   Is Perennially Reserved: false
   Thin Provisioning Status: unknown
   Attached Filters:
   VAAI Status: unknown
   Other UIDs: vml.0200020000600a0b800049b07c0000050a50877604494e462d3031

naa.600a0b800049b07c000001ef4c60e3ae
   Display Name: LSI Fibre Channel Disk (naa.600a0b800049b07c000001ef4c60e3ae)
   Has Settable Display Name: true
   Size: 1142360
   Device Type: Direct-Access
   Multipath Plugin: NMP
   Devfs Path: /vmfs/devices/disks/naa.600a0b800049b07c000001ef4c60e3ae
   Vendor: LSI
   Model: INF-01-00
   Revision: 0735
   SCSI Level: 5
   Is Pseudo: false
   Status: on
   Is RDM Capable: true
   Is Local: false
   Is Removable: false
   Is SSD: false
   Is Offline: false
   Is Perennially Reserved: false
   Thin Provisioning Status: unknown
   Attached Filters:
   VAAI Status: unknown
   Other UIDs: vml.0200010000600a0b800049b07c000001ef4c60e3ae494e462d3031
~ #



ESX3 (der funktionierende):

Code: Alles auswählen

~ # esxcli storage vmfs extent list
Volume Name         VMFS UUID                            Extent Number  Device Name                           Partition
------------------  -----------------------------------  -------------  ------------------------------------  ---------
datastore_raid10    4c62820f-7635422c-ce76-d8d385a621cc              0  naa.600a0b800049b07c000001ef4c60e3ae          1
datastore_raid10_2  5087c361-43d86f21-7036-d8d385fec934              0  naa.600a0b800049b07c0000050a50877604          1
datastore_raid5     4c628254-87bbce0d-d4c7-d8d385a621cc              0  naa.600a0b8000753c95000001314c60e3ac          1
datastore3          4c88d98a-593aeabd-e01c-d8d385fc28ca              0  naa.600508b1001030383932393544300900          3

*************************************************************
~ # esxcli storage core device list
naa.600a0b8000753c95000001314c60e3ac
   Display Name: LSI Fibre Channel Disk (naa.600a0b8000753c95000001314c60e3ac)
   Has Settable Display Name: true
   Size: 571180
   Device Type: Direct-Access
   Multipath Plugin: NMP
   Devfs Path: /vmfs/devices/disks/naa.600a0b8000753c95000001314c60e3ac
   Vendor: LSI
   Model: INF-01-00
   Revision: 0735
   SCSI Level: 5
   Is Pseudo: false
   Status: on
   Is RDM Capable: true
   Is Local: false
   Is Removable: false
   Is SSD: false
   Is Offline: false
   Is Perennially Reserved: false
   Thin Provisioning Status: unknown
   Attached Filters:
   VAAI Status: unknown
   Other UIDs: vml.0200000000600a0b8000753c95000001314c60e3ac494e462d3031

naa.600a0b800049b07c000001d34c60c982
   Display Name: LSI Fibre Channel Disk (naa.600a0b800049b07c000001d34c60c982)
   Has Settable Display Name: true
   Size: 20
   Device Type: Direct-Access
   Multipath Plugin: NMP
   Devfs Path: /vmfs/devices/disks/naa.600a0b800049b07c000001d34c60c982
   Vendor: LSI
   Model: Universal Xport
   Revision: 0735
   SCSI Level: 5
   Is Pseudo: true
   Status: on
   Is RDM Capable: true
   Is Local: false
   Is Removable: false
   Is SSD: false
   Is Offline: false
   Is Perennially Reserved: false
   Thin Provisioning Status: unknown
   Attached Filters:
   VAAI Status: unknown
   Other UIDs: vml.0200070000600a0b800049b07c000001d34c60c982556e69766572

naa.600508b1001030383932393544300900
   Display Name: HP Serial Attached SCSI Disk (naa.600508b1001030383932393544300900)
   Has Settable Display Name: true
   Size: 139979
   Device Type: Direct-Access
   Multipath Plugin: NMP
   Devfs Path: /vmfs/devices/disks/naa.600508b1001030383932393544300900
   Vendor: HP
   Model: LOGICAL VOLUME
   Revision: 3.00
   SCSI Level: 5
   Is Pseudo: false
   Status: degraded
   Is RDM Capable: true
   Is Local: false
   Is Removable: false
   Is SSD: false
   Is Offline: false
   Is Perennially Reserved: false
   Thin Provisioning Status: unknown
   Attached Filters:
   VAAI Status: unknown
   Other UIDs: vml.0200000000600508b10010303839323935443009004c4f47494341

mpx.vmhba3:C0:T0:L0
   Display Name: Local TEAC CD-ROM (mpx.vmhba3:C0:T0:L0)
   Has Settable Display Name: false
   Size: 0
   Device Type: CD-ROM
   Multipath Plugin: NMP
   Devfs Path: /vmfs/devices/cdrom/mpx.vmhba3:C0:T0:L0
   Vendor: TEAC
   Model: DV-W28S-VS
   Revision: G.V0
   SCSI Level: 5
   Is Pseudo: false
   Status: on
   Is RDM Capable: false
   Is Local: true
   Is Removable: true
   Is SSD: false
   Is Offline: false
   Is Perennially Reserved: false
   Thin Provisioning Status: unknown
   Attached Filters:
   VAAI Status: unsupported
   Other UIDs: vml.0005000000766d686261333a303a30

naa.600a0b800049b07c0000050a50877604
   Display Name: LSI Fibre Channel Disk (naa.600a0b800049b07c0000050a50877604)
   Has Settable Display Name: true
   Size: 7628864
   Device Type: Direct-Access
   Multipath Plugin: NMP
   Devfs Path: /vmfs/devices/disks/naa.600a0b800049b07c0000050a50877604
   Vendor: LSI
   Model: INF-01-00
   Revision: 0735
   SCSI Level: 5
   Is Pseudo: false
   Status: on
   Is RDM Capable: true
   Is Local: false
   Is Removable: false
   Is SSD: false
   Is Offline: false
   Is Perennially Reserved: false
   Thin Provisioning Status: unknown
   Attached Filters:
   VAAI Status: unknown
   Other UIDs: vml.0200020000600a0b800049b07c0000050a50877604494e462d3031

naa.600a0b800049b07c000001ef4c60e3ae
   Display Name: LSI Fibre Channel Disk (naa.600a0b800049b07c000001ef4c60e3ae)
   Has Settable Display Name: true
   Size: 1142360
   Device Type: Direct-Access
   Multipath Plugin: NMP
   Devfs Path: /vmfs/devices/disks/naa.600a0b800049b07c000001ef4c60e3ae
   Vendor: LSI
   Model: INF-01-00
   Revision: 0735
   SCSI Level: 5
   Is Pseudo: false
   Status: on
   Is RDM Capable: true
   Is Local: false
   Is Removable: false
   Is SSD: false
   Is Offline: false
   Is Perennially Reserved: false
   Thin Provisioning Status: unknown
   Attached Filters:
   VAAI Status: unknown
   Other UIDs: vml.0200010000600a0b800049b07c000001ef4c60e3ae494e462d3031


Experte
Beiträge: 1847
Registriert: 04.10.2011, 14:06

Beitragvon JustMe » 10.02.2015, 11:26

Auch, wenn's ketzerisch klingt:

Bist Du sicher, dass Du nicht 2x dieselbe Datei hier abgelegt hast?

Die sind (zumindest in meinem Browser) erschreckend identisch; inkl. "degraded" HP SAS disk (von der ich jetzt zugegebenermassen eine lokale Anbindung annehme, obwohl "IsLocal" auf false steht, aber das ist bei LSI-based Controllern haeufiger der Fall) mit identischer naa-ID und identischem Datastore-Namen "datastore3"...
Normalerweise gibt's in einem Cluster keine zwei Datstores mit demselben Namen.

Auf welchem Datastore liegen denn die VMs momentan? Verteilt auf allen 4?

Kannst Du nochmal einen Rescan durchfuehren, und gleich danach die vmkernel.log auslesen, und posten?

Member
Beiträge: 23
Registriert: 20.02.2013, 11:40

Beitragvon Helgomat » 10.02.2015, 11:46

JustMe hat geschrieben:Auch, wenn's ketzerisch klingt:

Bist Du sicher, dass Du nicht 2x dieselbe Datei hier abgelegt hast?

Die sind (zumindest in meinem Browser) erschreckend identisch; inkl. "degraded" HP SAS disk (von der ich jetzt zugegebenermassen eine lokale Anbindung annehme, obwohl "IsLocal" auf false steht, aber das ist bei LSI-based Controllern haeufiger der Fall) mit identischer naa-ID und identischem Datastore-Namen "datastore3"...
Normalerweise gibt's in einem Cluster keine zwei Datstores mit demselben Namen.

Auf welchem Datastore liegen denn die VMs momentan? Verteilt auf allen 4?

Kannst Du nochmal einen Rescan durchfuehren, und gleich danach die vmkernel.log auslesen, und posten?


Also die VMs liegen auf drei Datastores verteilt.

Was die gleichen Daten betrifft, so habe ich gerade festgestellt, daß in Putty, in der die ESX-Server 1 und 3 bereits hinterlegt waren, der ESX1 mit der Adresse vom ESX3 hinterlegt war. Ich habe das mal kurz korrigiert und hier kommt die korregte ausgabe vom ESX1:


Code: Alles auswählen

 ~ # esxcli storage vmfs extent list
Volume Name  VMFS UUID                            Extent Number  Device Name                           Partition
-----------  -----------------------------------  -------------  ------------------------------------  ---------
datastore1   4c85f7b2-815315d3-a456-d8d385fec934              0  naa.600508b1001030383935433335300300          3

*******************************************************************************

~ # esxcli storage core device list
naa.600a0b8000753c95000001314c60e3ac
   Display Name: LSI Fibre Channel Disk (naa.600a0b8000753c95000001314c60e3ac)
   Has Settable Display Name: true
   Size: 571180
   Device Type: Direct-Access
   Multipath Plugin: NMP
   Devfs Path: /vmfs/devices/disks/naa.600a0b8000753c95000001314c60e3ac
   Vendor: SGI
   Model: IS400
   Revision: 0735
   SCSI Level: 5
   Is Pseudo: false
   Status: on
   Is RDM Capable: true
   Is Local: false
   Is Removable: false
   Is SSD: false
   Is Offline: false
   Is Perennially Reserved: false
   Thin Provisioning Status: unknown
   Attached Filters:
   VAAI Status: unknown
   Other UIDs: vml.0200000000600a0b8000753c95000001314c60e3ac495334303020

naa.600a0b800049b07c000001d34c60c982
   Display Name: LSI Fibre Channel Disk (naa.600a0b800049b07c000001d34c60c982)
   Has Settable Display Name: true
   Size: 20
   Device Type: Direct-Access
   Multipath Plugin: NMP
   Devfs Path: /vmfs/devices/disks/naa.600a0b800049b07c000001d34c60c982
   Vendor: SGI
   Model: Universal Xport
   Revision: 0735
   SCSI Level: 5
   Is Pseudo: true
   Status: on
   Is RDM Capable: true
   Is Local: false
   Is Removable: false
   Is SSD: false
   Is Offline: false
   Is Perennially Reserved: false
   Thin Provisioning Status: unknown
   Attached Filters:
   VAAI Status: unknown
   Other UIDs: vml.0200070000600a0b800049b07c000001d34c60c982556e69766572

naa.600508b1001030383935433335300300
   Display Name: HP Serial Attached SCSI Disk (naa.600508b1001030383935433335300300)
   Has Settable Display Name: true
   Size: 139979
   Device Type: Direct-Access
   Multipath Plugin: NMP
   Devfs Path: /vmfs/devices/disks/naa.600508b1001030383935433335300300
   Vendor: HP
   Model: LOGICAL VOLUME
   Revision: 3.00
   SCSI Level: 5
   Is Pseudo: false
   Status: degraded
   Is RDM Capable: true
   Is Local: false
   Is Removable: false
   Is SSD: false
   Is Offline: false
   Is Perennially Reserved: false
   Thin Provisioning Status: unknown
   Attached Filters:
   VAAI Status: unknown
   Other UIDs: vml.0200000000600508b10010303839354333353003004c4f47494341

mpx.vmhba3:C0:T0:L0
   Display Name: Local Optiarc CD-ROM (mpx.vmhba3:C0:T0:L0)
   Has Settable Display Name: false
   Size: 0
   Device Type: CD-ROM
   Multipath Plugin: NMP
   Devfs Path: /vmfs/devices/cdrom/mpx.vmhba3:C0:T0:L0
   Vendor: Optiarc
   Model: DVD RW AD-7561S
   Revision: AH52
   SCSI Level: 5
   Is Pseudo: false
   Status: on
   Is RDM Capable: false
   Is Local: true
   Is Removable: true
   Is SSD: false
   Is Offline: false
   Is Perennially Reserved: false
   Thin Provisioning Status: unknown
   Attached Filters:
   VAAI Status: unsupported
   Other UIDs: vml.0005000000766d686261333a303a30

naa.600a0b800049b07c0000050a50877604
   Display Name: LSI Fibre Channel Disk (naa.600a0b800049b07c0000050a50877604)
   Has Settable Display Name: true
   Size: 7628864
   Device Type: Direct-Access
   Multipath Plugin: NMP
   Devfs Path: /vmfs/devices/disks/naa.600a0b800049b07c0000050a50877604
   Vendor: SGI
   Model: IS400
   Revision: 0735
   SCSI Level: 5
   Is Pseudo: false
   Status: on
   Is RDM Capable: true
   Is Local: false
   Is Removable: false
   Is SSD: false
   Is Offline: false
   Is Perennially Reserved: false
   Thin Provisioning Status: unknown
   Attached Filters:
   VAAI Status: unknown
   Other UIDs: vml.0200020000600a0b800049b07c0000050a50877604495334303020

naa.600a0b800049b07c000001ef4c60e3ae
   Display Name: LSI Fibre Channel Disk (naa.600a0b800049b07c000001ef4c60e3ae)
   Has Settable Display Name: true
   Size: 1142360
   Device Type: Direct-Access
   Multipath Plugin: NMP
   Devfs Path: /vmfs/devices/disks/naa.600a0b800049b07c000001ef4c60e3ae
   Vendor: SGI
   Model: IS400
   Revision: 0735
   SCSI Level: 5
   Is Pseudo: false
   Status: on
   Is RDM Capable: true
   Is Local: false
   Is Removable: false
   Is SSD: false
   Is Offline: false
   Is Perennially Reserved: false
   Thin Provisioning Status: unknown
   Attached Filters:
   VAAI Status: unknown
   Other UIDs: vml.0200010000600a0b800049b07c000001ef4c60e3ae495334303020
~ #


Sorry für den Fehler.

Die vmkernel.log vom ESX1 nach dem rescan ist megalang und passt hier nicht rein.
Kann ich das irgendwie leeren?

King of the Hill
Beiträge: 13058
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 10.02.2015, 11:53

Ich wuerde annehmen das dies das Problem ist

Code: Alles auswählen

Device naa.600a0b8000753c95000001314c60e3ac:1 detected to be a snapshot


Kannst du ausschliessen das euer SAN Hardware Snapshots vorhaelt?

Bitte mal ein

Code: Alles auswählen

esxcfg-volume -l

ausfuehren.

ich wuerde dann ein

Code: Alles auswählen

esxcfg-volume -M <UUID/label>
ausfuehren

Gruss
Joerg

Member
Beiträge: 23
Registriert: 20.02.2013, 11:40

Beitragvon Helgomat » 10.02.2015, 12:03

irix hat geschrieben:Ich wuerde annehmen das dies das Problem ist

Code: Alles auswählen

Device naa.600a0b8000753c95000001314c60e3ac:1 detected to be a snapshot


Kannst du ausschliessen das euer SAN Hardware Snapshots vorhaelt?

Bitte mal ein

Code: Alles auswählen

esxcfg-volume -l

ausfuehren.

ich wuerde dann ein

Code: Alles auswählen

esxcfg-volume -M <UUID/label>
ausfuehren

Gruss
Joerg


Also wenn ich den ersten Befehl eingebe kommt:

Code: Alles auswählen

VMFS UUID/label: 4c62820f-7635422c-ce76-d8d385a621cc/datastore_raid10
Can mount: Yes
Can resignature: No (the volume is being actively used)
Extent name: naa.600a0b800049b07c000001ef4c60e3ae:1     range: 0 - 1142271 (MB)

VMFS UUID/label: 4c628254-87bbce0d-d4c7-d8d385a621cc/datastore_raid5
Can mount: Yes
Can resignature: No (the volume is being actively used)
Extent name: naa.600a0b8000753c95000001314c60e3ac:1     range: 0 - 571135 (MB)

VMFS UUID/label: 5087c361-43d86f21-7036-d8d385fec934/datastore_raid10_2
Can mount: Yes
Can resignature: No (the volume is being actively used)
Extent name: naa.600a0b800049b07c0000050a50877604:1     range: 0 - 7628799 (MB)


Bevor ich jetzt den zweiten Befehl eingebe...was macht der?

Liege ich richtig, daß wenn ich hier z.B. den datastore raid_5 nhemen würde ich das so eingeben muss:

Code: Alles auswählen

esxcfg-volume -M 4c628254-87bbce0d-d4c7-d8d385a621cc/datastore_raid5


oder müssen die eckigen Klammern miteingegeben werden?

King of the Hill
Beiträge: 13058
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 10.02.2015, 12:20

Nein..... wenn du nicht weist was ein Befehl macht dann schaut man erstmal nach

Code: Alles auswählen

esxcfg-volume -h


Dann anschliessend

Code: Alles auswählen

esxcfg-volume -M datastore_raid5


Alterntiv die UUID aber nicht beides zusammen ;)

Der Datastore sollte dann im am Host wieder sichtbar werden. Ein "df -h" sollte ihn zeigen. Im Client dann mal eine VM per vMotion auf den Host ziehen und gucken ob diese auch ausfuert wird.

Falls ja die VM wieder weg migrieren.
- fehlende Volume mounten mit -M
- Host rebooten um zugucken ob die nach dem Neustart immer noch da sind
- Auf dem 2. Host das gleiche

Gruss
Joerg

Member
Beiträge: 23
Registriert: 20.02.2013, 11:40

Beitragvon Helgomat » 10.02.2015, 12:37

irix hat geschrieben:Nein..... wenn du nicht weist was ein Befehl macht dann schaut man erstmal nach

Code: Alles auswählen

esxcfg-volume -h


Dann anschliessend

Code: Alles auswählen

esxcfg-volume -M datastore_raid5


Alterntiv die UUID aber nicht beides zusammen ;)

Der Datastore sollte dann im am Host wieder sichtbar werden. Ein "df -h" sollte ihn zeigen. Im Client dann mal eine VM per vMotion auf den Host ziehen und gucken ob diese auch ausfuert wird.

Falls ja die VM wieder weg migrieren.
- fehlende Volume mounten mit -M
- Host rebooten um zugucken ob die nach dem Neustart immer noch da sind
- Auf dem 2. Host das gleiche

Gruss
Joerg


Juhu! Es klappt. Vielen vielen Dank!!! :-)

King of the Hill
Beiträge: 13058
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 10.02.2015, 13:56

Bitte.

Magst du uns noch veraten warum du den VMware Support nicht mit ins Boot geholt hast? Es scheint sich ja um eine Produktivumgebung zuhandeln. Die Loesungsfindung hier hat ja nun etwas gedauert und das es so einfach war weis man ja zu Beginn nicht.

Sollte der Support ausgelaufen sein so sag bescheid... das Problem koennte ich beheben mit einem Angebot ueber die Wiederaufnahme des VMware SnS ;)

Gruss
Joerg

Member
Beiträge: 23
Registriert: 20.02.2013, 11:40

Beitragvon Helgomat » 10.02.2015, 14:11

Der VMware-Support wurde eingeschaltet, jedoch kam die Lösung von Irix schneller.

King of the Hill
Beiträge: 13058
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 10.02.2015, 14:47

Dann male ich mir fuer Heute ein Fleissbienchen in mein Heft.

Gruss
Joerg

Profi
Beiträge: 993
Registriert: 31.03.2008, 17:26
Wohnort: Einzugsbereich des FC Schalke 04
Kontaktdaten:

Beitragvon kastlr » 11.02.2015, 11:29

Ein Hinweis noch.

Wenn der VMFS Datastore als Snapshot erkannt wurde, sollte dieser Umstand behoben werden.
Denn jeder neue Host wird diesen Datastore nach einem Reboot in seiner Standard Einstellung nicht automatisch mounten.
Auch kann es zu Problemen im Cluster kommen, wenn z. B. die Force Mount Operation verwendet wird.

vSphere handling of LUNs detected as snapshot LUNs

Das Problem könnte auch noch für deinen surviving Host existieren, denn dieser ist ja bisher noch nicht rebootet worden.
Beim nächsten Reboot wird aber auch er den/die Datastores als Snapshot erkennen und du mußt wieder aktiv werden.

Gruß,
Ralf


Zurück zu „vSphere 5 / ESXi 5 und 5.1“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 10 Gäste