Das Forum wurde aktualisiert. Wurde höchste Zeit. Wenn etwas nicht funktioniert, bitte gerne hier jederzeit melden.
(Das "alte Design" kommt wieder, wird ne Weile brauchen!)

2 unterschiedliche vCenter im gleichen V-Lan

Virtualisierungsmanagement, Servermanagement.

Moderatoren: irix, stefan.becker, continuum, Dayworker, Tschoergez

Member
Beiträge: 11
Registriert: 27.12.2016, 15:05

2 unterschiedliche vCenter im gleichen V-Lan

Beitragvon webmagic » 10.01.2017, 11:23

Hallo Zusammen,

habe folgende Konstellation: (bin nicht der Vmware Guru)

vCenter A 5.5[/b] mit 4 x Hosts und Enterprise Lizenz / vCenter Windows 2008 Server
ca. 100VM's


vCenter B 6.0
mit 2 x Hosts Essential Plus Lizenz (derzeit Testmodus) / vCenter VCSA
hier werden nur 3 VMs laufen

beide vCenter greifen auf den gleichen Storage, vCenter B erhält nur 1 Volume mit 500GB mehr nicht...

beide vCenter sind im gleichen V-Lan (Managment & iSCSI )


zum Verständnis, die vCenter gehören nicht zusammen ....

am Wochenende ist am vCenter A ein Host "gestanden" Netzwerk technisch nicht erreichbar und vorallem wurden die VM's nicht verschoben..(HA)
Fehlermeldung "vSphere HA-Failover einer virtuellen Maschine fehlgeschlagen...

danach habe ich mal die Logfiles durchforstet und fand so einen Eintrag:
sehe dann solche Einträge am Host welcher zu vCenter A gehört:

[viclient:SoapTran:P:26] 2017-01-07 08:34:27.434 Invoke 7694 Finish RetrieveContents on PropertyCollector:propertyCollector ["vCenterB".xxxx.xxx] - Serial:0,000, Server:000,010
oder
[viclient:SoapTran:W:10] 2017-01-06 22:19:12.388 Invoke 19177 Finish WaitForUpdates on PropertyCollector:ha-property-collector [IP von HA Master Host vom vCenterB] - Serial:0,000, Server:014,279
[viclient:QuickInf:W:10] 2017-01-06 22:19:12.388 WaitForUpdates Version = 19008
[viclient:SoapTran:W:10] 2017-01-06 22:19:12.388 Invoke 19178 Start WaitForUpdates on PropertyCollector:ha-property-collector [IP von HA Master Host vom vCenterB]. [operationID:4DB7BB1F-00004AEA]
[viclient:SrvMsg :W:10] 2017-01-06 22:19:12.388 RMI Request Vmomi.Core.PropertyCollector.WaitForUpdates - 19178

[viclient:SoapTran:W:24] 2017-01-07 10:59:38.052 Invoke 22001 Finish WaitForUpdates on PropertyCollector:session[52a127d6-5b1a-a13b-dab9-b5defcb4194a]52faf16f-20cc-f774-c227-6ef0a31c81e8 [IP von HA Master Host vom vCenterB] - Serial:0,001, Server:900,018
Suppressed: VirtualInfrastructure.Soap.MethodInvocationSoapImpl: Die Anforderung ist fehlgeschlagen, da der Remoteserver '[IP von HA Master Host vom vCenterB]' zu lange nicht reagiert hat. (Zeitüberschreitung des Befehls, da der Remoteserver zu lange nicht reagiert hat.)
[viclient:Error :W:24] 2017-01-07 10:59:38.052 ConnectionError occurred while executing WFU
VirtualInfrastructure.Exceptions.RequestTimedOut: Die Anforderung ist fehlgeschlagen, da der Remoteserver '[IP von HA Master Host vom vCenterB]' zu lange nicht reagiert hat. (Zeitüberschreitung des Befehls, da der Remoteserver zu lange nicht reagiert hat.)
at VirtualInfrastructure.Soap.SoapServiceWrapper.DoInvokeSync(ManagedObject mo, MethodName methodName, Object[] parameters, Int32 timeoutSecs)
at VirtualInfrastructure.Soap.SoapTransport.VirtualInfrastructure.Transport.InvokeMethod(ManagedObject mo, MethodName methodName, Object[] pars)
at VirtualInfrastructure.ManagedObject.InvokeMethod(MethodName methodName, Object[] pars)
at Vmomi.Core.PropertyCollector.WaitForUpdates(String version)
at VirtualInfrastructure.Updates.PollerDispatcherImpl.ExecuteSingleWFU()
at VirtualInfrastructure.Updates.PollerDispatcherImpl.PollWaitForUpdates()
System.Net.WebException: Zeitüberschreitung des Befehls, da der Remoteserver zu lange nicht reagiert hat.

habe ich es richtig verstanden, meine Hosts aus dem vCenter A mit ESXi 5.5 versuchten sich immer am vCenter mit ESXi 6.0 zu melden / kommunizierien? Obwohl sich am vCenter A korrekt registriert sind und seit monaten / jahr ohne Probleme liefen...

mir ist klar, dass ich das v-lan Managment der beiden trennen muss, dass aber trotzdem so was passieren kann....

Wer hat ähnliche Erfahrung bzw. ist da noch etwas anderes Faul?


Danke für die Unterstüzung
web

Experte
Beiträge: 1036
Registriert: 04.10.2011, 14:06

Re: 2 unterschiedliche vCenter im gleichen V-Lan

Beitragvon JustMe » 10.01.2017, 12:08

Dass mehrere vCenter im selben VLAN arbeiten sollte eigentlich kein Problem darstellen, denke ich...
...habe zumindest bisher noch nie ein solches festgestellt.

Ich mutmasse eher, dass beide HA-Cluster versuchen, auf dieselben Datastores mit ihrem Heartbeat zuzugreifen, da ich mir nicht sicher bin, dass VMware einen solchen Fall "abfaengt"...

Pruefe doch mal in beiden HA-Konfigurationen, welche Heartbeat Datastores eingestellt sind, und "entzerre" das ggfs., da Du ja schreibst, dass vCenter B sowieso nur auf einen eigenen begrenzten Bereich zugreifen soll.

Jenseits von Gut & Böse
Beiträge: 10616
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Re: 2 unterschiedliche vCenter im gleichen V-Lan

Beitragvon irix » 10.01.2017, 12:45

Auf die Datastore Heartbeats wuerde ich auch setzen.

Hier tummeln sich div. vCenter im gleichen Subnetz/VLAN und das kann als Ursache ausgeschlossen werden. Bitte pruefe ob die vCenter ID fuer jedes vCenter eine andere ist (0-63) weil davon die Erstellung von MACs abhaengt.

Allerdings tragen wir hier sorge das ein Datastore zu zu den Hosts des einen vCenters gehoert und nicht das die ueberall gemountet sind. Mal von deinem Problem abgesehen mag das SIOC nicht so gerne weil es dann "fremde" IOs sieht.

Gruss
Joerg

Member
Beiträge: 11
Registriert: 27.12.2016, 15:05

Re: 2 unterschiedliche vCenter im gleichen V-Lan

Beitragvon webmagic » 10.01.2017, 13:42

@irix @justMe

vielen dank für die Infos...

vCenter 5.5 hat die ID 29
vCenter 6.0 hat die ID 22

zu den Heartbeat Datastores:
sind auch unterschiedlich....

was kann ich noch kontrollieren?
Wieso diese meldungen bei den Logfiles?

Danke nochmals

Member
Beiträge: 11
Registriert: 27.12.2016, 15:05

Re: 2 unterschiedliche vCenter im gleichen V-Lan

Beitragvon webmagic » 10.01.2017, 14:27

mir ist noch folgendes aufgefallen,

RVTools unter dem Reiter vMultipath:

beim vCenter ESXi 5.5 keine Einträge (Der Ausgefalle Host gehört zu diesem vCenter)

beim vCenter ESXi 6.0 sehe ich Einträge...

muss sagen, dass ich die Umgebung vom vCenter ESXi 5.5 nicht konfiguriert habe, sehe dort auch, dass nicht überall iSCSI Portbindung & co konfiguriert wurde und auch nicht "round robin"

kann dies auch ein Problem gewesen sein?

Kann ich während dem voll Betrieb iSCSI Portbinding aktivieren oder lieber an einem Wartungsfenster?

Danke nochmals

Experte
Beiträge: 1036
Registriert: 04.10.2011, 14:06

Re: 2 unterschiedliche vCenter im gleichen V-Lan

Beitragvon JustMe » 10.01.2017, 14:29

Tja, war ja nur eine Vermutung...

Bei genauerem Hinsehen frage ich mich allerdings, aus welcher Datei genau Du die Logschnipsel (von mehreren Tagen) zusammengeklaubt hast.
"[viclient:SoapTran:W:10]" ist fuer einen HOST vielleicht nicht so gebraeuchlich...

Die andere Frage waere:
Worum geht es jetzt genau?
Um die Meldungen, oder um die nicht gestarteten VMs?

Ich vermute (leider wieder nur vermutet :-)) da mal zwei unterschiedliche Gruende.

Member
Beiträge: 11
Registriert: 27.12.2016, 15:05

Re: 2 unterschiedliche vCenter im gleichen V-Lan

Beitragvon webmagic » 10.01.2017, 14:53

@JustMe

ich habe von dem ausgefallenen Host ein Export der Logfiles gemacht und extrahiert und dann im:

viclient-4-0002

viclient-6-0002
jeweils den einen Eintrag gepostet, nicht aus mehreren Tagen...

Um was genau geht es?

ich bin neu dazu gestossen und sollte die VMware Umgebung mitbetreuen mit dem Externen Dienstleister (Welche hauptsächlich Hyper V machen), war vor kurzem auf einem Fastrack V6...(mein erster intensiv Kurs bezüglich VMware)

bin deshalb vorsichtig bei Änderungen der Umgebung 5.5, weil ich es nicht installiert habe und wir 24/7 Betrieb haben...

Es geht darum, wieso der Host gestanden ist ohne purple Screen & co und die VM's nicht verschoben wurden automatisch..
vMotion funkt, DRS funkt....

und bei der fehlersuche fand ich halt die Infos beim Host vom anderen vCenter und umgekehrt....

Danke erneut

Experte
Beiträge: 1036
Registriert: 04.10.2011, 14:06

Re: 2 unterschiedliche vCenter im gleichen V-Lan

Beitragvon JustMe » 10.01.2017, 15:20

Aah, so langsam lichtet sich der Nebel ;-)

Wie genau und womit hast Du "ein Export der Logfiles" gemacht? vSphere Client, Web Client, vm-support, ...

Die viclient-Dateien aus Deinem Logbundle kannst Du jedenfalls komplett getrost beiseite legen; die behandeln Informationen aus dem lokalen Windows-C#-Client.

Wg. mehreren Tagen: Wenn Du Dir die Zeitstempel Deiner Ausschnitte anschaust, dann ergeben sich DOCH mehrere Tage...
2017-01-07 08:34:27.434
2017-01-06 22:19:12.388

Interessanter sind ganz sicher die Dateien innerhalb der .tgz: vmkernel*, vmkwarning*, hostd*

Dann ermittelst Du noch moeglichst genau den Zeitpunkt, wann der Host nicht ansprechbar war. Beachte: Die Host-Logfiles haben Zeitstempel in UTC; fuer unsere momentane Winterzeit ist da jeweils 1h zu addieren.
Was wurde zu diesem Zeitpunkt unternommen? Hat jemand mal auf die Host-Konsole geschaut?

PS:
Das mit dem "neu dazu gestossen" ist sicher kein Problem. Wir alle hier haben irgendwann mal "ganz frisch" angefangen.

Member
Beiträge: 11
Registriert: 27.12.2016, 15:05

Re: 2 unterschiedliche vCenter im gleichen V-Lan

Beitragvon webmagic » 10.01.2017, 16:57

@JustMe

ja ja jetzt errinnere ich mich auch das mit dem viclient...

der Vorfall war am 07.01.17 ca. 11:00(Samstag)

habe soeben mit dem bereitschafthabenden gesprochen.

von den 4 Host ist der Host , auf welchem der vCenter lief gestanden, d.h. Netzwerktechnisch nicht erreichbar....

die anderen 3 Host waren erreichbar, die Anzeige der Virtuellen Maschinen sei aber so "grau" gewesen, liefen aber...

der Host welcher nicht erreichbar war, am DC konnte man sich einloggen und als man restart angestossen hatte, habe man einige Minuten gewartet, danach einen kaltstart durchgeführt...

danach hat man die Maschinen manuellen starten müssen auf dem ausfallenden host....

zu den Logfiles:

leider habe ich von dem Zeitpunkt nur die vmwarning: (muss noch dass Logging anpassen)


2017-01-07T01:05:43.665Z cpu29:3309406)WARNING: CBT: 2060: Unsupported ioctl 43
TSC: 648761 cpu0:1)WARNING: ACPI: 1386: SPCR: Detected unsupported reg bit width (0); will assume 8 bits.
0:00:00:00.000 cpu0:1)WARNING: Serial: 646: Invalid serial port config: mem-mapped to addr 0x0.
0:00:00:06.840 cpu0:1)WARNING: MemMap: 2803: Node 3 has no free pages
0:00:00:06.850 cpu0:1)WARNING: Vmkperf: 3929: 2 perf counters in use by BIOS
0:00:00:12.159 cpu0:32768)WARNING: PCI: 1265: Failed to setup interrupt for device 0000:80:01.0 (PCIe RP[0000:80:01.0])
0:00:00:12.159 cpu0:32768)WARNING: PCI: 1265: Failed to setup interrupt for device 0000:80:01.1 (PCIe RP[0000:80:01.1])
0:00:00:12.160 cpu0:32768)WARNING: PCI: 1265: Failed to setup interrupt for device 0000:80:02.0 (PCIe RP[0000:80:02.0])
0:00:00:12.160 cpu0:32768)WARNING: PCI: 1265: Failed to setup interrupt for device 0000:80:02.1 (PCIe RP[0000:80:02.1])
0:00:00:12.160 cpu0:32768)WARNING: PCI: 1265: Failed to setup interrupt for device 0000:80:02.2 (PCIe RP[0000:80:02.2])
0:00:00:12.160 cpu0:32768)WARNING: PCI: 1265: Failed to setup interrupt for device 0000:80:02.3 (PCIe RP[0000:80:02.3])
0:00:00:12.160 cpu0:32768)WARNING: PCI: 1265: Failed to setup interrupt for device 0000:80:03.0 (PCIe RP[0000:80:03.0])
0:00:00:12.160 cpu0:32768)WARNING: PCI: 1265: Failed to setup interrupt for device 0000:80:03.1 (PCIe RP[0000:80:03.1])
0:00:00:12.160 cpu0:32768)WARNING: PCI: 1265: Failed to setup interrupt for device 0000:80:03.2 (PCIe RP[0000:80:03.2])
0:00:00:12.160 cpu0:32768)WARNING: PCI: 1265: Failed to setup interrupt for device 0000:80:03.3 (PCIe RP[0000:80:03.3])
2017-01-07T11:11:54.328Z cpu3:33538)WARNING: hpnmi: NMI module is not supported on this HP Server. NMI module will not load.
2017-01-07T11:11:54.329Z cpu3:33538)WARNING: Elf: 2822: Kernel based module load of hpnmi failed: Failure <Mod_LoadDone failed>
2017-01-07T11:11:55.397Z cpu26:33543)WARNING: LinuxSignal: 538: ignored unexpected signal flags 0x2 (sig 17)
2017-01-07T11:11:56.979Z cpu26:33543)WARNING: qlnativefc: (b:0.0): scsi(0): num_io_queue for CPU affinity use: 2
2017-01-07T11:11:59.771Z cpu26:33543)WARNING: qlnativefc: (b:0.1): scsi(1): num_io_queue for CPU affinity use: 2
2017-01-07T11:12:02.654Z cpu30:33406)WARNING: Team.etherswitch: TeamES_Activate:692: Failed to initialize beaconing on portset 'pps': Not implemented.
2017-01-07T11:12:16.759Z cpu7:33567)WARNING: IT: 346: Removing vector 101 while it's being controlled by 2 39
2017-01-07T11:12:16.851Z cpu7:33567)WARNING: IT: 346: Removing vector 91 while it's being controlled by 2 29
2017-01-07T11:12:16.942Z cpu7:33567)WARNING: IT: 346: Removing vector 81 while it's being controlled by 2 19
2017-01-07T11:12:17.032Z cpu7:33567)WARNING: IT: 346: Removing vector 71 while it's being controlled by 2 9
2017-01-07T11:12:17.161Z cpu34:33573)WARNING: VMK_PCI: 705: device 0000:00:14.0 failed to allocate 8 MSIX interrupts
2017-01-07T11:12:17.161Z cpu34:33573)WARNING: LinPCI: LinuxPCI_EnableMSIX:886: 0000:00:14.0: Interrupt allocation failed with Failure
2017-01-07T11:12:17.161Z cpu34:33573)WARNING: VMK_PCI: 686: device 0000:00:14.0 failed to allocate MSI interrupt
2017-01-07T11:12:17.161Z cpu34:33573)WARNING: LinPCI: LinuxPCI_EnableMSI:762: 0000:00:14.0: Interrupt allocation failed with Failure
2017-01-07T11:12:23.121Z cpu20:33406)WARNING: NetDVS: 567: portAlias is NULL
2017-01-07T11:12:23.228Z cpu20:33406)WARNING: NetDVS: 567: portAlias is NULL
2017-01-07T11:12:23.232Z cpu20:33406)WARNING: NetDVS: 567: portAlias is NULL
2017-01-07T11:12:23.326Z cpu4:33701)WARNING: iscsi_vmk: iscsivmk_ModuleInit:509: Offloading digest calculation using CRC32 instruction set
2017-01-07T11:12:24.620Z cpu6:33702)WARNING: iscsi_vmk: iscsivmk_StartConnection: vmhba41:CH:0 T:0 CN:0: iSCSI connection is being marked "ONLINE"
2017-01-07T11:12:24.620Z cpu6:33702)WARNING: iscsi_vmk: iscsivmk_StartConnection: Sess [ISID: 00023d000009 TARGET: iqn.19xxxxxxxxxxxxxx TPGT: 7d0 TSIH: 0]
2017-01-07T11:12:24.620Z cpu6:33702)WARNING: iscsi_vmk: iscsivmk_StartConnection: Conn [CID: 0 L: 10.xx.xxx:19706 R: 10.xx.xxx:3260]
2017-01-07T11:12:24.621Z cpu6:33702)WARNING: iscsi_vmk: iscsivmk_StartConnection: vmhba41:CH:1 T:0 CN:0: iSCSI connection is being marked "ONLINE"
2017-01-07T11:12:24.621Z cpu6:33702)WARNING: iscsi_vmk: iscsivmk_StartConnection: Sess [ISID: 00023d00000a TARGET: iqn.19xxxxxxx536960259 TPGT: 7d2 TSIH: 0]
2017-01-07T11:12:24.621Z cpu6:33702)WARNING: iscsi_vmk: iscsivmk_StartConnection: Conn [CID: 0 L: 10.xxxx:37249 R: 10.xx:3260]
2017-01-07T11:12:24.622Z cpu6:33702)WARNING: iscsi_vmk: iscsivmk_StartConnection: vmhba41:CH:2 T:0 CN:0: iSCSI connection is being marked "ONLINE"
2017-01-07T11:12:24.622Z cpu6:33702)WARNING: iscsi_vmk: iscsivmk_StartConnection: Sess [ISID: 00023d00000b TARGET: iqn.xxx53xxxxxxxxx59 TPGT: 7d1 TSIH: 0]
2017-01-07T11:12:24.622Z cpu6:33702)WARNING: iscsi_vmk: iscsivmk_StartConnection: Conn [CID: 0 L: 10.xxxx:34685 R: 10.xxx:3260]
2017-01-07T11:12:24.623Z cpu6:33702)WARNING: iscsi_vmk: iscsivmk_StartConnection: vmhba41:CH:3 T:0 CN:0: iSCSI connection is being marked "ONLINE"
2017-01-07T11:12:24.623Z cpu6:33702)WARNING: iscsi_vmk: iscsivmk_StartConnection: Sess [ISID: 00023d00000c TARGET: iqn.xxxxx.5xxxxxxxx259 TPGT: 7d3 TSIH: 0]
2017-01-07T11:12:24.623Z cpu6:33702)WARNING: iscsi_vmk: iscsivmk_StartConnection: Conn [CID: 0 L: 10.xxxx:30869 R: 10.xxxx:3260]
2017-01-07T11:12:24.878Z cpu6:33702)WARNING: iscsi_vmk: iscsivmk_StartConnection: vmhba41:CH:0 T:1 CN:0: iSCSI connection is being marked "ONLINE"
2017-01-07T11:12:24.878Z cpu6:33702)WARNING: iscsi_vmk: iscsivmk_StartConnection: Sess [ISID: 00023d000005 TARGET: iqn.xxxx.5xxxx0039 TPGT: 7d3 TSIH: 0]
2017-01-07T11:12:24.878Z cpu6:33702)WARNING: iscsi_vmk: iscsivmk_StartConnection: Conn [CID: 0 L: 10.xxxx:12940 R: 10.xxxxx:3260]
2017-01-07T11:12:24.880Z cpu6:33702)WARNING: iscsi_vmk: iscsivmk_StartConnection: vmhba41:CH:1 T:1 CN:0: iSCSI connection is being marked "ONLINE"
2017-01-07T11:12:24.880Z cpu6:33702)WARNING: iscsi_vmk: iscsivmk_StartConnection: Sess [ISID: 00023d000006 TARGET: iqn.xxxxx5xxxxx039 TPGT: 7d1 TSIH: 0]
2017-01-07T11:12:24.880Z cpu6:33702)WARNING: iscsi_vmk: iscsivmk_StartConnection: Conn [CID: 0 L: 10.xxxxx:60356 R: 10.xxxxxxx1:3260]
2017-01-07T11:12:24.881Z cpu6:33702)WARNING: iscsi_vmk: iscsivmk_StartConnection: vmhba41:CH:2 T:1 CN:0: iSCSI connection is being marked "ONLINE"
2017-01-07T11:12:24.881Z cpu6:33702)WARNING: iscsi_vmk: iscsivmk_StartConnection: Sess [ISID: 00023d000007 TARGET: iqn.xxxxx:sn.5xxxxx039 TPGT: 7d0 TSIH: 0]
2017-01-07T11:12:24.881Z cpu6:33702)WARNING: iscsi_vmk: iscsivmk_StartConnection: Conn [CID: 0 L: 10.xxxxx:22736 R: 10.xxxxxx:3260]
2017-01-07T11:12:24.882Z cpu6:33702)WARNING: iscsi_vmk: iscsivmk_StartConnection: vmhba41:CH:3 T:1 CN:0: iSCSI connection is being marked "ONLINE"
2017-01-07T11:12:24.882Z cpu6:33702)WARNING: iscsi_vmk: iscsivmk_StartConnection: Sess [ISID: 00023d000008 TARGET: iqn.xxxxxxxx.536960039 TPGT: 7d2 TSIH: 0]
2017-01-07T11:12:24.882Z cpu6:33702)WARNING: iscsi_vmk: iscsivmk_StartConnection: Conn [CID: 0 L: 10.xxxxxxxx:61685 R: 10.xxxxxxx:3260]
2017-01-07T11:12:34.281Z cpu28:33829)WARNING: Supported VMs 512, Max VSAN VMs 100, SystemMemoryInGB 512
2017-01-07T11:12:34.281Z cpu28:33829)WARNING: MaxFileHandles: 3000, Prealloc 1, Prealloc limit: 32 GB, Host scaling factor: 1
2017-01-07T11:12:34.292Z cpu28:33829)WARNING: DOM memory will be preallocated.
2017-01-07T11:12:55.554Z cpu32:34479)WARNING: UserEpoll: 542: UNSUPPORTED events 0x40
2017-01-07T11:12:56.421Z cpu32:34479)WARNING: LinuxSocket: 1854: UNKNOWN/UNSUPPORTED socketcall op (whichCall=0x12, args@0xffc2bd8c)
2017-01-07T11:13:20.501Z cpu6:35687)WARNING: LinChar: LinuxCharWrite:574: This message has repeated 1 times: M=208 m=0 flags=0x101002 write 1008 bytes at offset 0x0 failed (-16)
2017-01-07T11:13:20.503Z cpu6:35687)WARNING: LinChar: LinuxCharWrite:574: This message has repeated 2 times: M=208 m=0 flags=0x101002 write 1008 bytes at offset 0x0 failed (-16)
2017-01-07T11:13:20.504Z cpu6:35687)WARNING: LinChar: LinuxCharWrite:574: This message has repeated 3 times: M=208 m=0 flags=0x101002 write 52 bytes at offset 0x0 failed (-16)

bei dieser Kiste, verwenden wir die 2 x 10GB NW Karten und die eingebaute FC und Mainboard Nics nicht

Experte
Beiträge: 1036
Registriert: 04.10.2011, 14:06

Re: 2 unterschiedliche vCenter im gleichen V-Lan

Beitragvon JustMe » 10.01.2017, 17:22

Aehm, mal langsam...
...und mit Bedacht.

danach hat man die Maschinen manuellen starten müssen auf dem ausfallenden host....

...soll was genau bedeuten?

Liefen die Gaeste in den VMs noch, und waren ansprechbar? "Nur" das Management des ESXi-Hosts war nicht mehr moeglich?

Wenn die VMs nicht automatisch gestartet wurden, und manuell auf anderen Hosts (oder demselben, nachdem er wieder hochgelaufen war) gestartet wurden, dann laesst sich in dem vmware.logs in jedem Home-Verzeichnis der betroffenen VMs mal schauen, was die zum Zeitpunkt sagen. Beachte: Nicht das AKTUELLE vmware.log (das wurde ja erst beim VM-Start begonnen), sondern im direkt vorherigen.

Der Logschnipsel zeigt nur den SYSTEMSTART...
Wenn wirklich vor den 0:00:00:00.000er Eintraegen die letzte Warnung von 10-11 Stunden vorher war, dann muss man wirklich auch noch in das vmkernel.log schauen, ob das evtl. noch weiter befuellt wurde.

Wenn ein Host nicht mehr "antwortet", kann es aber auch sein, dass ebendiese Logdateien nicht mehr bedient werden...

Zuletzt noch (aber vmtl. letztrangig):
WO war "die Anzeige der Virtuellen Maschinen [] aber so "grau" gewesen"?
Im vSphere Client? Wo angemeldet?

Member
Beiträge: 11
Registriert: 27.12.2016, 15:05

Re: 2 unterschiedliche vCenter im gleichen V-Lan

Beitragvon webmagic » 11.01.2017, 10:10

@JustMe
nur die Gäste auf dem "ausgefallenen Host" waren nicht mehr erreichbar, nachdem kaltstart vom Host, musste man manuell diese starten...

Zuletzt noch (aber vmtl. letztrangig):
WO war "die Anzeige der Virtuellen Maschinen [] aber so "grau" gewesen"?
Im vSphere Client? Wo angemeldet?


die anderen Gäste welche diese "komische" Anzeige hatten, liefen auf den anderen 3 Hosts, die Anzeige war am vSphere Client direkt jeweils am Host angemeldet, da ja dass vCenter auch tot war (lief auf dem ausgefallen Host)

zu den Logs von dem VM's:
bin jetzt die log durchgegangen, leider enden die logs mit dem letzten neustart und das neueste logfile mit dem neustart nachdem Vorfall....

wo könnte ich noch etwas nachschauen?
Was die ursache des Ausfalls war

vielen dank nochmlas

Experte
Beiträge: 1036
Registriert: 04.10.2011, 14:06

Re: 2 unterschiedliche vCenter im gleichen V-Lan

Beitragvon JustMe » 11.01.2017, 11:39

Nun, Du hattest mal geschrieben:
"der Host welcher nicht erreichbar war, am DC konnte man sich einloggen und als man restart angestossen hatte"

Daraus hatte ich messerscharf geschlossen, dass "DC" eine VM auf dem nicht erreichbaren Host waere. War wohl wieder falsch...

Wg. Logs hatte ich doch schon vmkernel* und hostd* erwaehnt.

Wenn der komplette Host nicht mehr reagierte (Management nicht, und auch die VMs nicht), dann waere auch ein Blick in die HW-Logs des (hoffentlich ESXi-supporteten) Hosts interessant.

Das komplette Logbundle aller Hosts im betroffenen Cluster (vCenter wird nicht viel helfen, wenn die VC-VM mit ausgefallen war) solltest Du Eurem vSphere-Dienstleister zur Analyse vorlegen. Die kriegen ja schliesslich Geld dafuer ;-)

Member
Beiträge: 11
Registriert: 27.12.2016, 15:05

Re: 2 unterschiedliche vCenter im gleichen V-Lan

Beitragvon webmagic » 11.01.2017, 12:19

@JustMe

mit DC meinte ich eigenlich DCUI, mein Fehler...

vmkernel* und host* habe ich von dem Datum 07.01. nicht, vermutlich logglevel zu kurz gesetzt....

ich werde mal die Logs vom Host anschauen (iLO)

Der Server ist 4 Monate alt, HP Dl380 g9 und mit HP ESX Image installiert

Experte
Beiträge: 1036
Registriert: 04.10.2011, 14:06

Re: 2 unterschiedliche vCenter im gleichen V-Lan

Beitragvon JustMe » 11.01.2017, 12:50

Achso, DCUI.
Wenn das noch "bedienbar" war, dann wird vmtl. das iLO keine Fehler aufweisen. Dass der ESXi sich intern verschluckt, kommt leider schon mal vor, wenn auch wirklich nicht soooo oft. Zur genauen Version des ESXi habe ich aber in Deinen bisherigen Ausfuehrungen noch nix entdeckt. Aktuellste Patches eingesetzt?

Werden die Logs des Hosts denn ueberhaupt auf "persistent storage" gespeichert (KB2032823)? Dass nach heute 4 Tagen bereits alles weg sein soll, ist eher ungewoehnlich. Und bei einem so neuen Server wird doch keiner mutwillig das Log-Schreiben verkuerzt haben.

Sollte das Problem haeufiger auftreten, kann Euch vielleicht auch ein Syslog-Server helfen. Der sollte aber nicht auf einer VM im Cluster laufen ;-)

Wenn's nur 1x war: Haken dran, sobald alle besprochenen/denkbaren Punkte fuer "intensiveres" bzw. langlebigeres Logging implementiert wurden.

Member
Beiträge: 11
Registriert: 27.12.2016, 15:05

Re: 2 unterschiedliche vCenter im gleichen V-Lan

Beitragvon webmagic » 12.01.2017, 12:40

ich glaub die logs liegen nicht auf "persistent storage", das erklärt auch wieso ich da nix mehr finde...

da die lokalen hdd, als remote bei der installation gesehen wurden und nicht auf persistent angepasst wurden... fehlen mir die Logfiles vom Vorfall

wie du empfohlen hast, abhaken und syslog server einrichten > physischen

Danke nochmals

Experte
Beiträge: 1036
Registriert: 04.10.2011, 14:06

Re: 2 unterschiedliche vCenter im gleichen V-Lan

Beitragvon JustMe » 12.01.2017, 13:15

Ob die LUNs der lokalen HDs als local oder remote angezeigt werden, ist eigentlich eher egal...

Dass kein Persistent Storage fuer's Logging eingeschaltet ist, sollte als Warnung am Host stehen. OK, ausser jemand hat die Warnung bereits bestaetigt.

Profi
Beiträge: 951
Registriert: 31.03.2008, 17:26
Wohnort: Einzugsbereich des FC Schalke 04
Kontaktdaten:

Re: 2 unterschiedliche vCenter im gleichen V-Lan

Beitragvon kastlr » 12.01.2017, 13:47

Hallo,

schau doch mal unter /var/run/log nach, dort liegen auch noch archivierte Logfiles.
Eventuell reichen die noch weit genug zurück.

Gruß,
Ralf


Zurück zu „vCenter / VMware VirtualCenter“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 2 Gäste