Hallo.
Besonderes Hallo an bla!zilla :o)
Folgendes Setup:
- 3 ESXi 4.0 Server
- 2 davon als HA-Cluster
- Auf dem 3. läuft unter anderem der FOM von HP
- 2 HP Lefthand SANs über iSCSI angeschlossen
Sowohl die Storages als auch die ESXi Server haben je 2 NICs nur für iSCSI.
Der FOM von HP tut seinen Dienst. Aber das Failover, bzw. LoadBalancing auf VMware Seite funktioniert nicht.
Folgendes vSwitch Setup:
- je Server 1 vSwitch mit 2 Netzwerkkarten, nur 1 VMKernel welcher seine IP, so wie die Storages und der FOM auch, im eigenen Subnetz haben.
Habe jetzt vom VMware Support schon gehört, dass ich pro vSwitch 2 VMKernels in jeweils einem anderem Subnetz brauche. Pro VMKernel dann einen Adapter auf Aktiv, den andern auf Standby, und umgekehrt.
Somit sieht dann jeweils ein Adapter den FOM nicht, welcher ja eh hinfällig wäre, was will ich mit Failover an Lefthand und an VMware?
Ich will schönes Load-Balancing bei den ESXi Servern, und wenn eine NIC kaputt gehen sollte, dann kann halt nichts mehr gebalanced werden, und läuft dann eh nur noch über eine Karte.
So, jetzt die Preisfrage:
Wie geht das? Oder was verstehe ich nicht?
:) Freue mich über Hilfe :)
LG, Joachim.
Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!
Lefthand Cluster + ESXi Cluster - Failover + Loadbalancing
Hast du ein Multisite- oder ein Standardcluster? Die ESXer müssen den FOM nicht sehen. Der FOM wird zur Managementgroup und zum Cluster hinzugefügt, anschließend einer Site zugeordnet. Den Virtual Manager musst du vorher löschen. Die VMkernel-Interfaces, die für iSCSI genutzt werden, müssen im gleichen Subnet sein, wie die VIP des Clusters. Der iSCSI Initiator von VMware macht Failover nur auf Ebene der NICs. Wenn an dem vSwitch, an dem das VMkernel-Interface für iSCSI hängt, zwei NICs hat, dann hast du schon deine Redundanz. Du hast ja im Falle eines Failovers im LeftHand Cluster keine wechselnde IP. Daher verstehe ich nicht, warum du mehrere VMkernel-Interfaces brauchen solltest... Ich habe gerade vor ein paar Tagen so ein Setup quick'n'dirty aufgesetzt (zwei P4500, zwei ESXer, zwei 5304xl Switches): Rennt total problemlos, wenn ein LeftHand Node ausfällt.
Erstmal Danke für die Antwort:
Habe mich noch nicht so mit der Thematik auseinandergesetzt, hat alles ein Kollege übernommen. Ich bin "nur" derjenige, der sich jetzt um eine Lösung kümmern muss...
Es sind 2 Storage-Boxen in einem Rack, und dem FOM auf einem seperaten ESXi Server, aber auch im gleichen Rack.
Problem an der ganzen Sache ist, dass der Failover bei den iSCSI Karten am ESXi nicht funktioniert.
Ziehe ich das Kabel von einer NIC, übernimmt die andere nicht, auch nach längerem Warten nicht.
iSCSI Switch:
Dessen VM-Kernel Karteneinstellung:
Dessen vSwitch Karteneinstellung:
Habe ich da etwas falsch gemacht? Ich komme da echt durcheinander.
Der von VMware hat halt gemeint, ich müsse 2 VM-Kernels in den vSwitch packen, je ein Adapter auf aktiv, den andern auf Standby. Und damit das geht, muss man die in ein eigenes Subnetz legen.
Ich will Failover, wenn der FOM das abdeckt ist das ja in Ordnung, und Loadbalancing :)
Ich will, ich will, ich will...
LG.
Habe mich noch nicht so mit der Thematik auseinandergesetzt, hat alles ein Kollege übernommen. Ich bin "nur" derjenige, der sich jetzt um eine Lösung kümmern muss...
Es sind 2 Storage-Boxen in einem Rack, und dem FOM auf einem seperaten ESXi Server, aber auch im gleichen Rack.
Problem an der ganzen Sache ist, dass der Failover bei den iSCSI Karten am ESXi nicht funktioniert.
Ziehe ich das Kabel von einer NIC, übernimmt die andere nicht, auch nach längerem Warten nicht.
iSCSI Switch:
Dessen VM-Kernel Karteneinstellung:
Dessen vSwitch Karteneinstellung:
Habe ich da etwas falsch gemacht? Ich komme da echt durcheinander.
Der von VMware hat halt gemeint, ich müsse 2 VM-Kernels in den vSwitch packen, je ein Adapter auf aktiv, den andern auf Standby. Und damit das geht, muss man die in ein eigenes Subnetz legen.
Ich will Failover, wenn der FOM das abdeckt ist das ja in Ordnung, und Loadbalancing :)
Ich will, ich will, ich will...
LG.
P4300 Cluster Hilfe ;)
Hallo Zusammen
Da ich mehr oder weniger ohne Background wissen über Lefthand bzw der P4000 Serie eine ESX / Lefthand Cluster aufsetzen darf wollte ich mich erkundigen ob ihr mir mit einem problemchen / Verständnis frage weiterhelfen könnt.
Lineup:
4x ESX 3.5 U3
2x P4300 Starter Kit SAN (2x P4300 G2)
2x Netgear GS724TS
Zur zeit bin ich an der Konfiguration der P4300.
Es wurde je ein Bond auf den P4300 erzeugt mit der ip x.x.x.102 (Bond2) und x.x.x.101 (Bond1)
Pro Switch ist ein Bond Konfiguriert.
Die Zwei P4300 wurden einem Standard Cluster zugewiesen mit der VIP x.x.x.100
Der VIP wird auf den Auf dem Storage Bond2 angezeigt.
Die Zwei Netgear Switches sind mit einem einzelnen RJ45 Kabel verbunden.
Ich habe nun begonnen die Verfügbarkeit tests zu machen.
Ein Notebook wurde auf den Switch 1 wo sich das Bond1 befindet gehängt.
Ich habe dauer Pings auf x.x.x.102, x.x.x.101 und x.x.x.100 am laufen.
Wenn ich nun die Einzelnen Kabel der Bonds herausziehe habe ich gut wie keinen (eventuell 1 Ping Verlust)
So nun zum Problem
Wenn ich das Kabel dass die Zwei Switches verbindet unterbreche. (also Quasi die Komplette P4300 (2) (bond 2) abhänge ist die VIP und natürlich die x.x.x.102 nicht mehr ping bar.
Via CNC kann ich aber interessanterweise über die VIP die erste P4300 noch verwalten.
Es Scheint als würde die erste P4300 nicht die VIP übernehmen und somit kein Failovering machen.
Wieso ist das so brauche ich dazu den erwähnten Failover Manager?
Ich hoffe ihr habt so halb verstanden was mein Problem ist.
Sorry für die etwas umständliche Beschreibung.
Da ich mehr oder weniger ohne Background wissen über Lefthand bzw der P4000 Serie eine ESX / Lefthand Cluster aufsetzen darf wollte ich mich erkundigen ob ihr mir mit einem problemchen / Verständnis frage weiterhelfen könnt.
Lineup:
4x ESX 3.5 U3
2x P4300 Starter Kit SAN (2x P4300 G2)
2x Netgear GS724TS
Zur zeit bin ich an der Konfiguration der P4300.
Es wurde je ein Bond auf den P4300 erzeugt mit der ip x.x.x.102 (Bond2) und x.x.x.101 (Bond1)
Pro Switch ist ein Bond Konfiguriert.
Die Zwei P4300 wurden einem Standard Cluster zugewiesen mit der VIP x.x.x.100
Der VIP wird auf den Auf dem Storage Bond2 angezeigt.
Die Zwei Netgear Switches sind mit einem einzelnen RJ45 Kabel verbunden.
Ich habe nun begonnen die Verfügbarkeit tests zu machen.
Ein Notebook wurde auf den Switch 1 wo sich das Bond1 befindet gehängt.
Ich habe dauer Pings auf x.x.x.102, x.x.x.101 und x.x.x.100 am laufen.
Wenn ich nun die Einzelnen Kabel der Bonds herausziehe habe ich gut wie keinen (eventuell 1 Ping Verlust)
So nun zum Problem
Wenn ich das Kabel dass die Zwei Switches verbindet unterbreche. (also Quasi die Komplette P4300 (2) (bond 2) abhänge ist die VIP und natürlich die x.x.x.102 nicht mehr ping bar.
Via CNC kann ich aber interessanterweise über die VIP die erste P4300 noch verwalten.
Es Scheint als würde die erste P4300 nicht die VIP übernehmen und somit kein Failovering machen.
Wieso ist das so brauche ich dazu den erwähnten Failover Manager?
Ich hoffe ihr habt so halb verstanden was mein Problem ist.
Sorry für die etwas umständliche Beschreibung.
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 8 Gäste