Hallo liebes Forum,
ich bin gerade dabei einen neuen Host in unser vCenter (Cluster) zu integrieren.
Aktuell schaue ich gerade über unser bisheriges Netzwerkdesign. Für jede NIC gibt es ein vSwitch und jeweils ein Netz dahinter:
vSwitch0 -> vmnic0 -> NetExt0 (internes LAN) + Management
vSwitch1 -> vmnic1 -> NetExt1 (internes LAN) + VMKernel
vSwitch2 -> vmnic2 -> LLC2 (LLC2)
vSwitch3 -> vmnic3 -> DMZ (DMZ)
Nun wollte ich mal fragen, was Ihr von folgendem Design haltet bzw. Eure Meinung ist:
vSwitch0 -> vmnic0 -> NetExt0 (internes LAN - direkt auf diese Karte gebunden) + Mgmt + Kernel
vSwitch0 -> vmnic1 -> NetExt1 (internes LAN - direkt auf diese Karte gebunden)
vSwitch1 -> vmnic2 -> LLC2
vSwitch2 -> vmnic3 -> DMZ
vmnic0 = 10GBE, alle anderen Karten sind 1GBE.
Welche Auswirkungen hat dies auch auf den Cluster bzw. Hosts oder VMs? Die Bezeichnung der Portgruppen bleiben identisch.
Vielen Dank für Eure Meinungen.
Viele Grüße
Rolf
Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!
ESXi 5.1 - Netzwerkkonfiguration
Du hast an dem vSwitch0 nur eine NIC und an diesem vSwitch. Und an dem vSwitch hängt dein vmKernel Port für das Mamagement. Das heißt für mich: Keine Redundanz.
Wenn du drei 1 GbE und eine 10 GbE hast, dann schlage ich dir folgendes Setup vor:
vSwitch0 > 10 GbE aktiv
vSwitch0 > 1 GbE standby
vSwitch0 für Management und vMotion.
vSwitch1 > 2x 1 GbE aktiv
NetExt0, NetExt1, LLC und DMZ per VLAN zuführen.
Wenn du drei 1 GbE und eine 10 GbE hast, dann schlage ich dir folgendes Setup vor:
vSwitch0 > 10 GbE aktiv
vSwitch0 > 1 GbE standby
vSwitch0 für Management und vMotion.
vSwitch1 > 2x 1 GbE aktiv
NetExt0, NetExt1, LLC und DMZ per VLAN zuführen.
bla!zilla hat geschrieben:Du hast an dem vSwitch0 nur eine NIC und an diesem vSwitch. Und an dem vSwitch hängt dein vmKernel Port für das Mamagement. Das heißt für mich: Keine Redundanz.
Wenn du drei 1 GbE und eine 10 GbE hast, dann schlage ich dir folgendes Setup vor:
vSwitch0 > 10 GbE aktiv
vSwitch0 > 1 GbE standby
vSwitch0 für Management und vMotion.
vSwitch1 > 2x 1 GbE aktiv
NetExt0, NetExt1, LLC und DMZ per VLAN zuführen.
Hallo bla!zilla,
wir haben bisher immer so gehandhabt:
internes Netzwerk wird über vSwitch0 und vSwitch1 bedient mit jeweils unterschiedlichen NICs auch aus Lastgründen. Manchmal hatte das interne LAN noch eine 3 NIC als Standby auf einem vSwitch.
Alle anderen Netze (LLC2 und DMZ) waren ohne Redundanz, jeweils über ein vSwitch und eine NIC verbunden.
Bei dem VLAN Thema müsste man auch die existierenden Hosts Konfigurieren, oder?
Ist es aus "Sicherheitsbedenken" vertretbar alle Netze über eine NIC zu bedienen?
Unsere Redundanz an sich war eigentlich immer unser Cluster bestehend aus 7-8 Hosts, anstatt viele Standby NICs.
Denke mal über deinen Vorschlag nach, danke.
EDIT: Wieso bindest Du nur das Mgmt und den VMKernel an das 10GBE an und nicht noch Ext0 und Ext1?
Wenn ich die internen Netze über unterschiedliche vSwitche anfahre, geht der Traffic zum richtigen Switch, ist das korrekt?
Sorry, frage nur zum Verständnis.
EDIT2: Vielleicht wäre es besser das Mgmt und den Kernel auf beide NICs auszudehnen im vSwitch0. So wäre Ext0 und Ext1 getrennt, aber Mgmt und Kernel redundant.
Viele Grüße
Rolf
-
irix
- King of the Hill
- Beiträge: 13058
- Registriert: 02.08.2008, 15:06
- Wohnort: Hannover/Wuerzburg
- Kontaktdaten:
Eine pNIC kann nur immer an einem vSwitch haengen und somit ist es Unklug es so aufzuteilen. Ob man einen oder mehrere vSwitche auf dem Host macht hat nichts mit Performance zutun und ist somit einzig und allein aus der Sicht vom "Management" zubetrachten.
Die Netzbezeichnungen und deren Wertigkeiten bzw. das was an pSwitchen zur Verfuegung steht ist von aussen nicht zu erkennen somit kann man schlecht "die" richtige und beste Antwort geben.
Aber die Anworten auf die Fragen sind aus meiner Sicht einfach zu beantworten.
Ja macht Sinn und primaer sind die pSwitche zu konfigieren (VLAN Trunk)
Ohne VLAN und Redundanz? Nein.
Ich kann mich Bla!zilla seinem Vorschlag anschliessen bzw. folgende Variation vorschlagen, sofern halt nicht vMotion im sekundentakt gemacht wird bzw. Backup/Replikationstraffic nicht im ESXi MGMT liegt. Allerdings wart ihr auch jemand welcher DRS hat aber nicht aktiviert oder?
vSwitch0 -> 1GbE
vSwitch0 -> 1GbE
ESXi MGMT und vMotion. Jeweils eine NIC primaer und die 2. als Failback und das ganze halt vertauscht fuer beide Sachen. Eigentlich sehr "klassisch"
vSwitch1 -> 10GbE
vSwitch1 -> 1GbE
Hier die 10GbE als Primaer auf dem Switch mit 1GbE als Failback. Die Einstellung vererbt sich fuer alle Portgruppen und Netze verwenden tagged VLANIDs.
Da die R715 aber 4x1GbE Onboard hat fehlt doch eine vmnic in deiner Auflistung oder?
Gruss
Joerg
Die Netzbezeichnungen und deren Wertigkeiten bzw. das was an pSwitchen zur Verfuegung steht ist von aussen nicht zu erkennen somit kann man schlecht "die" richtige und beste Antwort geben.
Aber die Anworten auf die Fragen sind aus meiner Sicht einfach zu beantworten.
Bei dem VLAN Thema müsste man auch die existierenden Hosts Konfigurieren, oder?
Ja macht Sinn und primaer sind die pSwitche zu konfigieren (VLAN Trunk)
Ist es aus "Sicherheitsbedenken" vertretbar alle Netze über eine NIC zu bedienen?
Ohne VLAN und Redundanz? Nein.
Ich kann mich Bla!zilla seinem Vorschlag anschliessen bzw. folgende Variation vorschlagen, sofern halt nicht vMotion im sekundentakt gemacht wird bzw. Backup/Replikationstraffic nicht im ESXi MGMT liegt. Allerdings wart ihr auch jemand welcher DRS hat aber nicht aktiviert oder?
vSwitch0 -> 1GbE
vSwitch0 -> 1GbE
ESXi MGMT und vMotion. Jeweils eine NIC primaer und die 2. als Failback und das ganze halt vertauscht fuer beide Sachen. Eigentlich sehr "klassisch"
vSwitch1 -> 10GbE
vSwitch1 -> 1GbE
Hier die 10GbE als Primaer auf dem Switch mit 1GbE als Failback. Die Einstellung vererbt sich fuer alle Portgruppen und Netze verwenden tagged VLANIDs.
Da die R715 aber 4x1GbE Onboard hat fehlt doch eine vmnic in deiner Auflistung oder?
Gruss
Joerg
Hallo zusammen,
wir nutzen in unserem Cluster HA, aber kein DRS.
Aktuell haben wir in unserer Umgebung folgende Konfiguration:
Pro Host 4-5 NICs, die 5 ist meistens Standby im vSwitch1.
1. vSwitch 0 -> vmnic 0 (10GBE) -> NetExt0 (internes LAN) + Mgmt. mit vMotion -> CoreSwitch
2. vSwitch 1 -> vmnic 1 (1 GBE) -> NetExt1 (internes LAN) + VMKernel-> CoreSwitch
3. vSwitch 2 -> vmnic 2 (1 GBE) -> LLC2 -> LLC2-Switch
4. vSwitch 3 -> vmnic 3 (1 GBE) -> DMZ -> DMZ Switch
So wie wir es haben, geht die Kommunikation für das interne LAN über die pSwitche, richtig?
Dies würde ich gerne in Zukunft ändern und dachte an die Konfiguration:
1. vSwitch 0 -> vmnic 0 (10GBE) -> NetExt0 (internes LAN)
2. vSwitch 0 -> vmnic 1 (1GBE) -> NetExt1 (internes LAN)
Mgmt (vMotion) und Kernel über beide vmnics, NetExt0 nur über vnmic0 und NetExt1 nur über vmnic1.
Ist dies so umsetzbar bzw. praktikabel, oder nur ein falscher Gedanke?
Die anderen Netze DMZ und LLC2 würde ich weiterhin separat über vSwitch und pNIC abbilden, da beides physikalisch getrennt ist bei uns.
Beim Thema VLANs glaube ich, müssten wir großen Aufwand und Änderungen einplanen. Bisher dachte ich, die VLANs seien nur VMware intern.
@irix
Ja, die 5 NIC ist aktuell nicht angeschlossen bzw. eingeplant.
Bisher hat uns diese Lösung "jahrelang" treu gedient, aber bin offen für Neues.
Danke an Euch beiden vorab.
Viele Grüße
Rolf
wir nutzen in unserem Cluster HA, aber kein DRS.
Aktuell haben wir in unserer Umgebung folgende Konfiguration:
Pro Host 4-5 NICs, die 5 ist meistens Standby im vSwitch1.
1. vSwitch 0 -> vmnic 0 (10GBE) -> NetExt0 (internes LAN) + Mgmt. mit vMotion -> CoreSwitch
2. vSwitch 1 -> vmnic 1 (1 GBE) -> NetExt1 (internes LAN) + VMKernel-> CoreSwitch
3. vSwitch 2 -> vmnic 2 (1 GBE) -> LLC2 -> LLC2-Switch
4. vSwitch 3 -> vmnic 3 (1 GBE) -> DMZ -> DMZ Switch
So wie wir es haben, geht die Kommunikation für das interne LAN über die pSwitche, richtig?
Dies würde ich gerne in Zukunft ändern und dachte an die Konfiguration:
1. vSwitch 0 -> vmnic 0 (10GBE) -> NetExt0 (internes LAN)
2. vSwitch 0 -> vmnic 1 (1GBE) -> NetExt1 (internes LAN)
Mgmt (vMotion) und Kernel über beide vmnics, NetExt0 nur über vnmic0 und NetExt1 nur über vmnic1.
Ist dies so umsetzbar bzw. praktikabel, oder nur ein falscher Gedanke?
Die anderen Netze DMZ und LLC2 würde ich weiterhin separat über vSwitch und pNIC abbilden, da beides physikalisch getrennt ist bei uns.
Beim Thema VLANs glaube ich, müssten wir großen Aufwand und Änderungen einplanen. Bisher dachte ich, die VLANs seien nur VMware intern.
@irix
Ja, die 5 NIC ist aktuell nicht angeschlossen bzw. eingeplant.
Bisher hat uns diese Lösung "jahrelang" treu gedient, aber bin offen für Neues.
Danke an Euch beiden vorab.
Viele Grüße
Rolf
Hallo zusammen,
ich habe nun die Konfiguration wie folgt erstellt:
1. vSwitch0 --> 10GBE und 1GBE für VMKernel (NICs: dediziert + Standby), NetExt0 (NICs: dediziert + Standby) und Netext1 (NICs: dediziert + Standby)
2. vSwitch1 -> 1GBE für NetLLC2
3. vSiwtch2 -> 1GBE für NetDMZ
4. vSwitch3 -> NetInt0
So ist es für uns in Ordnung und eine Verbesserung zur vorherigen Konfiguration.
Die fehlende Redundanz für LLC2 und DMZ können wir dank anderen Hosts und wenig VMs, die dies nutzen, verschmerzen.
Viele Grüße
Rolf
ich habe nun die Konfiguration wie folgt erstellt:
1. vSwitch0 --> 10GBE und 1GBE für VMKernel (NICs: dediziert + Standby), NetExt0 (NICs: dediziert + Standby) und Netext1 (NICs: dediziert + Standby)
2. vSwitch1 -> 1GBE für NetLLC2
3. vSiwtch2 -> 1GBE für NetDMZ
4. vSwitch3 -> NetInt0
So ist es für uns in Ordnung und eine Verbesserung zur vorherigen Konfiguration.
Die fehlende Redundanz für LLC2 und DMZ können wir dank anderen Hosts und wenig VMs, die dies nutzen, verschmerzen.
Viele Grüße
Rolf
Zurück zu „vSphere 5 / ESXi 5 und 5.1“
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 6 Gäste