Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!
ESX5.1 - NIC Teaming - Active/Active oder Active/Passive
ESX5.1 - NIC Teaming - Active/Active oder Active/Passive
Hallo,
für einen vSwitch1 (vSwitch2 ist für iSCSI Traffic) habe ich zwei physikalische Netzwerkkarten zur Verfügung. Was ich nicht ganz verstehe, obwohl schon viel darüber gelesen, warum bzw. wann man eine Active/Passive Konfiguration von NICs Sinn macht, da meiner Meinung nach, eine ACTIVE/ACTIVE Konfiguratin der NICs ja immer auch die Auslastung beider NICs nach sich zieht und nicht nur einer. Gibt es Konstellationen in denen eine ACTIVE/ACTIVE nicht geht bzw. die ACTIVE/PASSIVE vorzuziehen ist?
für einen vSwitch1 (vSwitch2 ist für iSCSI Traffic) habe ich zwei physikalische Netzwerkkarten zur Verfügung. Was ich nicht ganz verstehe, obwohl schon viel darüber gelesen, warum bzw. wann man eine Active/Passive Konfiguration von NICs Sinn macht, da meiner Meinung nach, eine ACTIVE/ACTIVE Konfiguratin der NICs ja immer auch die Auslastung beider NICs nach sich zieht und nicht nur einer. Gibt es Konstellationen in denen eine ACTIVE/ACTIVE nicht geht bzw. die ACTIVE/PASSIVE vorzuziehen ist?
Ich nutze meist Active/Passive das zur manuellen Aufteilung auf die Ports. Sprich pro Port dann eine Gruppe welchen nen anderen als Passives Mitglied macht.
Grund: Der ESXi macht das mitunter nicht immer gleich clever und man hat durch ne Reihe Zufälle (oder auch nicht) im schlimmsten Fall alle VM's auf dem gleichen Port. Durch die manuelle Aufteilung zwingt man ihn aber zur Nutzung beider Ports. Im Falle eines Ausfalls, kann aber trotzdem alles über einen Port laufen.
Grund: Der ESXi macht das mitunter nicht immer gleich clever und man hat durch ne Reihe Zufälle (oder auch nicht) im schlimmsten Fall alle VM's auf dem gleichen Port. Durch die manuelle Aufteilung zwingt man ihn aber zur Nutzung beider Ports. Im Falle eines Ausfalls, kann aber trotzdem alles über einen Port laufen.
Der Vorteil einer Active/Passiv Konfiguration ist eben der, dass man Einfluss darauf nehmen kann welche/r Portgruppe/VMkernel Port welche NIC verwenden darf.
Der Klassiker hierbei sind z.B. die VMkernel Ports für das Managment und für vMotion. Bei einer limitieren Anzahl an vmnics hat man meistens eine Konfiga ala:
Managment: vmnic 0 active - vmnic 1 passiv
vMotion: vmnic1 - vmnic 0 passiv
Das hat den Vorteil das man den Traffic so jeweils dediziert über eine eigene NIC leiten kann und man sich so sicher sein kann, dass sich dieser jeweils nicht in die Quere kommt (grade vMotion hat die Eigenart die komplette Bandbreite auszunutzen).
Sollte in diesem Beispiel dann mal eine NIC ausfallen hat man trotzdem durch die passive vmnic eine Ausfallsicherheit, da diese sofort einspringt.
Bei den Portgruppen für die VMs hingegen hat man meistens eine active / active Konfiguration. Entscheidend welcher Traffic welcher VM dann über welche vmnic geht ist der Loadbalancing-Mode der verwendet wird. Standard hier ist "route based on virtual port ID". Darunter muss man sich ein recht simples Round Robin Prinzip vorstellen, wo die Netzwerkkarten der VMs einfach der Reihe nach über die vmnics verteilt werden.
VM1 - nic 1, nic2
VM2 - nic 3
VM3 - nic 4, nic5
vmnic 1 : nic1, nic3, nic5
vmnic 2: nic2, nic4, nic6
In der Regel hat man dann ja nicht nur eine Portgruppe sondern VLAN seidank oft eine Vielzahl. Hier könnte man dann zwar pro Portgruppe individuelle Settings vergeben, was aber nur in den wenigsten Fällen sind macht bzw. den Aufwand wert ist.
Wird die Umgebung etwas größer hat man meist dann ohnehin die Distributed Switche wo man dann mit NIOC und einer weiteren Loadbalancing Variante noch mal andere Möglichkeiten hat.
Hinzukommt noch das man auch auf Hardware-Seite oft einige nützliche Features hat. So kann man z.B. bei einer HP FlexFabric mit 10GBit in mehere kleine "virtuelle" NICs aufteilen und darüber die Bandbreite dynamisch verteilen lassen etc., so dass man sich dann im vSphere Layer deutlich weniger Gedanken machen muss.
Gruß Mario
Der Klassiker hierbei sind z.B. die VMkernel Ports für das Managment und für vMotion. Bei einer limitieren Anzahl an vmnics hat man meistens eine Konfiga ala:
Managment: vmnic 0 active - vmnic 1 passiv
vMotion: vmnic1 - vmnic 0 passiv
Das hat den Vorteil das man den Traffic so jeweils dediziert über eine eigene NIC leiten kann und man sich so sicher sein kann, dass sich dieser jeweils nicht in die Quere kommt (grade vMotion hat die Eigenart die komplette Bandbreite auszunutzen).
Sollte in diesem Beispiel dann mal eine NIC ausfallen hat man trotzdem durch die passive vmnic eine Ausfallsicherheit, da diese sofort einspringt.
Bei den Portgruppen für die VMs hingegen hat man meistens eine active / active Konfiguration. Entscheidend welcher Traffic welcher VM dann über welche vmnic geht ist der Loadbalancing-Mode der verwendet wird. Standard hier ist "route based on virtual port ID". Darunter muss man sich ein recht simples Round Robin Prinzip vorstellen, wo die Netzwerkkarten der VMs einfach der Reihe nach über die vmnics verteilt werden.
VM1 - nic 1, nic2
VM2 - nic 3
VM3 - nic 4, nic5
vmnic 1 : nic1, nic3, nic5
vmnic 2: nic2, nic4, nic6
In der Regel hat man dann ja nicht nur eine Portgruppe sondern VLAN seidank oft eine Vielzahl. Hier könnte man dann zwar pro Portgruppe individuelle Settings vergeben, was aber nur in den wenigsten Fällen sind macht bzw. den Aufwand wert ist.
Wird die Umgebung etwas größer hat man meist dann ohnehin die Distributed Switche wo man dann mit NIOC und einer weiteren Loadbalancing Variante noch mal andere Möglichkeiten hat.
Hinzukommt noch das man auch auf Hardware-Seite oft einige nützliche Features hat. So kann man z.B. bei einer HP FlexFabric mit 10GBit in mehere kleine "virtuelle" NICs aufteilen und darüber die Bandbreite dynamisch verteilen lassen etc., so dass man sich dann im vSphere Layer deutlich weniger Gedanken machen muss.
Gruß Mario
Hier gibts eine ganz gute Serie zu dem Thema generell.
Zwar schon ein paar Tage alt, aber immer noch zutreffend:
http://kensvirtualreality.wordpress.com ... te-part-1/
Zwar schon ein paar Tage alt, aber immer noch zutreffend:
http://kensvirtualreality.wordpress.com ... te-part-1/
Ok...so weit dachte ich mir das schon und habe es selber teilweise bei mir umgesetzt. Die Frage , die sich mir jetzt stellt, ob man diese ACTIVE/ACTIVE Konfiguration mit zwei Switchen auch umsetzen kann, ohne hier in Netzwerkprobleme zu tappen. Praktisch sieht das so aus:
VM1,VM2 -> PortgruppeVLAN1 -> vSwitch0 -> VMNIC0 -> Phys-Switch1
VM1,VM2 -> PortgruppeVLAN1 -> vSwitch0 -> VMNIC1 -> Phys-Switch2
Gibt es bei dieser Konstellation ein Problem im Netzwerk? Schliesslich kommt die Verbindung dann aus zwei unterschiedlichen "VMNICs", was vielleicht die physikalischen Switche durcheinander bringen könnte?
Aus Redundanzgründen verwenden wir je zwei physikalsiche Switch auf LAN und iSCSI Ebene. Die physikalischen Switche sind auch direkt miteinander verbunden.
VM1,VM2 -> PortgruppeVLAN1 -> vSwitch0 -> VMNIC0 -> Phys-Switch1
VM1,VM2 -> PortgruppeVLAN1 -> vSwitch0 -> VMNIC1 -> Phys-Switch2
Gibt es bei dieser Konstellation ein Problem im Netzwerk? Schliesslich kommt die Verbindung dann aus zwei unterschiedlichen "VMNICs", was vielleicht die physikalischen Switche durcheinander bringen könnte?
Aus Redundanzgründen verwenden wir je zwei physikalsiche Switch auf LAN und iSCSI Ebene. Die physikalischen Switche sind auch direkt miteinander verbunden.
Active / Active heißt ja eben nicht automatisch das jede NIC der VM gleichzeitig über alle vmnics rausgeht.
Bei dem zuvor genannten Load-Balancing Mode "route based on virtual port ID" wird die NIC der VM einer vmnic fest zugeordenet (zumindestens während sie angeschaltet ist). Demnach fließt der Traffic auch nur über eine vmnic und einen physikalischen Switch, so dass es da auch keine Probleme mit den ARP-Tabels gibt.
Eine VM kann nur gleichzeitig über zwei oder mehrere vmnics gehen wenn man den Load-Balancing Mode "IP-Hash" wählt. Dafür muss dann aber auch auf der phyiskalischen Switch Seite was passieren (bei Cisco ein sogenanter EtherChannel) damit dieser damit umgehen kann.
Gruß Mario
Bei dem zuvor genannten Load-Balancing Mode "route based on virtual port ID" wird die NIC der VM einer vmnic fest zugeordenet (zumindestens während sie angeschaltet ist). Demnach fließt der Traffic auch nur über eine vmnic und einen physikalischen Switch, so dass es da auch keine Probleme mit den ARP-Tabels gibt.
Eine VM kann nur gleichzeitig über zwei oder mehrere vmnics gehen wenn man den Load-Balancing Mode "IP-Hash" wählt. Dafür muss dann aber auch auf der phyiskalischen Switch Seite was passieren (bei Cisco ein sogenanter EtherChannel) damit dieser damit umgehen kann.
Gruß Mario
Hat jemand Erfahrung wie man denn bei einem HP Procurve Switch Teaming einstellt, also das NIC-Teaming in den VMs funktioniert?
Oder was sonst noch bei dem vSwitch einzustellen ist, außer "IP-Hash", damit der Datenverkehr der VMs über mehrere NICs geht?
Suche schon seit einiger Zeit, aber bisher ohne Erfolg...
Gruß
Alex
Oder was sonst noch bei dem vSwitch einzustellen ist, außer "IP-Hash", damit der Datenverkehr der VMs über mehrere NICs geht?
Suche schon seit einiger Zeit, aber bisher ohne Erfolg...
Gruß
Alex
Auszuf aus einem VMware KB:
To configure a static portchannel in an HP switch using ports 10, 11, 12, and 13, run this command:
conf
trunk 10-13 Trk1 Trunk
To verify your portchannel, run this command:
ProCurve# show trunk
Load Balancing
Port | Name Type | Group Type
---- + --------- + ----- -----
10 | 100/1000T | Trk1 Trunk
11 | 100/1000T | Trk1 Trunk
12 | 100/1000T | Trk1 Trunk
13 | 100/1000T | Trk1 Trunk
To configure a static portchannel in an HP switch using ports 10, 11, 12, and 13, run this command:
conf
trunk 10-13 Trk1 Trunk
To verify your portchannel, run this command:
ProCurve# show trunk
Load Balancing
Port | Name Type | Group Type
---- + --------- + ----- -----
10 | 100/1000T | Trk1 Trunk
11 | 100/1000T | Trk1 Trunk
12 | 100/1000T | Trk1 Trunk
13 | 100/1000T | Trk1 Trunk
Im Gegensatz zu "Spindown", der hier meinen Thread für seine Zwecke missbraucht
ging es mir nicht um ein "echtes" dynamisches Load Balancing einer VM, sondern um das "statische" Load Balancing bsp. auf Basis der Port-ID bzw. MAC in Verbindung mit ACTIVE/ACTIVE Konfiguration. Die Frage , die sich mir hier stellt ist, ob eine Konfiguration der beiden aktiven VMNICs zu zwei Switchen Probleme verursachen kann.
@Spindown : Kein Problem
@UrsDerBär "und Rest":
Und hier genau ist wohl das Problem.
Ich bin mir gar nicht sicher, wie die Pakete eigentlich von einer VM (MAC1), über vSwitch0 (MAC2) und über physikalische Switch01 (MAC3) aussehen, wenn sie ihr Ziel erreichen wollen "wollen". Welche MAC-Adresse sich der jeweilige virtuelle und physikalische Switch zwischenspeichern. Und welche Funktion müsste auf einem Switch dann "deaktiviert" werden? Die MAC ADressspeicherung? Gibt es hierfür einen "Standard"-Namen?
@UrsDerBär "und Rest":
Und hier genau ist wohl das Problem.
Ich bin mir gar nicht sicher, wie die Pakete eigentlich von einer VM (MAC1), über vSwitch0 (MAC2) und über physikalische Switch01 (MAC3) aussehen, wenn sie ihr Ziel erreichen wollen "wollen". Welche MAC-Adresse sich der jeweilige virtuelle und physikalische Switch zwischenspeichern. Und welche Funktion müsste auf einem Switch dann "deaktiviert" werden? Die MAC ADressspeicherung? Gibt es hierfür einen "Standard"-Namen?
Spindown hat geschrieben:Hat jemand Erfahrung wie man denn bei einem HP Procurve Switch Teaming einstellt, also das NIC-Teaming in den VMs funktioniert?
Den passenden VMware Knowledgebase Artikel hattest Du schon gefunden?
Zurück zu „vSphere 5 / ESXi 5 und 5.1“
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 10 Gäste