Mehre VM´s über mind. 2 vSwitches anbinden
Verfasst: 21.12.2014, 11:45
habe mehr als 10 Windows- & Linux-Server VM´s auf einem (free) ESX 5.5 Host laufen.
Diese kommunizieren natürlich auch direkt miteinander (z.B. AD Controller, DNS, lokaler WUS, Postfix, Exchange u.v.a.m.).
Zur Optimierung des Netzwerktraffics:
Könnten diese VM´s allesamt an ein eigenen vSwitch für die serverseitige Kommunikation, währenddessen die Clients an einem anderen vSwitch für die clientseitige Kommunikation angeschlossen werden ?
Tests:
Habe mal einen "Server"- und einen "Client"-vSwitch eingerichtet und zwei Windows VM´s zum Tests jeweils 2 vmnics mit jeweils eigenen Adresssegmenten (192./172.) den beiden vSwitches zugeordnet:
vswitch0 netServer vm1
netServer vm2
vswitch netClient vm1
netVlient vm2
Habe dann mit iperf (iperfc -c xxx.xxx.xxx.xxx -P 10 -w 64k -l 128k -t 30 -f M) eben unter Angabe der jeweils zu verwendenden (vm)nic Messungen durchgeführt und über esxtop kontrolliert, welche vSwitche benutzt werden.
Nicht wirklich überraschend war, dass der Durchsatz der serverseitigen Kommunikation (10 parallele Verbindungen) nicht einbrach, währenddessen über das Client Netz (30 parallele Verbindungen) zugegriffen wurde. Dagegen reduzierte sich der Durchsatz auf unter 50%, wenn alle Zugriffe über den gleiche Adressbereich des "Client" Netzwerks erfolgten.
Problem:
Wie könnte das Routing innerhalb der jeweiligen VM´s so eingerichtet werden, dass die serverseitige Kommunikation ausschliesslich über den "Server"-vSwitch (m Beispiel vSwitch0) läuft oder gibt es dazu ggf. eine Alternative ?
Diese kommunizieren natürlich auch direkt miteinander (z.B. AD Controller, DNS, lokaler WUS, Postfix, Exchange u.v.a.m.).
Zur Optimierung des Netzwerktraffics:
Könnten diese VM´s allesamt an ein eigenen vSwitch für die serverseitige Kommunikation, währenddessen die Clients an einem anderen vSwitch für die clientseitige Kommunikation angeschlossen werden ?
Tests:
Habe mal einen "Server"- und einen "Client"-vSwitch eingerichtet und zwei Windows VM´s zum Tests jeweils 2 vmnics mit jeweils eigenen Adresssegmenten (192./172.) den beiden vSwitches zugeordnet:
vswitch0 netServer vm1
netServer vm2
vswitch netClient vm1
netVlient vm2
Habe dann mit iperf (iperfc -c xxx.xxx.xxx.xxx -P 10 -w 64k -l 128k -t 30 -f M) eben unter Angabe der jeweils zu verwendenden (vm)nic Messungen durchgeführt und über esxtop kontrolliert, welche vSwitche benutzt werden.
Nicht wirklich überraschend war, dass der Durchsatz der serverseitigen Kommunikation (10 parallele Verbindungen) nicht einbrach, währenddessen über das Client Netz (30 parallele Verbindungen) zugegriffen wurde. Dagegen reduzierte sich der Durchsatz auf unter 50%, wenn alle Zugriffe über den gleiche Adressbereich des "Client" Netzwerks erfolgten.
Problem:
Wie könnte das Routing innerhalb der jeweiligen VM´s so eingerichtet werden, dass die serverseitige Kommunikation ausschliesslich über den "Server"-vSwitch (m Beispiel vSwitch0) läuft oder gibt es dazu ggf. eine Alternative ?