Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

Mehre VM´s über mind. 2 vSwitches anbinden

Moderatoren: Dayworker, irix

Member
Beiträge: 10
Registriert: 18.03.2014, 16:36

Mehre VM´s über mind. 2 vSwitches anbinden

Beitragvon Goulasch » 21.12.2014, 11:45

habe mehr als 10 Windows- & Linux-Server VM´s auf einem (free) ESX 5.5 Host laufen.
Diese kommunizieren natürlich auch direkt miteinander (z.B. AD Controller, DNS, lokaler WUS, Postfix, Exchange u.v.a.m.).

Zur Optimierung des Netzwerktraffics:
Könnten diese VM´s allesamt an ein eigenen vSwitch für die serverseitige Kommunikation, währenddessen die Clients an einem anderen vSwitch für die clientseitige Kommunikation angeschlossen werden ?

Tests:
Habe mal einen "Server"- und einen "Client"-vSwitch eingerichtet und zwei Windows VM´s zum Tests jeweils 2 vmnics mit jeweils eigenen Adresssegmenten (192./172.) den beiden vSwitches zugeordnet:
vswitch0 netServer vm1
netServer vm2
vswitch netClient vm1
netVlient vm2

Habe dann mit iperf (iperfc -c xxx.xxx.xxx.xxx -P 10 -w 64k -l 128k -t 30 -f M) eben unter Angabe der jeweils zu verwendenden (vm)nic Messungen durchgeführt und über esxtop kontrolliert, welche vSwitche benutzt werden.
Nicht wirklich überraschend war, dass der Durchsatz der serverseitigen Kommunikation (10 parallele Verbindungen) nicht einbrach, währenddessen über das Client Netz (30 parallele Verbindungen) zugegriffen wurde. Dagegen reduzierte sich der Durchsatz auf unter 50%, wenn alle Zugriffe über den gleiche Adressbereich des "Client" Netzwerks erfolgten.

Problem:
Wie könnte das Routing innerhalb der jeweiligen VM´s so eingerichtet werden, dass die serverseitige Kommunikation ausschliesslich über den "Server"-vSwitch (m Beispiel vSwitch0) läuft oder gibt es dazu ggf. eine Alternative ?

Guru
Beiträge: 2770
Registriert: 23.02.2012, 12:26

Beitragvon ~thc » 21.12.2014, 14:07

Ich verstehe die Fragestellung nicht ganz.

In einem "normalen" Setup (Mehrere vServer an einem vSwitch, Clients über ein oder mehrere vmnics nach draußen - mit pSwitch - angebunden) läuft die interne Kommunikation der Server nur über den vSwitch und muss nicht mal an eine vmnic herausgereicht werden. Die Kommunkation mit den Clients läuft dann über die vmnic(s) als "Flaschenhals".

Du müsstest also bitte etwas mehr ins Detail gehen, was du da genau getrennt oder optimiert haben möchtest.

Member
Beiträge: 10
Registriert: 18.03.2014, 16:36

Beitragvon Goulasch » 21.12.2014, 18:23

[quote läuft die interne Kommunikation der Server nur über den vSwitch und muss nicht mal an eine vmmic herausgereicht werden[/quote]

Wenn dem so wäre: welche Performance müsste denn mit den VMXNET 3 erreicht werden ?

Guru
Beiträge: 2770
Registriert: 23.02.2012, 12:26

Beitragvon ~thc » 22.12.2014, 08:52

Gemessen habe ich mal zwischen zwei Debian-VMs mit VMXNET3 17 GBit/s.

Solche "Performance"-Werte sind allerdings nicht wirklich relevant, da das OS und heutzutage insbesondere die genaue innere Funktionsweise des Netzwerkstacks eine große Rolle spielen.

Member
Beiträge: 10
Registriert: 18.03.2014, 16:36

Beitragvon Goulasch » 23.12.2014, 09:29

es geht mir gar nicht nicht um die Absolutwerte.

Wenn aber die Kommunikation der Server untereinander ausschliesslich über denselben vSwitch mit und ohne zugeordneter (vm)NIC gehen würde und vmware eine evtl. angeschlossene vmmic automatisch umgeht, dann müssten die Messungen in beiden Fällen einen einheitlichen Durchsatz aufzeigen.

Das tun sie bei mir aber nicht:
vSwitch ohne vmNIC > vSwitch mit NIC (jeweils von/an Server gemessen).

Experte
Beiträge: 1848
Registriert: 04.10.2011, 14:06

Beitragvon JustMe » 23.12.2014, 10:31

Poste doch mal ein (aussagekraeftiges) Bild von Deiner ESXi Netzwerkkonfiguration, mit Info wo Du denkst, dass der Traffic lang gehen sollte.

Eine Kommunikation einer VM an einem vSwitch MIT vmnicX zu einer VM an einem vSwitch OHNE vmnicY sollte eigentlich ueberhaupt nicht gehen. Ausser, wenn die VM mehrere vNIC an mehreren vSwitches hat, und man dann die LAN-Konfiguration des Guest-OS (und ggfs. externe Switches) in betracht ziehen muss.

Die absoluten Werte einer VM-VM-Kommunikation an einunddemselben vSwitch sind in der Tat nicht aussagekraeftig, da sie ja nur "in Software" durchgefuehrt werden, und somit ggfs. von einer Reihe weiterer Parameter wie z.B. Auslastung des Hosts, des Hypervisors, etc.pp. abhaengen.

Abgesehen davon kann es durchaus sein, dass man keine "einheitlichen" Werte erhaelt; egal, was man anstellt. Ganz einfach, weil man Randparameter nicht beachtet hat, auf die man moeglicherweise nicht einmal Einfluss hat. Oder, wie es (sinnverwandt) ein anderer Forenteilnehmer in einem anderen Thread kuerzlich ausdrueckte: Gibt's eigentlich keine echten Probleme mehr, dass man sich mit solchen Performancevergleichen zu beschaeftigen versucht? ;-)

Guru
Beiträge: 2770
Registriert: 23.02.2012, 12:26

Beitragvon ~thc » 23.12.2014, 10:36

Ich kann deine Tests aus dem ersten Beitrag (unter Umständen auch wegen der uneindeutigen Verwendung von "vmnic" & "NIC") nicht nachvollziehen.

physische Netzwerkkarte des ESXi = vmnic
virtuelle Netzwerkkarte einer VM = vNIC

Ich kann daher nicht erkennen, ob du jetzt einen isolierten vSwitch (ohne vmnic) mit einem normalen vSwitch (mit vmnic) vergleichst oder etwas anderes meinst.


Zurück zu „vSphere 5.5 / ESXi 5.5“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 10 Gäste