Hi
In meiner VM Win2003 32bit wird standardmässig ein "VMware Accelerated AMD PCNet Adapter" als NIC installiert.
- Wie kann ich 2 NICs in der VM im Team betreiben ?
- Hat jemand Erfahrung mit dem Datendurchsatz ?
- Höher oder gleich(bringt nix) oder niedriger ?
In meinem HOST habe ich 2 Broadcom NetXtreme und 2 Intel Pro 1000 PT - ich vermute durch verschiedene Tests, dass die Intel NICs performanter sind und auch Teaming besser verarbeiten.
- Kann ich in der VM auch die Intel E1000 Hardware emulieren, besonders dann wenn ich das Teaming verwende und dann die pNICs auch E1000 er sind, könnte ich mir vorstellen, dass dies performanter sein müsste. Die NIC Adapter Settings sind nämlich nicht besonders üppig. Auch die TCP Offload Parameter fehlen.
Michael
Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!
Netzwerk Performance Optimierung - Teaming
-
- Member
- Beiträge: 120
- Registriert: 28.02.2008, 15:30
- Wohnort: Linz
-
- Profi
- Beiträge: 778
- Registriert: 17.10.2007, 14:01
- Wohnort: Meppen
Schalte mich mal in der Diskussion ein. Habe selber mit Teaming wenig erfahrung und möchte in einer VM gerne ein Teaming machen.
Nun zu meinem Vorschlag!
Kann man nicht besser im Host ein Teaming der Netzwerkkarten machen die geteamten karten dann in VMWARE einbinden. So sollte Sie als eine von VMWARE erscheinen und es sollte kein Problem geben, ODER?
Wie gesagt das ist kein Lösungsvorschlag sondern ein vorschlag zur Realesierung.
Bitte um Feedback bei unserem Problem und o mein Gedankengang umsetzbar ist und wenn nicht wie sonst.
Danke
MfG
Nun zu meinem Vorschlag!
Kann man nicht besser im Host ein Teaming der Netzwerkkarten machen die geteamten karten dann in VMWARE einbinden. So sollte Sie als eine von VMWARE erscheinen und es sollte kein Problem geben, ODER?
Wie gesagt das ist kein Lösungsvorschlag sondern ein vorschlag zur Realesierung.
Bitte um Feedback bei unserem Problem und o mein Gedankengang umsetzbar ist und wenn nicht wie sonst.
Danke
MfG
Das lässt sich mit einem Editor festlegen. Ich finde Vim ganz gut.
Jedenfalls jede VM hat eine Datei die mit .vmx endet. Das ist die Config der Maschiene.
Der Paramter
ethernet0.virtualDev="e1000"
schaltet auf Intel e1000
und dieser
ethernet0.virtualDev="vmxnet"
setzt eine eigene Erfindung von VMware.
Letztere läuft meiner Meinung nach unter Linux performanter. Windows ka
Natürlcu den AMD Kram aus der Konfig entfernen
Jedenfalls jede VM hat eine Datei die mit .vmx endet. Das ist die Config der Maschiene.
Der Paramter
ethernet0.virtualDev="e1000"
schaltet auf Intel e1000
und dieser
ethernet0.virtualDev="vmxnet"
setzt eine eigene Erfindung von VMware.
Letztere läuft meiner Meinung nach unter Linux performanter. Windows ka
Natürlcu den AMD Kram aus der Konfig entfernen
-
- Member
- Beiträge: 120
- Registriert: 28.02.2008, 15:30
- Wohnort: Linz
Dein Vorschlag zielt lediglich auf die Verbindung in der physikalischen Netzwerk Welt. Das ist auch interessant.
Teaming am HOST habe ich bereits erfolgreich mit 2 x Broadcom netXtreme gemacht. Ich verwende einen WINHOST64. Dann könnte der WINHOST theoretisch schneller mit einem externen NAS oder einem anderen pServer kommunizieren
- wenn der pSwitch das Teaming ebenfalls beherrscht (zB bei 802.3ad muss der Switch mitspielen)
- wenn der pSwitch dadurch nicht sogar langsamer ist
- wenn der andere pServer oder pWorkstation oder pNAS ebenfalls ein performantes Teaming beherrscht - dieses Teaming könnte theoretisch sogar ein anderer Typ sein.
Lediglich war meine Erfahrung: An meinem Thecus NAS war mit 802.3ad oder Static Trunking der Datendurchsatz fast um die Hälfte kleiner als mit nur einem 1GbE Patch Kabel. Ob die Config am Switch oder am NAS nicht korrekt war oder einfach die geTEAMten NAS NICs die NAS CPU überlasten, weiss ich noch nicht. Jedenfalls der RX300 hat mit seinen geTEAMten NICs keine Performanceeinbusse gehabt.
Meine ursprüngliche Frage war vorerst einmal auf die virtuelle Welt gerichtet. Wenn ich von einer VM ein Shared Volume am WINHOST anspreche dann ist dies viel langsamer als wenn ich eine HDD in der VM als VMDK anspreche und nur die benachbarte HDD am WINHOST angesprochen wird.
Ebenso, wenn mein VM-DC ein Share freigibt und mein VM-TS muss auf dieses zugriefen, dann ist die Performance mies (ca 1/3 von dem Zugriff auf die eigene VMDK) - alles derzeit noch im VMserver v20ß gemessen.
Weil alle diese Shared Laufwerke über TCP und virtuelle NICs angesprochen werden, war mein Ansatz, doch einmal in der VM mind 2 NICs zu teamen. Eventuell auch 3 oder 4 NICs - und dan n beobachte ich mal die Durchsatzänderung und die CPU Belastung (durch das Teaming)
Ausserdem möchte ich dann gerne eine VM mit FreeNAS aufsetzen, um den restlichen Platz auf den Serverplatten einer sinnvollen Verwendung zuzuführen. Eine VM braucht ja nur max 10 GB für sein SYS VOL. Was mache ich mit den restlichen 134GB ? Klar eine VM mit geringem IO kann ich noch auf den gleichen Plattenstapel draufsetzen. Wenn der restliche Platz der 3 x RAID1 Platten (je ein RAID1 für HOST, VM-DC und VM-TS) durch ein FreeNAS als untergeordneter LowPerformance Plattenplatz genutzt wird wär das schon irgendwie elegant.
Und für all das brauche ich mal eine performante TCP Verbindung in der VM
- Nur erstens wie geht das Teaming in der VM ?
- und zweitens kann ich auch virtuelle Intel NICs dafür verwenden ? Ich denke die sind performanter mit Intel I/O AT auch später beim Wechsel auf ESX (danke minimike zu später Stunde
- wer kann einen günstigen managed pSwitch (8-16port) empfehlen, der Teaming in allen Varianten spielt und auch Statistiken bezüglich Jumbo Frames und dropped Packets übersichtlich mitschneidet und anzeigt.
Michael
Teaming am HOST habe ich bereits erfolgreich mit 2 x Broadcom netXtreme gemacht. Ich verwende einen WINHOST64. Dann könnte der WINHOST theoretisch schneller mit einem externen NAS oder einem anderen pServer kommunizieren
- wenn der pSwitch das Teaming ebenfalls beherrscht (zB bei 802.3ad muss der Switch mitspielen)
- wenn der pSwitch dadurch nicht sogar langsamer ist
- wenn der andere pServer oder pWorkstation oder pNAS ebenfalls ein performantes Teaming beherrscht - dieses Teaming könnte theoretisch sogar ein anderer Typ sein.
Lediglich war meine Erfahrung: An meinem Thecus NAS war mit 802.3ad oder Static Trunking der Datendurchsatz fast um die Hälfte kleiner als mit nur einem 1GbE Patch Kabel. Ob die Config am Switch oder am NAS nicht korrekt war oder einfach die geTEAMten NAS NICs die NAS CPU überlasten, weiss ich noch nicht. Jedenfalls der RX300 hat mit seinen geTEAMten NICs keine Performanceeinbusse gehabt.
Meine ursprüngliche Frage war vorerst einmal auf die virtuelle Welt gerichtet. Wenn ich von einer VM ein Shared Volume am WINHOST anspreche dann ist dies viel langsamer als wenn ich eine HDD in der VM als VMDK anspreche und nur die benachbarte HDD am WINHOST angesprochen wird.
Ebenso, wenn mein VM-DC ein Share freigibt und mein VM-TS muss auf dieses zugriefen, dann ist die Performance mies (ca 1/3 von dem Zugriff auf die eigene VMDK) - alles derzeit noch im VMserver v20ß gemessen.
Weil alle diese Shared Laufwerke über TCP und virtuelle NICs angesprochen werden, war mein Ansatz, doch einmal in der VM mind 2 NICs zu teamen. Eventuell auch 3 oder 4 NICs - und dan n beobachte ich mal die Durchsatzänderung und die CPU Belastung (durch das Teaming)
Ausserdem möchte ich dann gerne eine VM mit FreeNAS aufsetzen, um den restlichen Platz auf den Serverplatten einer sinnvollen Verwendung zuzuführen. Eine VM braucht ja nur max 10 GB für sein SYS VOL. Was mache ich mit den restlichen 134GB ? Klar eine VM mit geringem IO kann ich noch auf den gleichen Plattenstapel draufsetzen. Wenn der restliche Platz der 3 x RAID1 Platten (je ein RAID1 für HOST, VM-DC und VM-TS) durch ein FreeNAS als untergeordneter LowPerformance Plattenplatz genutzt wird wär das schon irgendwie elegant.
Und für all das brauche ich mal eine performante TCP Verbindung in der VM
- Nur erstens wie geht das Teaming in der VM ?
- und zweitens kann ich auch virtuelle Intel NICs dafür verwenden ? Ich denke die sind performanter mit Intel I/O AT auch später beim Wechsel auf ESX (danke minimike zu später Stunde

- wer kann einen günstigen managed pSwitch (8-16port) empfehlen, der Teaming in allen Varianten spielt und auch Statistiken bezüglich Jumbo Frames und dropped Packets übersichtlich mitschneidet und anzeigt.
Michael
-
- Profi
- Beiträge: 778
- Registriert: 17.10.2007, 14:01
- Wohnort: Meppen
minimike hat geschrieben:Das lässt sich mit einem Editor festlegen. Ich finde Vim ganz gut.
Jedenfalls jede VM hat eine Datei die mit .vmx endet. Das ist die Config der Maschiene.
Der Paramter
ethernet0.virtualDev="e1000"
schaltet auf Intel e1000
und dieser
ethernet0.virtualDev="vmxnet"
setzt eine eigene Erfindung von VMware.
Letztere läuft meiner Meinung nach unter Linux performanter. Windows ka
Natürlcu den AMD Kram aus der Konfig entfernen
Hallo!
Verstehe deine Antwort nicht so recht. Was bedeutet das für mich wenn ich die Intel raus nehme und die VMKarte einsetze zum Thema Teaming?
MfG
-
- Profi
- Beiträge: 778
- Registriert: 17.10.2007, 14:01
- Wohnort: Meppen
-
- Member
- Beiträge: 120
- Registriert: 28.02.2008, 15:30
- Wohnort: Linz
Ich kann also 2 Karten konfigurieren und diese auch mit der virtuellen E1000 Hardware laufen lassen:
ethernet0.present= "true"
ethernet0.startConnected = "true"
ethernet0.virtualDev = "e1000"
ethernet0.connectionType = "bridged"
ethernet1.present= "true"
ethernet1.startConnected = "true"
ethernet1.virtualDev = "e1000"
ethernet1.connectionType = "bridged"
Wie kann ich dann diese 2 zusammenschalten ?
Muss ich dafür Tools von Intel nehmen - oder gibt es da VMware vmx Befehle ?
Ich bin eher im Windows zuhause. Bei einer echten Broadcom NetXtreme oder einer Intel Pro 1000 PT wird mit der Treiberinstallation auch ein NIC Manager dazuinstalliert. Muss ich den in der VMware installieren ?
Ich bin allerdings eher in der Windows Welt zuhause.
Michael
ethernet0.present= "true"
ethernet0.startConnected = "true"
ethernet0.virtualDev = "e1000"
ethernet0.connectionType = "bridged"
ethernet1.present= "true"
ethernet1.startConnected = "true"
ethernet1.virtualDev = "e1000"
ethernet1.connectionType = "bridged"
Wie kann ich dann diese 2 zusammenschalten ?
Muss ich dafür Tools von Intel nehmen - oder gibt es da VMware vmx Befehle ?
Ich bin eher im Windows zuhause. Bei einer echten Broadcom NetXtreme oder einer Intel Pro 1000 PT wird mit der Treiberinstallation auch ein NIC Manager dazuinstalliert. Muss ich den in der VMware installieren ?
Ich bin allerdings eher in der Windows Welt zuhause.
Michael
Hier
http://en.wikipedia.org/wiki/Channel_bonding
http://wiki.koshatul.com/Setting_up_Cha ... _on_Debian
Wie man das unter Windoof macht ka, bin kein MS$ Admin....
http://en.wikipedia.org/wiki/Channel_bonding
http://wiki.koshatul.com/Setting_up_Cha ... _on_Debian
Wie man das unter Windoof macht ka, bin kein MS$ Admin....
-
- Member
- Beiträge: 120
- Registriert: 28.02.2008, 15:30
- Wohnort: Linz
Wir werden das erst beantworten können, wenn es einer probiert hat. Ich vermute halt nun, dass VMware nur die Hardware 2er oder mehrere E1000 NICs zur Verfügung stellt. Das OS im Guest muss dann mit entsprechender Treiber Software das Teaming bewerkstelligen. Also sollte ich einen aktuellen Intel Pro 1000 Treiber mitsamt der gleichen NIC Management Software installieren können wie auf einer physik. Maschine mit mehreren Intel pNICs.
In diesem Thread hab ich ja schon gelernt wie ich dem Guest eine E1000 vorgaukeln kann, auch wenn automatisch eine "vmxnet" mit AMD Hardware emuliert wird oder unter 64bit Windows sogar Broadcom NICs.
Leider konnte ich das vor den Osterfeiertagen nicht mehr testen. Aber nächste Woche werde ich Ergebnisse melden können.
Michael
In diesem Thread hab ich ja schon gelernt wie ich dem Guest eine E1000 vorgaukeln kann, auch wenn automatisch eine "vmxnet" mit AMD Hardware emuliert wird oder unter 64bit Windows sogar Broadcom NICs.
Leider konnte ich das vor den Osterfeiertagen nicht mehr testen. Aber nächste Woche werde ich Ergebnisse melden können.
Michael
Ich schalte mich hier mal ein:
ICh hab jetzt auch eine VM mit XP als Gast, Host ist sles10.
Ich kann die Jumbo-Frames im Gast aktivieren, ich bringe aber trotzdem nicht mehr als 1500 durch.
Kann es seind as VMWare-Server keine Jumbos kann?
an CLSsupport: Hat das bei dir geklappt mit dem TEAM und/oder den Jumbos?
Gruß
Kevin
ICh hab jetzt auch eine VM mit XP als Gast, Host ist sles10.
Ich kann die Jumbo-Frames im Gast aktivieren, ich bringe aber trotzdem nicht mehr als 1500 durch.
Kann es seind as VMWare-Server keine Jumbos kann?
an CLSsupport: Hat das bei dir geklappt mit dem TEAM und/oder den Jumbos?
Gruß
Kevin
Zurück zu „VMserver 1 und GSX“
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 4 Gäste