Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!
2xXEON 3,0GHz SingleCore vs. 2xXEON 1,6GHz Quadcore
-
- Member
- Beiträge: 120
- Registriert: 28.02.2008, 15:30
- Wohnort: Linz
2xXEON 3,0GHz SingleCore vs. 2xXEON 1,6GHz Quadcore
Guten Tag in diesem Forum
Was ist in virtuellen Umgebungen performanter ?
2xXEON 3,0GHz SingleCore macht zusammen 6GHz in 2 Cores oder 4 HTT Units Baujahr Q3.2006
vs
2xXEON 1,6GHz Quadcore macht zusammen 3,2GHz in 8 Cores Baujahr Q3.2007
HW 1 läuft bei einem Kunden und ist mit openSUSE 10.1 x32 und VMserver 1.03 saulangsam - auf 5GB RAM
HW2 habe ich hier als Testumgebung für VMware und teste gerade HOST: WIN2003R2x64SP2 und VMserver v20ß und mir kommt das ganze ebenfalls saulangsam vor.
Ganz abgesehen von dem Debugmodus in dem der VMserver v20ß noch läuft ? Also in dieser Variante könnte ich dem Kunden keine Alternativkonfiguration vorschlagen.
Ausserdem: Wenn ich 4 VMachines darauf starte und in jeder einen Task starte dann gehen nicht alle 8 CPU cores im Taskmanager des WINHOST64 in die Höhe sondern nur 2 !?!
Und ich dachte nur in dem Guest ist derzeit nur 2 Cores SMP möglich aber der VMserver selbst kann alle Cores gleichmässig ansteuern ?
Frage: Wieviele Cores des Hostsystems kann der VMserver mit tasks versorgen ?
Falls nur 2 dann muss das alte HW mit 6 GHz schneller sein können als das neue - zumindest unter VMserver.
Frage2: Wie schaut das aus unter ESX ?
Michael
Was ist in virtuellen Umgebungen performanter ?
2xXEON 3,0GHz SingleCore macht zusammen 6GHz in 2 Cores oder 4 HTT Units Baujahr Q3.2006
vs
2xXEON 1,6GHz Quadcore macht zusammen 3,2GHz in 8 Cores Baujahr Q3.2007
HW 1 läuft bei einem Kunden und ist mit openSUSE 10.1 x32 und VMserver 1.03 saulangsam - auf 5GB RAM
HW2 habe ich hier als Testumgebung für VMware und teste gerade HOST: WIN2003R2x64SP2 und VMserver v20ß und mir kommt das ganze ebenfalls saulangsam vor.
Ganz abgesehen von dem Debugmodus in dem der VMserver v20ß noch läuft ? Also in dieser Variante könnte ich dem Kunden keine Alternativkonfiguration vorschlagen.
Ausserdem: Wenn ich 4 VMachines darauf starte und in jeder einen Task starte dann gehen nicht alle 8 CPU cores im Taskmanager des WINHOST64 in die Höhe sondern nur 2 !?!
Und ich dachte nur in dem Guest ist derzeit nur 2 Cores SMP möglich aber der VMserver selbst kann alle Cores gleichmässig ansteuern ?
Frage: Wieviele Cores des Hostsystems kann der VMserver mit tasks versorgen ?
Falls nur 2 dann muss das alte HW mit 6 GHz schneller sein können als das neue - zumindest unter VMserver.
Frage2: Wie schaut das aus unter ESX ?
Michael
-
- Member
- Beiträge: 152
- Registriert: 27.02.2008, 15:10
Hallo,
wie definierst Du 'saulangsam'?
Welche Anwendungen laufen auf den VM?
Lt. unseren Erfahrungen ist die Performance weit mehr von dem Plattensystem abhängig als von den CPU-Cores.
Setzten übrigens auch den VM-Ware Server 2.0ß auf einem Quad-Core ein. Die Performace ist trotz Debug-Mode sehr gut. Allerdings laufen die VM's auch alle auf eigenen HD's.
wie definierst Du 'saulangsam'?
Welche Anwendungen laufen auf den VM?
Lt. unseren Erfahrungen ist die Performance weit mehr von dem Plattensystem abhängig als von den CPU-Cores.
Setzten übrigens auch den VM-Ware Server 2.0ß auf einem Quad-Core ein. Die Performace ist trotz Debug-Mode sehr gut. Allerdings laufen die VM's auch alle auf eigenen HD's.
-
- Member
- Beiträge: 120
- Registriert: 28.02.2008, 15:30
- Wohnort: Linz
Erstmal danke für deinen Respond
Ich definiere saulangsam als zu langsam um damit eine "Miniinstallation" mit einem DC32 und einem TS32 als VMs in produktiven Betrieb zu gehen.
Oder zu langsam um einem Kunden das System per TS Zugriff einmal zeigen zu können.
meine HW: FujSie RX300 S3 - HDD mit LSI MegaRAID 144GB 10k - derzeit testweise auf einer einzelnen HDD aber mit RAID-ReadWriteCacheEnabled schafft das System 75MB/sec bei 4k Blöcken (CrystalDiskMark v2.0) - das macht mir weniger Kopfzerbrechen als zB die CPU Lastverteilung ich möchte mal sehen dass die 4 VMachines alle 8 Kernels meines Hosts ordentlich auslasten.
Nebenbei stört mich auch noch der Datendurchsatz durch die virtuellen 1GbEthernet NICs - dort bekomme ich nur max 20MB/sec durch wenn ich auf die am WINHOST freigegebene Disk zugreifen will. Das ist nur die Hälfte der Performance die ich auf einer Phys.Windows Workstation erreiche.
Dabei geht dieser virtuelle Traffic gar nie über echte NICs und könnte somit wesentlich schneller sein mindestens aber sollte das dreifache möglich sein.
Ich habe gelesen dass in der ESX 3.5 offensichtlich die TCP Optimierungen wie Checksum Offload Large Segment Offload Interrupt Collection usw bzw andere Methoden implementiert sein sollen.
Oder mit einer virtuellen 10GbEthernet NIC ginge es auch eventuell ? Das sollte unbedingt in einer Server v2.0RC drinnen sein.
Hast du als HOST eine HW mit Quadcore oder Dual Quadcore wie ich ?
Dann würde mich interessieren, ob du es schaffen kannst alle Kernels auf 80% Last zu bringen ? Ich mache da meist irgendwelche Datenbankabfragen.
Michael
Ich definiere saulangsam als zu langsam um damit eine "Miniinstallation" mit einem DC32 und einem TS32 als VMs in produktiven Betrieb zu gehen.
Oder zu langsam um einem Kunden das System per TS Zugriff einmal zeigen zu können.
meine HW: FujSie RX300 S3 - HDD mit LSI MegaRAID 144GB 10k - derzeit testweise auf einer einzelnen HDD aber mit RAID-ReadWriteCacheEnabled schafft das System 75MB/sec bei 4k Blöcken (CrystalDiskMark v2.0) - das macht mir weniger Kopfzerbrechen als zB die CPU Lastverteilung ich möchte mal sehen dass die 4 VMachines alle 8 Kernels meines Hosts ordentlich auslasten.
Nebenbei stört mich auch noch der Datendurchsatz durch die virtuellen 1GbEthernet NICs - dort bekomme ich nur max 20MB/sec durch wenn ich auf die am WINHOST freigegebene Disk zugreifen will. Das ist nur die Hälfte der Performance die ich auf einer Phys.Windows Workstation erreiche.
Dabei geht dieser virtuelle Traffic gar nie über echte NICs und könnte somit wesentlich schneller sein mindestens aber sollte das dreifache möglich sein.
Ich habe gelesen dass in der ESX 3.5 offensichtlich die TCP Optimierungen wie Checksum Offload Large Segment Offload Interrupt Collection usw bzw andere Methoden implementiert sein sollen.
Oder mit einer virtuellen 10GbEthernet NIC ginge es auch eventuell ? Das sollte unbedingt in einer Server v2.0RC drinnen sein.
Hast du als HOST eine HW mit Quadcore oder Dual Quadcore wie ich ?
Dann würde mich interessieren, ob du es schaffen kannst alle Kernels auf 80% Last zu bringen ? Ich mache da meist irgendwelche Datenbankabfragen.
Michael
-
- Member
- Beiträge: 152
- Registriert: 27.02.2008, 15:10
Hallo Michael,
ich bin sicherlich nicht der Crack in Virtualisierung von Serverhardware, arbeite aber mitterweile seit mehreren Jahren mit Produkten von VM-Ware (hauptsächlich Workstation).
Nur, so wie Du an die Sache herangehst muss es mit der Performance in die Hose gehen!
>> Dann würde mich interessieren, ob du es schaffen kannst alle Kernels auf 80% Last zu bringen ? Ich mache da meist irgendwelche Datenbankabfragen.
Datenbankabfragen sind wohl kaum das probate Mittel um die Core's der VM auszulasten. Lt. meinen Erfahrungen belasten Datenbankabfragen immer auch extrem das Plattensystem. Wenn also 2 VM's und dann noch der Host auf das gleiche Plattensystem zugreifen kann die Performance nur noch den Bach herunter gehen.
Ich empfehle niemandem, der auf Performance aus ist, einen SQL-Server zu virtualisieren. Wenn man so etwas vor hat, sollte man sich schon extrem gut in der Materie auskennen (u.a. direkter Zugriff auf sie Platten des Host's, usw.).
Um die Core's einer VM auszulasten empfehle ich folgende einache Lösung: Den Windows-Taschenrecher im wissenschaftlichen Mode öffnen. 1000000000 eingeben und n! (Fakultät). Damit lastet Du den Core 100%ig aus!
Versuch Deiner VM mal nur 1 CPU zuzuweisen. Oftmals ist die Performance einer VM mit nur 1 CPU besser als mit einer Dual-CPU. Das Forum ist voll von solchen Erfahrungen/Berichten.
Bei unserem VM-Server handelt es sich um einen Intel Core Quad Q6600 mit 4 GB-Ram auf einem Abit AB-9Pro. Also nix mit Serverhardware. Die Plattensysteme sind S-ATA Raid-1 (Für Host und VM's). Wobei jede VM und der Host seine eigenen physikalischen Platten haben. Auf diesem System laufen normalerweise 3 VM's (W23KServer mit je 1 GB Speicher u. 1CPU). Die gefühlte Performance ist sehr gut! U.a. läuft auf als VM auch unser Terminalserver, den wir virtualisiert haben. Die Performance ist deutlich besser als zuvor mit dem alten PIII1Ghz.
Wie bereits geschrieben bin ich kein Crack in Sachen Virtualisierung. Ich kann Dir also nichts dzau sagen, welche Core's besser sind. Nur so wie Du Dein System aufgesetzt hast muss die Performance lausig sein!
ich bin sicherlich nicht der Crack in Virtualisierung von Serverhardware, arbeite aber mitterweile seit mehreren Jahren mit Produkten von VM-Ware (hauptsächlich Workstation).
Nur, so wie Du an die Sache herangehst muss es mit der Performance in die Hose gehen!
>> Dann würde mich interessieren, ob du es schaffen kannst alle Kernels auf 80% Last zu bringen ? Ich mache da meist irgendwelche Datenbankabfragen.
Datenbankabfragen sind wohl kaum das probate Mittel um die Core's der VM auszulasten. Lt. meinen Erfahrungen belasten Datenbankabfragen immer auch extrem das Plattensystem. Wenn also 2 VM's und dann noch der Host auf das gleiche Plattensystem zugreifen kann die Performance nur noch den Bach herunter gehen.
Ich empfehle niemandem, der auf Performance aus ist, einen SQL-Server zu virtualisieren. Wenn man so etwas vor hat, sollte man sich schon extrem gut in der Materie auskennen (u.a. direkter Zugriff auf sie Platten des Host's, usw.).
Um die Core's einer VM auszulasten empfehle ich folgende einache Lösung: Den Windows-Taschenrecher im wissenschaftlichen Mode öffnen. 1000000000 eingeben und n! (Fakultät). Damit lastet Du den Core 100%ig aus!
Versuch Deiner VM mal nur 1 CPU zuzuweisen. Oftmals ist die Performance einer VM mit nur 1 CPU besser als mit einer Dual-CPU. Das Forum ist voll von solchen Erfahrungen/Berichten.
Bei unserem VM-Server handelt es sich um einen Intel Core Quad Q6600 mit 4 GB-Ram auf einem Abit AB-9Pro. Also nix mit Serverhardware. Die Plattensysteme sind S-ATA Raid-1 (Für Host und VM's). Wobei jede VM und der Host seine eigenen physikalischen Platten haben. Auf diesem System laufen normalerweise 3 VM's (W23KServer mit je 1 GB Speicher u. 1CPU). Die gefühlte Performance ist sehr gut! U.a. läuft auf als VM auch unser Terminalserver, den wir virtualisiert haben. Die Performance ist deutlich besser als zuvor mit dem alten PIII1Ghz.
Wie bereits geschrieben bin ich kein Crack in Sachen Virtualisierung. Ich kann Dir also nichts dzau sagen, welche Core's besser sind. Nur so wie Du Dein System aufgesetzt hast muss die Performance lausig sein!
-
- Member
- Beiträge: 120
- Registriert: 28.02.2008, 15:30
- Wohnort: Linz
Gibt es noch andere VMserver user die Erfahrungen zur Ausgangsfrage haben ?
Hat es Sinn einen Dual XEON 3,0 GHz mit 5GB RAM der derzeit mit VMserver 1.04 und darunter openSUSE 10.1 x32 läuft - der derzeit quälend langsam dahinwurstelt aufzurüsten mit weiteren 5GB ?
Als Alternativsystem würde ein Dual QuadCore 1,6GHz mit 10GB zur Verfügung stehen, den ich gerade unter Win2003R2x64 und VMserver20ß teste.
Wären die 2 Systeme vergleichbar oder hat jemand die Erfahrung, dass ein Quadcore auch mit weniger GHz von dem VMserver immer besser genutzt werden kann als ein SingleCore ?
Derzeit ist meine Einschätzung diese:
Ich hoffe dass dann unter ESX wenigstens mal die VMs alle 8 Kernels unter Volllast setzen können.
Kann mir jemand sagen welche Kosten für ESX Foundation entstehen ? ca 1000€ für die Lizenz und ist dann die Maintenance verpflichtend und wie hoch ? ca pro Jahr
Ich bin für jeden Input dankbar
Michael
Hat es Sinn einen Dual XEON 3,0 GHz mit 5GB RAM der derzeit mit VMserver 1.04 und darunter openSUSE 10.1 x32 läuft - der derzeit quälend langsam dahinwurstelt aufzurüsten mit weiteren 5GB ?
Als Alternativsystem würde ein Dual QuadCore 1,6GHz mit 10GB zur Verfügung stehen, den ich gerade unter Win2003R2x64 und VMserver20ß teste.
Wären die 2 Systeme vergleichbar oder hat jemand die Erfahrung, dass ein Quadcore auch mit weniger GHz von dem VMserver immer besser genutzt werden kann als ein SingleCore ?
Derzeit ist meine Einschätzung diese:
- Das openSUSE 10.1 x32 ist irgendwo nicht richtig konfiguriert und verwaltet nicht einmal die 5GB korrekt.
Die CPU Last in der VMware Server Console geht nie über 50% ? Also geben beide VMs ihre CPU Last an nur eine physikalische CPU durch ? Wo kann man das korrigieren ?
Könnte es stimmen, dass meine neueren Tests zeigen, dass die CPU Last der VMs unter VMserver 2.0ß auf der Dual Quadcore Maschine auch nur auf 2 Kernels durchgereicht wird ?
Wie kann ich es erreichen dass die VM#1 die CPUkernels 3+4 nutzt und die VM#2 die CPUkernels 5+6 und eine VM#3 dann eben die Kernels 7+8 ?
Die automatische Lastverteilung scheint weder am Kundenserver unter SUSEx32 noch am Testserver unter WINx64 zu funktionieren.
10GB braucht einfach einen x64 Host - möglicherweise würde das auch schon bei 5GB notwendig sein (oder genügen da noch die Memory Extensions)
Ich hoffe dass dann unter ESX wenigstens mal die VMs alle 8 Kernels unter Volllast setzen können.
Kann mir jemand sagen welche Kosten für ESX Foundation entstehen ? ca 1000€ für die Lizenz und ist dann die Maintenance verpflichtend und wie hoch ? ca pro Jahr
Ich bin für jeden Input dankbar
Michael
-
- Member
- Beiträge: 120
- Registriert: 28.02.2008, 15:30
- Wohnort: Linz
Vielen Dank Monster
Während du geantwortet hast habe ich auch gerade geschrieben.
Ich mache sofort einmal den reinen CPU Test - eventuell auch mit ein paar anderen Benchmark Tools - die gibts ja eh wie Sand am Meer.
Sorry ich wollte eigentlich mit dem Datenbanktest nur rüberbringen, dass ich nicht wirklich nur an optimalen Performance Messdaten interessiert bin sondern an guter Performance unter realistischer Last der genutzten Programme.
ich hab 6x SAS 10k 144GB HDDs am LSI RAID mit BatteryBackedWriteCache und schaffe auf einer dieser Disks ca 60MB/sec ohne Cache und 700MB/sec mit eingeschaltetem cache. Für kleine Datenmengen von 50-100MB schafft der Controllercache auch schon von einer Platte die 700MB/sec zu schaufeln, genauso schnell wie wenn ich 2HDDs in RAID1 oder 3 HDDs in RAID5 gekoppelt habe.
Im Endeffekt denke ich an 4 HDDs in RAID10 oder 6 HDDs in RAID50 oder meinst du die Aufteilung sollte lieber 3 x RAID1 mit jeweils 2 HDDs sein ?
Es gibt auch 2 externe NAS Kisten mit einigen 100 GB für Backup und Installationszwecke. Aber dorthin schaffe ich nur ca 30-40MB/sec Read/Write Performance was aber vergleichbar ist mit den Werten den eine VM von der eigenen VMDK lesen und schreiben kann.
Das endgültige System wird dann auch alle 6 HDDs nutzen können nur teste ich derzeit eben verschiedene HOSTsysteme auf einzelnen HDDs - aber ich bin für alles offen und werde kann ruhig die 2te VM auf eine 2te HDD legen
ich nenne sie WINHOST64 mit VMserver20ß - dann openSUSE10.3x64 auch mit VMserver20ß - und nun ESX35
und beim Kunden läuft openSUSE10.1x32 (auf 5GB)
Frage: Der WINHOST64 liegt aber immer genauso wie ein LINUXHOST auf der selben HDD wie die VMs - wieso soll ich für eine 4-10GB VMDK Systemplatte der einzelnen VM eine ganze 144GB HDD opfern ? Den Plattenplatz kann ich doch nicht wieder aus der VM freigeben zB damit die 2te VM mit dem TS dann darauf zugreifen kann. Deshalb würde ich die Daten ja auch lieber
Nochmals - danke für die bisherigen Inputs
Michael
Während du geantwortet hast habe ich auch gerade geschrieben.
Ich mache sofort einmal den reinen CPU Test - eventuell auch mit ein paar anderen Benchmark Tools - die gibts ja eh wie Sand am Meer.
Sorry ich wollte eigentlich mit dem Datenbanktest nur rüberbringen, dass ich nicht wirklich nur an optimalen Performance Messdaten interessiert bin sondern an guter Performance unter realistischer Last der genutzten Programme.
ich hab 6x SAS 10k 144GB HDDs am LSI RAID mit BatteryBackedWriteCache und schaffe auf einer dieser Disks ca 60MB/sec ohne Cache und 700MB/sec mit eingeschaltetem cache. Für kleine Datenmengen von 50-100MB schafft der Controllercache auch schon von einer Platte die 700MB/sec zu schaufeln, genauso schnell wie wenn ich 2HDDs in RAID1 oder 3 HDDs in RAID5 gekoppelt habe.
Im Endeffekt denke ich an 4 HDDs in RAID10 oder 6 HDDs in RAID50 oder meinst du die Aufteilung sollte lieber 3 x RAID1 mit jeweils 2 HDDs sein ?
Es gibt auch 2 externe NAS Kisten mit einigen 100 GB für Backup und Installationszwecke. Aber dorthin schaffe ich nur ca 30-40MB/sec Read/Write Performance was aber vergleichbar ist mit den Werten den eine VM von der eigenen VMDK lesen und schreiben kann.
Das endgültige System wird dann auch alle 6 HDDs nutzen können nur teste ich derzeit eben verschiedene HOSTsysteme auf einzelnen HDDs - aber ich bin für alles offen und werde kann ruhig die 2te VM auf eine 2te HDD legen
ich nenne sie WINHOST64 mit VMserver20ß - dann openSUSE10.3x64 auch mit VMserver20ß - und nun ESX35
und beim Kunden läuft openSUSE10.1x32 (auf 5GB)
Frage: Der WINHOST64 liegt aber immer genauso wie ein LINUXHOST auf der selben HDD wie die VMs - wieso soll ich für eine 4-10GB VMDK Systemplatte der einzelnen VM eine ganze 144GB HDD opfern ? Den Plattenplatz kann ich doch nicht wieder aus der VM freigeben zB damit die 2te VM mit dem TS dann darauf zugreifen kann. Deshalb würde ich die Daten ja auch lieber
Nochmals - danke für die bisherigen Inputs
Michael
Hallo
mal kurz meine erfahrungen.
1. wichtig beim umgang mit VM... HD
2. ram
3. cpu
das einzige, was ich bei deiner fragen sagen kann
anzahl vcpu und cpu sollte nicht zu gross sein.
du schreibst nur was von 4 vm, aber nichts davon, wieviele vcpu die maschienen haben und auch nichts, ob alle vom selben raid laufen und auch nicht genau was für disk es sind.
wenn du performance willst, bzw. auch die cpu zu belasten testen willst, gibts nur eins jeder VM kriegt sein eigene disk/raid, den sonst kriegst du eh keine max performance zusammen und das am besten auf sas disks
wegen deiner frage zu 2x3gh oder 2xquad 1.6 ghz kann ich nur sagen
wenn 2 vm's mit je 1 vcpu darauf laufen, wird die 3ghz maschine schneller sein
falls du allerdings 8vcpu drauf laufen lassen willst, also zb 8x1cpu vmachine oder 4x2cpu vmachine, wird die maschine mit den 2 quad core performanter sein.
gruss
James
mal kurz meine erfahrungen.
1. wichtig beim umgang mit VM... HD
2. ram
3. cpu
das einzige, was ich bei deiner fragen sagen kann
anzahl vcpu und cpu sollte nicht zu gross sein.
du schreibst nur was von 4 vm, aber nichts davon, wieviele vcpu die maschienen haben und auch nichts, ob alle vom selben raid laufen und auch nicht genau was für disk es sind.
wenn du performance willst, bzw. auch die cpu zu belasten testen willst, gibts nur eins jeder VM kriegt sein eigene disk/raid, den sonst kriegst du eh keine max performance zusammen und das am besten auf sas disks

wegen deiner frage zu 2x3gh oder 2xquad 1.6 ghz kann ich nur sagen
wenn 2 vm's mit je 1 vcpu darauf laufen, wird die 3ghz maschine schneller sein
falls du allerdings 8vcpu drauf laufen lassen willst, also zb 8x1cpu vmachine oder 4x2cpu vmachine, wird die maschine mit den 2 quad core performanter sein.
gruss
James
-
- Member
- Beiträge: 120
- Registriert: 28.02.2008, 15:30
- Wohnort: Linz
Super Info James
beim Kunden müssen 2 VMs laufen ein DC und ein TS - der TS ist derzeit viel zu langsam.
Jeder sagt mir bitte gib jeder VM nur eine vCPU der Host hat ja auch nur die 2 physCPUs
Beim Kunden läuft nur ein RAID1 mit 2x 10k SAS 74GB HDDs (HP ML3xx)
Vielleicht raffe ich mich auf und teste das Kundensystem unter openSUSE10.1x32 und VMserver103 auf meinem Testsystem mit 3 einzelnen SAS HDDs eine für den Host und je eine für die VMs
Ich glaub das Wochenende ist verplant
Michael

beim Kunden müssen 2 VMs laufen ein DC und ein TS - der TS ist derzeit viel zu langsam.
Jeder sagt mir bitte gib jeder VM nur eine vCPU der Host hat ja auch nur die 2 physCPUs
Beim Kunden läuft nur ein RAID1 mit 2x 10k SAS 74GB HDDs (HP ML3xx)
Vielleicht raffe ich mich auf und teste das Kundensystem unter openSUSE10.1x32 und VMserver103 auf meinem Testsystem mit 3 einzelnen SAS HDDs eine für den Host und je eine für die VMs
Ich glaub das Wochenende ist verplant

Michael
-
- Member
- Beiträge: 152
- Registriert: 27.02.2008, 15:10
Hallo Manfred,
bei der Plattenaufteilung beim Kunden ist es auch kein Wunder, dass die Performance so grausig ist.
IMHO ist es aus Performancegründen unbedingt erforderlich die einzelnen VM's und den Host auf unabhängigen Plattensystemen zu betreiben. Häng doch einfach mal ne USB-Platte an Deinen VM-Server und starte eine VM von dieser Platte (natürlich nur zum Testen!). Ich denke, dann wirst Du schon eine deutliuche Performance-Steigerung feststellen. Solche Konstellationen betreiben wir mit VMWare-Workstation schon seit Jahren (Entwicklungsumgebungen für Kunden). Zwar hat die USB-Platte mit nur rund 20-25 Mbyte Transferrate zwar nur 50% der Leistung einer internen S-ATA Platte. Trotzdem läuft das ganze System deutlich flüssiger. Immerhin stehen diese 20-25 Mbyte Transferrate exklusiv für die VM zu Verfügung.
Lt. unseren Erfahrungen mit VMWare-Workstation ist ein Vernünftiges arbeiten mit mit 2 VM's paralell auf einer physikalischen Platte nahezu unmöglich.
bei der Plattenaufteilung beim Kunden ist es auch kein Wunder, dass die Performance so grausig ist.
IMHO ist es aus Performancegründen unbedingt erforderlich die einzelnen VM's und den Host auf unabhängigen Plattensystemen zu betreiben. Häng doch einfach mal ne USB-Platte an Deinen VM-Server und starte eine VM von dieser Platte (natürlich nur zum Testen!). Ich denke, dann wirst Du schon eine deutliuche Performance-Steigerung feststellen. Solche Konstellationen betreiben wir mit VMWare-Workstation schon seit Jahren (Entwicklungsumgebungen für Kunden). Zwar hat die USB-Platte mit nur rund 20-25 Mbyte Transferrate zwar nur 50% der Leistung einer internen S-ATA Platte. Trotzdem läuft das ganze System deutlich flüssiger. Immerhin stehen diese 20-25 Mbyte Transferrate exklusiv für die VM zu Verfügung.
Lt. unseren Erfahrungen mit VMWare-Workstation ist ein Vernünftiges arbeiten mit mit 2 VM's paralell auf einer physikalischen Platte nahezu unmöglich.
-
- Member
- Beiträge: 120
- Registriert: 28.02.2008, 15:30
- Wohnort: Linz
Ich lese in der VMserver beta FAQ:
Heisst das dass VMserver v2.0ß am HOST nur two virtual SMPs unterstützt ?
Dass bei VMserver in einer VM nur 2 vcpu unterstützt werden ist mir klar - und bei ESX 3.5 müssten das max 4 vcpus sein ?
Ersteres würde nämlich genau mit meinem Testergebnis übereinstimmen. Alle CPU Last die ich in VMs erzeuge wird am HOST nur auf 2 CPU Kernels verteilt ?
Oder darf ich noch hoffen ?
Michael
More scalable: Support for up to 8 GB of RAM per virtual machine up from 3.6 GB in Server 1.0, up to two virtual SMP (vSMP) processors and up to 64 virtual machines per host.
Heisst das dass VMserver v2.0ß am HOST nur two virtual SMPs unterstützt ?
Dass bei VMserver in einer VM nur 2 vcpu unterstützt werden ist mir klar - und bei ESX 3.5 müssten das max 4 vcpus sein ?
Ersteres würde nämlich genau mit meinem Testergebnis übereinstimmen. Alle CPU Last die ich in VMs erzeuge wird am HOST nur auf 2 CPU Kernels verteilt ?
Oder darf ich noch hoffen ?
Michael
- Tschoergez
- Moderator
- Beiträge: 3476
- Registriert: 23.02.2005, 09:14
- Wohnort: Burgberg im Allgäu
- Kontaktdaten:
achtet beim rumspielen mit den vCPUs auch auf den richtigen HAL in der VM! sonst gibts negative performanceauswirkungen
brauchst Du viele kleine VMs (dann die quadcore-CPUs), oder wenige leistungsfähige VMs (dann die dualcores)?
und immer drauf achten, dass die Anzahl an vCPUs, die man einer VM maximal zuweist, kleiner ist als die anzahl der physikalischen Cores, ansonsten bremst diese eine VM die komplette Umgebung.
Beim ESX kann man einer VM max. 4 vCPUs zuweisen, macht aber nur selten Sinn.
Gerade beim TS ist der scale-out anstatt scale-up-Gedanke besser, dh. 2 1-vCPU-VMs mit TS sind meist besser als ein 2vCPU-TS-VM
Der vmware server verteilt die einzelnen vCPUs dann über alle physikalischen Cores (sofern die vom Host-OS unterstützt werden).
Viele Grüße,
Jörg

brauchst Du viele kleine VMs (dann die quadcore-CPUs), oder wenige leistungsfähige VMs (dann die dualcores)?
und immer drauf achten, dass die Anzahl an vCPUs, die man einer VM maximal zuweist, kleiner ist als die anzahl der physikalischen Cores, ansonsten bremst diese eine VM die komplette Umgebung.
Beim ESX kann man einer VM max. 4 vCPUs zuweisen, macht aber nur selten Sinn.
Gerade beim TS ist der scale-out anstatt scale-up-Gedanke besser, dh. 2 1-vCPU-VMs mit TS sind meist besser als ein 2vCPU-TS-VM
Der vmware server verteilt die einzelnen vCPUs dann über alle physikalischen Cores (sofern die vom Host-OS unterstützt werden).
Viele Grüße,
Jörg
-
- Member
- Beiträge: 120
- Registriert: 28.02.2008, 15:30
- Wohnort: Linz
Danke Monster
Die CPU Auslastung habe ich nun in ordentliche Höhen gepusht und damit bewiesen, dass meine beiden Testserver, sowohl der DC32 als auch der TS64 mit 2vcpus umgehen können. Meine XP-VM hat nur eine vcpu.
Bei allen 3 habe ich einen Calculator Stresstest gemacht, wie du es vorgeschlagen hast. Die Taskmanager in den VMs haben erst 60% Auslastung gezeigt, und die einzelnen Server haben auf Mausclicks auch noch ansprechend rasch reagiert also hab ich noch zusätzlich Last draufgepackt.
Am Taskmanager am WINHOST64 haben dann auch wirklich die CPU Kernels ordentlich ausgeschlagen und zwar deutlich mehr als 2 Kernels - q.e.d. Die Last von 5 vcpus verteilt sich ordentlich auf alle Kernels des Quadcore und bleibt nicht auf 2 cores hängen.
Das befürchtete Szenario ist also ausgeblieben.
Aber es hat sich gezeigt, dass die Processors Anzeige im WebAccess nicht korrekt war. Man sieht dass nur 2 x Intel XEON CPUs E5310 @1,6GHz angezeigt werden und auch die Rasterung, das sind immer 10 Felder zu je 10%, geht nur bis 3,2 GHz.
Die Vollauslastung von 5 vcpus entspricht 5x1,6GHz plus einiges für den WINHOST ergibt ca 5,5 x 1,6 GHz und das sind dann 8,8 GHz die der blaue Balken im Web Access dann tatsächlich auch anzeigt, der jann mehr als das 2,5 fache über die 3,2 GHz hinausragt. Da hat also das VMware Web Access dann doch die richtigen Auslastungswerte der einzelnen laufenden VMs korrekt addiert.
Also habe ich auf einem Dual CPU QuadCore E5310 @1.6GHz eben 8 x 1.6GHz also 12,8 GHz CPU Leistung zur Verteilung auf die einzelnen VMs zur Verfügung.
Also bin ich dann doch doppelt so gut, als wenn ich die 6,0 GHz der 2 x Single Core CPUS einsetze der 2 Jahre alten Maschine.
Das erste Attachment zeigt quasi den Idle Status des WINHOST, wenn sich in den laufenden VMs nicht wirklich was abspielt. Das Grundrauschen von HOST und Idle VMs verbraucht max 1,5 Kernels oder 18% der CPU Leistung oder 2000 MHz CPU Takte.
(Man beachte die kurzfristige Anzeige von IOother Datendurchsatz von 100GB, wo VMware offensichtlich Memory Management betreibt)
Das zweite Attachment zeigt die simulierte Volllast mit 8,8GHz oder 67% CPU Auslastung am WINHOST.
Als LINUX Newbe liebe ich immer noch die Möglichkeiten, mir rasch Zusammenhänge verdeutlichen zu können. Soll ja im LINUX auch irgendwie gehen. Aber unter ESX brauch ma im LINUX Loader OS erst gar nicht anfangen.
Gibts da irgendwelche andere Meinungen ?
Michael
PS: Mein nächster Test wird sich mit den Auswirkungen der Positionierung der VMDKs auf unterschiedliche Platten beschäftigen.
Und dann kommt der Test für einen WINTS64 mit 4vcpus und einmal 6 GB dedicated RAM unter einer ESX v35
Beziehungsweise mit dem Teaming von 4 vNICS mit 1GbEthernet in einer VM um einen ordentlichen Datendurchsatz zu einem NAS zu erhalten.
Die CPU Auslastung habe ich nun in ordentliche Höhen gepusht und damit bewiesen, dass meine beiden Testserver, sowohl der DC32 als auch der TS64 mit 2vcpus umgehen können. Meine XP-VM hat nur eine vcpu.
Bei allen 3 habe ich einen Calculator Stresstest gemacht, wie du es vorgeschlagen hast. Die Taskmanager in den VMs haben erst 60% Auslastung gezeigt, und die einzelnen Server haben auf Mausclicks auch noch ansprechend rasch reagiert also hab ich noch zusätzlich Last draufgepackt.
Am Taskmanager am WINHOST64 haben dann auch wirklich die CPU Kernels ordentlich ausgeschlagen und zwar deutlich mehr als 2 Kernels - q.e.d. Die Last von 5 vcpus verteilt sich ordentlich auf alle Kernels des Quadcore und bleibt nicht auf 2 cores hängen.
Das befürchtete Szenario ist also ausgeblieben.
Aber es hat sich gezeigt, dass die Processors Anzeige im WebAccess nicht korrekt war. Man sieht dass nur 2 x Intel XEON CPUs E5310 @1,6GHz angezeigt werden und auch die Rasterung, das sind immer 10 Felder zu je 10%, geht nur bis 3,2 GHz.
Die Vollauslastung von 5 vcpus entspricht 5x1,6GHz plus einiges für den WINHOST ergibt ca 5,5 x 1,6 GHz und das sind dann 8,8 GHz die der blaue Balken im Web Access dann tatsächlich auch anzeigt, der jann mehr als das 2,5 fache über die 3,2 GHz hinausragt. Da hat also das VMware Web Access dann doch die richtigen Auslastungswerte der einzelnen laufenden VMs korrekt addiert.
Also habe ich auf einem Dual CPU QuadCore E5310 @1.6GHz eben 8 x 1.6GHz also 12,8 GHz CPU Leistung zur Verteilung auf die einzelnen VMs zur Verfügung.
Also bin ich dann doch doppelt so gut, als wenn ich die 6,0 GHz der 2 x Single Core CPUS einsetze der 2 Jahre alten Maschine.
Das erste Attachment zeigt quasi den Idle Status des WINHOST, wenn sich in den laufenden VMs nicht wirklich was abspielt. Das Grundrauschen von HOST und Idle VMs verbraucht max 1,5 Kernels oder 18% der CPU Leistung oder 2000 MHz CPU Takte.
(Man beachte die kurzfristige Anzeige von IOother Datendurchsatz von 100GB, wo VMware offensichtlich Memory Management betreibt)
Das zweite Attachment zeigt die simulierte Volllast mit 8,8GHz oder 67% CPU Auslastung am WINHOST.
Als LINUX Newbe liebe ich immer noch die Möglichkeiten, mir rasch Zusammenhänge verdeutlichen zu können. Soll ja im LINUX auch irgendwie gehen. Aber unter ESX brauch ma im LINUX Loader OS erst gar nicht anfangen.
Gibts da irgendwelche andere Meinungen ?
Michael
PS: Mein nächster Test wird sich mit den Auswirkungen der Positionierung der VMDKs auf unterschiedliche Platten beschäftigen.
Und dann kommt der Test für einen WINTS64 mit 4vcpus und einmal 6 GB dedicated RAM unter einer ESX v35
Beziehungsweise mit dem Teaming von 4 vNICS mit 1GbEthernet in einer VM um einen ordentlichen Datendurchsatz zu einem NAS zu erhalten.
- Dateianhänge
-
- WINHOST64.jpg (89.93 KiB) 1774 mal betrachtet
-
- IdleStatus des WINHOST.jpg (93.9 KiB) 1770 mal betrachtet
-
- Member
- Beiträge: 120
- Registriert: 28.02.2008, 15:30
- Wohnort: Linz
Ein Tuning Ergebnis:
Das Pagefile Beschränken im WINHOST ist kontraproduktiv.
Da bisher max 50% meiner 10GB RAM ausgenutzt waren, habe ich mal das Pagefile auf 2048/2048 begrenzt.
Allerdings gleichzeitig mit den verschiedenen Einträgen in der config.ini, damit das Gastmem ebenfalls von VMserver nicht gepaged wird.
Nun habe ich 32%RAM Auslastung und 90% Nutzung meines kleinen Pagefiles jedoch auch 78% Auslastung des virt.Mem (Gemessn mit TaskInfo von IARSN) Und Meldungen über zu kleinen virtuellen Speicher. Ich drehe nun das Pagefile wieder wesentlich höher und zwar auf mind 10GB so wie das physik.RAM - offensichtlch will Billyboy's Windows für jedes genutztes RAM Byte gleichzeitig eine Reservierung im Pagefile machen, obwohl die vielen freien Plätze im Swapfile sowieso nie benötigt werden. Na soll er halt.
By the way - habe ich hier im Screenshot meinen 2ten Minor BUG in VMware Infrastructure Web Access des VMserver 2.0ß dokumentiert - es müssten 8 x 1,6 GHz angezeigt werden und nicht 2 x. In Summe sind 12,8 GHz oder 12.800 MHz zurVergabe an die VMs bereit. Der Balken dürfte bei 2550 MHz also erst 2 Segmente also 20% anzeigen, oder sogar weniger - jedoch ist das Web Access doch noch sehr träge ...
Michael
Das Pagefile Beschränken im WINHOST ist kontraproduktiv.
Da bisher max 50% meiner 10GB RAM ausgenutzt waren, habe ich mal das Pagefile auf 2048/2048 begrenzt.
Allerdings gleichzeitig mit den verschiedenen Einträgen in der config.ini, damit das Gastmem ebenfalls von VMserver nicht gepaged wird.
Nun habe ich 32%RAM Auslastung und 90% Nutzung meines kleinen Pagefiles jedoch auch 78% Auslastung des virt.Mem (Gemessn mit TaskInfo von IARSN) Und Meldungen über zu kleinen virtuellen Speicher. Ich drehe nun das Pagefile wieder wesentlich höher und zwar auf mind 10GB so wie das physik.RAM - offensichtlch will Billyboy's Windows für jedes genutztes RAM Byte gleichzeitig eine Reservierung im Pagefile machen, obwohl die vielen freien Plätze im Swapfile sowieso nie benötigt werden. Na soll er halt.
By the way - habe ich hier im Screenshot meinen 2ten Minor BUG in VMware Infrastructure Web Access des VMserver 2.0ß dokumentiert - es müssten 8 x 1,6 GHz angezeigt werden und nicht 2 x. In Summe sind 12,8 GHz oder 12.800 MHz zurVergabe an die VMs bereit. Der Balken dürfte bei 2550 MHz also erst 2 Segmente also 20% anzeigen, oder sogar weniger - jedoch ist das Web Access doch noch sehr träge ...
Michael
- Dateianhänge
-
- 3'2GB 32%RAMused 78%VirtUsed 90%SwapUsed.jpg (41.38 KiB) 1774 mal betrachtet
-
- Member
- Beiträge: 120
- Registriert: 28.02.2008, 15:30
- Wohnort: Linz
Hyperthreading bei Singecore CPUs
Also auf dem Kundenserver mit 2x3GHz Singlecore und 2 laufenden VMs war und ist Hyperthreading eingeschaltet und beide VMs haben vcpus = "2"
eingestellt.
Jetzt gibts dazu ja unterschiedliche Meinungen, ob man das HT bei Singlecore CPUs unter verschiedenen Bedingungen einschalten soll oder nicht.
Ich habe da nun eine mögliche Erklärung für mögliche schlechtere Performance:
Wenn HT eingeschaltet ist und nach dem reboot des hosts werden die 2 VMs gestartet, dann setzt sich der erste vmware-vmx Prozess für die erste VM auf diejenigen "cores" die gerade die geringere Last haben. Bei HT CPUs laufen aber core 0 und 1 bzw 2 und 3 immer synchron.
Daher wird der vmware-vmx Prozess mit an Sicherheit grenzender Wahrscheinlichkeit genau die 2 command-queues von einer einzigen pCPU belegen. Was zur Folge hat, dass der Prozess auf einer CPU sitzt und noch den 2way SMB Verwaltungsoverhead in der VM und im HOST verursacht und damit langsamer läuft als wenn die VM nur vcpu = "1" eingestellt hätte. Ich schätze er hat dann max 2 GHz effektiv bei vcpu=2 und hätte aber 3 GHz bei vcpu=1
Wenn aber die Parameter
processor0.use="false" und processor2.use="false" beim VM-TS und
processor1.use="false" und processor3.use="false" beim VM-DC in der vmx.ini gesetzt werden, dann ist genau dieser Effekt verhindert und ein CPU hungriger VM-Terminalserver bekommt dann tatsächlich 2 Command-Queues von 2 pCPUs zugeordnet - mit den vollen 6 GHz !
Duch die eingeschaltete HT Technologie kann aber auch der Host und die 2te VM (hier nur ein "dummer" DC) seine Befehle in eine leere Command-queue stellen und wird performanter bedient als wenn HT abgeschaltet ist.
Man kann noch diskutieren, ob man dem DC nur vcpu=1 geben soll.
Soviel zur Theorie. Wer kann einen Praxistest dazu liefern ? Den Kundenserver hab ich leider nicht zum Testen
Michael
eingestellt.
Jetzt gibts dazu ja unterschiedliche Meinungen, ob man das HT bei Singlecore CPUs unter verschiedenen Bedingungen einschalten soll oder nicht.
Ich habe da nun eine mögliche Erklärung für mögliche schlechtere Performance:
Wenn HT eingeschaltet ist und nach dem reboot des hosts werden die 2 VMs gestartet, dann setzt sich der erste vmware-vmx Prozess für die erste VM auf diejenigen "cores" die gerade die geringere Last haben. Bei HT CPUs laufen aber core 0 und 1 bzw 2 und 3 immer synchron.
Daher wird der vmware-vmx Prozess mit an Sicherheit grenzender Wahrscheinlichkeit genau die 2 command-queues von einer einzigen pCPU belegen. Was zur Folge hat, dass der Prozess auf einer CPU sitzt und noch den 2way SMB Verwaltungsoverhead in der VM und im HOST verursacht und damit langsamer läuft als wenn die VM nur vcpu = "1" eingestellt hätte. Ich schätze er hat dann max 2 GHz effektiv bei vcpu=2 und hätte aber 3 GHz bei vcpu=1
Wenn aber die Parameter
processor0.use="false" und processor2.use="false" beim VM-TS und
processor1.use="false" und processor3.use="false" beim VM-DC in der vmx.ini gesetzt werden, dann ist genau dieser Effekt verhindert und ein CPU hungriger VM-Terminalserver bekommt dann tatsächlich 2 Command-Queues von 2 pCPUs zugeordnet - mit den vollen 6 GHz !
Duch die eingeschaltete HT Technologie kann aber auch der Host und die 2te VM (hier nur ein "dummer" DC) seine Befehle in eine leere Command-queue stellen und wird performanter bedient als wenn HT abgeschaltet ist.
Man kann noch diskutieren, ob man dem DC nur vcpu=1 geben soll.
Soviel zur Theorie. Wer kann einen Praxistest dazu liefern ? Den Kundenserver hab ich leider nicht zum Testen

Michael
-
- Member
- Beiträge: 120
- Registriert: 28.02.2008, 15:30
- Wohnort: Linz
Ich habe nun in einem anderen Performance Thread eine Aussage von Martin gefunden, die mein "behauptetes" Verhalten bei 2 CPUs mit jeweils einem Core und eingeschaltetem HT ebenfalls unterstützen würde.
http://vmware-forum.de/viewtopic.php?p=45710&highlight=#45710
Damit würde ich hundertprozentig unterschreiben, dass
- auf einem Host mit 2 Cores keine 2 vCPU VM laufen darf, detto auf einem Host mit 4 Cores darf im ESX keine 4 vCPU VM laufen
- also müssen die vcpus in den VMs immer kleiner als die Coreanzahl im Host sein und nicht kleiner gleich
- meine behauptete (und noch nicht verifizierte) Ausnahme - in einem System mit mehreren Single Core CPUs (ich denke jetzt vorerst an das Dual CPU Single core System) kann man mit eingeschaltetem HT UND mit processor.use Zuteilung die HT Technik so nutzen, dass der Sheduler seine Zeitscheiben bekommen kann, auch wenn die VMs eine hohe Last auf jeweils 2 CPU Command Queues erzeugen. Allerdings nur dann, wenn der Sheduler selbst nicht genau auf dem Core die Last erzeugt, wo er freie Zeitscheiben suchen soll.
Wenn eine 2 vcpu VM Prozessor ressourcen anfordert, und diese zB auf Core 0 und 2 gebunden ist, dann müssen genau auf diesen Cores "gleichzeitig freie Zeitscheiben" vorhanden sein. Das heisst es müsste sichergestellt sein, dass der Sheduler auf einem anderen core arbeitet.
Damit stellen sich für mich nochmals ein paar neue Fragen:
- Welcher Task im Windows ist der Vmware Sheduler ? ist das der vmware-hostd.exe ?
- Nutzt der Sheduler selber eine oder 2 oder mehrere (alle) pCPUs am HOST unter VMserver ? (Ich denke er nutzt 2 pCPUs und nimmt sich die cores mit der geringsten Last - meist beobachte ich aber, dass er die pCPU 3 und 7 auf meinem DualCPU QC Server nutzt)
- Kann dieser 32bit Sheduler Prozess im WINHOST im Laufe des Betriebs auch die restlichen 6 Cores nutzen oder bleibt er auf die cores gebunden, die er sich beim Starten ausgesucht hat ?
Abhängig von diesen Detailfragen ist es nicht nur ob das System mit HT performant funktionieren kann, sondern auch ob es nicht auch prinzipiell eine Einschränkung von des VMserver 32bit Shedulers (auf WINHOST oder LINUXHOST) gegenüber ESX darstellt. Denn ich nehme an, dass der ESX Sheduler sicherlich mit allen CPU cores arbeitet und es sicherlich von VMware berücksichtigt wurde, dass die CPU Last des Shedulers selbst die VMs nicht ausbremst. Und daher würden sich diese Fragen unter ESX nicht stellen.
Laut meinen Beobachtungen ist der Prozess Vmware-vmx.exe unter VMserver auf einem WINHOST tatsächlich immer auf die Cores gebunden, die er beim Start zugeteilt bekommt. Oder gibt es da auch gegenteilige Erfahrungen ?
Michael
PS: Liebe Forumskollegen - ich möchte hier kein Privatissimum führen, sondern tatsächlich verschiedenen Details verstehen. Daher bitte entschuldigt die etwas langen Formulierungen.
http://vmware-forum.de/viewtopic.php?p=45710&highlight=#45710
Martin hat geschrieben:...Damit eine VM mit vier vCPUs vom ESX Scheduler Rechenzeit zugeteilt bekommen kann, müssen dafür vier CPU Kerne gleichzeitig eine freie Zeitscheibe haben. Da aber auf dem ersten CPU Kern ESX selbst einige Zeitscheiben verbraucht, kann die VM währenddessen nicht scheduled werden und wird ausgebremst.
Martin
Damit würde ich hundertprozentig unterschreiben, dass
- auf einem Host mit 2 Cores keine 2 vCPU VM laufen darf, detto auf einem Host mit 4 Cores darf im ESX keine 4 vCPU VM laufen
- also müssen die vcpus in den VMs immer kleiner als die Coreanzahl im Host sein und nicht kleiner gleich
- meine behauptete (und noch nicht verifizierte) Ausnahme - in einem System mit mehreren Single Core CPUs (ich denke jetzt vorerst an das Dual CPU Single core System) kann man mit eingeschaltetem HT UND mit processor.use Zuteilung die HT Technik so nutzen, dass der Sheduler seine Zeitscheiben bekommen kann, auch wenn die VMs eine hohe Last auf jeweils 2 CPU Command Queues erzeugen. Allerdings nur dann, wenn der Sheduler selbst nicht genau auf dem Core die Last erzeugt, wo er freie Zeitscheiben suchen soll.
Wenn eine 2 vcpu VM Prozessor ressourcen anfordert, und diese zB auf Core 0 und 2 gebunden ist, dann müssen genau auf diesen Cores "gleichzeitig freie Zeitscheiben" vorhanden sein. Das heisst es müsste sichergestellt sein, dass der Sheduler auf einem anderen core arbeitet.
Damit stellen sich für mich nochmals ein paar neue Fragen:
- Welcher Task im Windows ist der Vmware Sheduler ? ist das der vmware-hostd.exe ?
- Nutzt der Sheduler selber eine oder 2 oder mehrere (alle) pCPUs am HOST unter VMserver ? (Ich denke er nutzt 2 pCPUs und nimmt sich die cores mit der geringsten Last - meist beobachte ich aber, dass er die pCPU 3 und 7 auf meinem DualCPU QC Server nutzt)
- Kann dieser 32bit Sheduler Prozess im WINHOST im Laufe des Betriebs auch die restlichen 6 Cores nutzen oder bleibt er auf die cores gebunden, die er sich beim Starten ausgesucht hat ?
Abhängig von diesen Detailfragen ist es nicht nur ob das System mit HT performant funktionieren kann, sondern auch ob es nicht auch prinzipiell eine Einschränkung von des VMserver 32bit Shedulers (auf WINHOST oder LINUXHOST) gegenüber ESX darstellt. Denn ich nehme an, dass der ESX Sheduler sicherlich mit allen CPU cores arbeitet und es sicherlich von VMware berücksichtigt wurde, dass die CPU Last des Shedulers selbst die VMs nicht ausbremst. Und daher würden sich diese Fragen unter ESX nicht stellen.
Laut meinen Beobachtungen ist der Prozess Vmware-vmx.exe unter VMserver auf einem WINHOST tatsächlich immer auf die Cores gebunden, die er beim Start zugeteilt bekommt. Oder gibt es da auch gegenteilige Erfahrungen ?
Michael
PS: Liebe Forumskollegen - ich möchte hier kein Privatissimum führen, sondern tatsächlich verschiedenen Details verstehen. Daher bitte entschuldigt die etwas langen Formulierungen.
Zurück zu „VMserver 1 und GSX“
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast