Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

Schlechte Performance?

Hilfe bei Problemen mit Installation & Benutzung des VMware ESX/ESXi Server 3.

Moderatoren: Dayworker, irix

Member
Beiträge: 21
Registriert: 25.02.2006, 19:53

Schlechte Performance?

Beitragvon mechanicus » 09.12.2008, 13:33

Hallo,

ich habe den ESX-i auf einem Intel 64bit System mit 2 DualCore 5060 CPU's und 3 GB RAM getestet.
Zwei identische SATA-Platten, auf einer Fedora 10, auf der anderen den ESX-i Server mit Fedora 10 als einzige virtuelle Maschine mit 2 CPU's. Die Platten wurden jeweils einzeln im selben Laufwerkschacht gestartet.
Ich bin erstaunt, daß die virtuelle Maschine in ESX-i ca. 1/3 langsamer ist als native.
Das betrifft sowohl die Lesegeschwindigkeit von der Platte ((mit hdparm -Tt gemessen) als auch die Rechenleistung (compilieren von dosemu).

Ist das in dieser Größenordnung normal?

M.f.G. mechanicus

Benutzeravatar
Profi
Beiträge: 528
Registriert: 27.07.2007, 07:19

Beitragvon echt_weg » 09.12.2008, 17:04

naja das 2vcpus weniger rechenleistung schaffen als 8 kerne ist völlig logisch.

1/3 weniger plattenperformance klingt mir nach irgendeinem fehler. langsamer wird es aber 1/3 sollte es nicht sein

Member
Beiträge: 21
Registriert: 25.02.2006, 19:53

Beitragvon mechanicus » 09.12.2008, 17:26

echt_weg hat geschrieben:naja das 2vcpus weniger rechenleistung schaffen als 8 kerne ist völlig logisch.

Beim Compilieren arbeiten ja nicht alle Kerne gleichzeitig mit 100%, die wechseln sich ab. Konnte ich sehr gut auf dem Systemmonitor sehen. Es ist immer nur jeweils einer mit 100% beschäftigt. Ich hatte eigentlich erwartet, daß die Rechenleistung des Host gleichmäßig auf die Gäste übertragen wird, was hier bedeutet hätte, daß der einzige Gast alles bekommt.
cat /proc/cpuinfo beim Gast gab 2 CPU's mit der selben Taktrate wie beim Host an.

M.f.G. mechanicus

Member
Beiträge: 196
Registriert: 05.09.2007, 09:02

Beitragvon chrish » 09.12.2008, 18:11

mechanicus hat geschrieben:
echt_weg hat geschrieben:cat /proc/cpuinfo beim Gast gab 2 CPU's mit der selben Taktrate wie beim Host an.

M.f.G. mechanicus


Richtig, aber die 2 vCPU´s haben nur je einen Kern!

King of the Hill
Beiträge: 13066
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 09.12.2008, 18:34

Wie hoch ist das WaitIO in deinem Gast? Weil mit mit nur einer Spindel schafst du nicht genug IO fuer das virtualsierte Filesystem.

Benchmarks zeigen das CPU Leisung zu 95% im Gast angkommt. Zumind wenn man bei einer vCPU bleibt.

Und beim make bitte nicht das -j3 vergessen sofern der Makefile das eh nicht unterbindet.

Gruss
Joerg

Benutzeravatar
Profi
Beiträge: 528
Registriert: 27.07.2007, 07:19

Beitragvon echt_weg » 09.12.2008, 22:06

chrish hat geschrieben:Richtig, aber die 2 vCPU´s haben nur je einen Kern!

sagt wer?

stell mal testweise alle shares auf high auch wenn das egal sein sollte wenn du nur eine vm betreibst

Member
Beiträge: 21
Registriert: 25.02.2006, 19:53

Beitragvon mechanicus » 09.12.2008, 22:59

Vielen Dank für die Antworten. Ich bin mir nicht sicher, ob sich die Zeit für weitere Tests lohnt. Ich habe mal ein bißchen gegoogelt und bin auf Fälle von z.T. 50% Leistung gegenüber native gestoßen.
Wenn ich nun wüßte, daß der "Normalfall" bei einem Linux-Gast bei 80% oder besser wäre, sähe es anders aus.
Ich meine mich erinnern zu können, daß die Lizenzbedingungen von VMware früher mal einen Benchmarktest verboten hätten. Ich habe deshalb auch nur meinen Eindruck geschildert und nicht die Meßergebnisse genannt. Die Festplattenleistung ist unter normalen Bedingungen sogar noch schlechter gewesen.

Nächste Woche spiele ich trotzdem mal mit einer 8 CPU-Opteronkiste mit 5 SAS-Platten im Hardware-RAID rum, vielleicht sieht es dann nicht mehr so krass aus.

M.f.G. mechanicus

Benutzeravatar
Profi
Beiträge: 528
Registriert: 27.07.2007, 07:19

Beitragvon echt_weg » 09.12.2008, 23:48

hast du mal testweise ne windows vm installiert? wäre evtl. mal interessant wie die sich verhält

Member
Beiträge: 21
Registriert: 25.02.2006, 19:53

Beitragvon mechanicus » 10.12.2008, 11:00

Ja, hatte ich. XP prof. läuft aber vom Eindruck her etwas langsamer als nativ auf einem Pentium4 3GHz. Dieser Unterschied war aber nicht sehr ausgeprägt und lag möglicherweise auch an der direkten Grafikausgabe.

Das grundsätzliche Problem bei solchen Tests ist die Vergleichbarkeit. Selbst ausgebuffte Benchmarks bringen manchmal nichts, was an die Realität herankommt, weil die Anforderungen sehr verschieden sind..

Ich benötige eine Lösung für eine performante Linuxinstallation (Terminalserverbetrieb) und ca. 6 Windowsinstallationen, auf die von Linux per rdp zugegriffen wird.
Da bin ich möglicherweise mit KVM besser bedient.
Rein gefühlsmäßig habe ich lieber Images der Gäste, die ich jederzeit ohne virtuelle Umgebung im Notfall mounten und dann sichern bzw. bearbeiten kann.
Beim Anblick der ESX-i Platte via Knoppix fühlte ich mich doch recht verunsichert.

Dafür bietet ESX-i wieder andere Vorteile, aber die Leistung im Gast muß schon da sein. Die Leserate laut hdparm beträgt bei meiner einzelnen SATA2-Platte im Gast 38,5 MB/s. Wenn Scheibvorgänge hinzukommen bricht die Transferrate ein auf 15-17 MB/s ein. Genau hier liegen gravierende Unterschiede zur nativen Installation, die bei Schreib- und Lesezugriffen 70-80 MB/s bringt. Da an diesen Werten mit sicherheit der Speicher beteiligt ist, stellt sich die Frage nach einer effizienten Organisation im Gast. Laut Systemmonitor des Betriebssystems im Gast wurde der vorhandene Speicher bei den kombinierten Schreib-Lesetests zwar genutzt, aber nie voll.

M.f.G. mechanicus

King of the Hill
Beiträge: 13066
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 10.12.2008, 11:14

Mehr Spindeln.... und dann mit IOmeter im Gast benutzen.

Was mich interessieren wuerde ob es Unterschiede gibt bei der Groesse und der gewaehlten Blocksize fuer das VMFS. Leider fehlt mir die Zeit um das mal auszutesten.

Bei den 2-3 VMs wo ich das aber mal getestet hatte sind mir grosse Unterschiede aufgefallen aber ich hatte es noch nicht weiter verfolgt. Was ich noch im Kopf habe ist das die IO/s pro LUN begrenzt sind und das es Sinn machen kann lieber mehrere zumachen als eine Grosse. Da du aber eh im Moment nur eine Platte hast macht das nicht wirklich Sinn.

Ja die Remotekonsole ist traeger als wenn man gleich einen RDP Client benutzt. Ich wiederhole nochmal das reine CPU Leistung zu 95% und mehr beim Gast ankommt.... bei I/O sieht es leider viel schlechter aus wie du selber schon gemerkt hast. Auch Netzwerk ist nicht das was ich mir so vorgestellt habe... aber auch da muss ich nochmal testen.

Hast du die Moeglichkeit mal mit einem RAW Device etwas zu testen?

Gruss
Joerg

Member
Beiträge: 21
Registriert: 25.02.2006, 19:53

Beitragvon mechanicus » 10.12.2008, 11:54

irix hat geschrieben:Hast du die Moeglichkeit mal mit einem RAW Device etwas zu testen?

Ich hatte beim Test für den Gast die Platte auf independent-persistent gesetzt, alle Änderungen sollten direkt auf die Platte geschrieben werden.
War es das, was Du mit RAW Device meintest?
Die Schreib-Lesezugriffe hatte ich mit dd durchgeführt:
Schreiben:

Code: Alles auswählen

dd if=/dev/zero of=test.img bs=1024 count=1000000

Lesen:

Code: Alles auswählen

dd if=test.img of=/dev/null bs=1024

Dazwischen Neustart, damit nichts im cache blieb.

M.f.G. mechanicus

King of the Hill
Beiträge: 13658
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 10.12.2008, 17:26

Bringen die Performance-Einstellungen des Server2 eigentlich unter ESXi auch etwas?
Ich spiele da auf folgende Parameter in der VM an:
monitor_control.restrict_backdoor = "true"
monitor.virtual_exec = "hardware"
monitor.virtual_mmu = "hardware" (bei Server2 nur mit AMD-CPU oder (!)Core i7(!) sinnvoll zu verwenden, ansonsten auf "automatic" lassen)

Meine Suse10.2_64bit-VM zum Testen mit Boinc-5.10.45 ist gute 10Prozent schneller geworden und dürfte somit nur noch 5% maximal 10% hinter Bare-Metal bleiben. Für Spinhenge habe ich direkt einige Werte behalten, nur noch ~65min für eine WU statt früher ~80min. Das ist zwar immer noch kein Vergleich zu Windows mit ~45min, aber das liegt wohl auch an der mehrfach bemängelten schlechten Performance der *nix-App.


Zurück zu „ESX 3 & ESXi 3“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast