Hallo,
ich verwende auf eienm VMWare-Server eine 2,5'' Platte. Leider ist der I/O extrem mager, weshalb ich nach alternativen suche. Mir sind nun die SSD-Platten ins Auge fallen... Habt Ihr praktische Erfahrungen mit SSD und VMware Server2?
LG. Dextha
Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!
SSD für VMWare Server 2
Hallo Dextha.
Ich kann dir konkret zum Einsatz von SSDs leider nichts sagen, weil ich keine davon im Einsatz habe.
Allerdings halte ich die Aufrüstung der Hardware für nur bedingt brauchbar wenn es um IO geht. Jedenfalls wenn du die gleichen absolut katastrophalen IO-Werte hast wie ich.
Ich habe einen VMware-Server2 auf einem AMD Athlon XP 2500+ mit 1GB DDR1 mit einer SIL3114-SATA-Karte und einer 1.5TB großen (zwei Monate alten) Seagate-HDD.
Und einen weiteren VMware-Server2 auf einem Atom D510 (Dualcore 1.6GHz, HTT aber kein VT) mit momentan 1GB DDR2 (wird mehr sobald Speicher billiger ist) und einer 160GB großen (zwei Jahre alten) Samsung-HDD (wird mehr sobald ich aus der Testphase raus bin.
Als Host-OS laufen Rechnern auf beiden Debian Lenny.
Auf beiden hatte ich anfangs als Host-Dateisystem EXT3, auf dem Atom läuft seit gestern Nacht stattdessen XFS.
Beide Hosts (Dateisystemunabhängig) machen irgend was zwischen 80 und 110MB/s ("dd if=/dev/sda of=/dev/null", "dd if=VMware-tools.tar.gz" of=/dev/null", hdparm, alles recht ähnliche Werte).
Die darin laufenden Gäste quälen sich mit 5 bis 15MB/s.
Ich habe also ein Performancedefizit von schlappen 85% bis 95% die im Nirvana verpuffen.
Angesichts dieser gigantischen Unterschiede muss ich annehmen, dass eine deutlich schnelleren HDD trotzdem keinen nennenswerten Gewinn bringt. Selbst eine Vervierfachung auf 20 bis 60MB/s ist ein katastrophaler Wert, wenn man ihn mit 200€ für eine einzelne 80GB große Festplatte erkauft.
Sollte ich auf dem Holzweg sein und gravierende Dinge übersehen haben (Sprich: Wenn du selbst ohne SSD total andere Performancewerte hast) möge man mir das mitteilen. Ich wäre dann dafür, dass jemand der bessere Werte hat mit mir Configs vergleicht.
Ich kann dir konkret zum Einsatz von SSDs leider nichts sagen, weil ich keine davon im Einsatz habe.
Allerdings halte ich die Aufrüstung der Hardware für nur bedingt brauchbar wenn es um IO geht. Jedenfalls wenn du die gleichen absolut katastrophalen IO-Werte hast wie ich.
Ich habe einen VMware-Server2 auf einem AMD Athlon XP 2500+ mit 1GB DDR1 mit einer SIL3114-SATA-Karte und einer 1.5TB großen (zwei Monate alten) Seagate-HDD.
Und einen weiteren VMware-Server2 auf einem Atom D510 (Dualcore 1.6GHz, HTT aber kein VT) mit momentan 1GB DDR2 (wird mehr sobald Speicher billiger ist) und einer 160GB großen (zwei Jahre alten) Samsung-HDD (wird mehr sobald ich aus der Testphase raus bin.
Als Host-OS laufen Rechnern auf beiden Debian Lenny.
Auf beiden hatte ich anfangs als Host-Dateisystem EXT3, auf dem Atom läuft seit gestern Nacht stattdessen XFS.
Beide Hosts (Dateisystemunabhängig) machen irgend was zwischen 80 und 110MB/s ("dd if=/dev/sda of=/dev/null", "dd if=VMware-tools.tar.gz" of=/dev/null", hdparm, alles recht ähnliche Werte).
Die darin laufenden Gäste quälen sich mit 5 bis 15MB/s.
Ich habe also ein Performancedefizit von schlappen 85% bis 95% die im Nirvana verpuffen.
Angesichts dieser gigantischen Unterschiede muss ich annehmen, dass eine deutlich schnelleren HDD trotzdem keinen nennenswerten Gewinn bringt. Selbst eine Vervierfachung auf 20 bis 60MB/s ist ein katastrophaler Wert, wenn man ihn mit 200€ für eine einzelne 80GB große Festplatte erkauft.
Sollte ich auf dem Holzweg sein und gravierende Dinge übersehen haben (Sprich: Wenn du selbst ohne SSD total andere Performancewerte hast) möge man mir das mitteilen. Ich wäre dann dafür, dass jemand der bessere Werte hat mit mir Configs vergleicht.
-
- King of the Hill
- Beiträge: 13650
- Registriert: 01.10.2008, 12:54
- Wohnort: laut USV-Log am Ende der Welt...
Wenn "ext3" schon nicht richtig in die Gänge kommt, notfalls ohne "Journal", dann wird es mit XFS erst recht nichts und bei deiner knappen HW-Ausstattung kann es auch nicht viel besser werden. Alles was du tunen kannst, findet sich über die SuFu unter "swappiness".
Zur IO-Performance allgemein kann ich dir sagen, daß es durch die vollständige Virtualisierung bei VMware auch nicht viel besser werden kann. IO-Werte zwischen 20-33% der Nennleistung deiner Datenträger sind vollkommen normal und dazu auch immer von der Auslastung von Host & Gast abhängig. Sollte auch verständlich sein, wenn die Plattenkontroller in SW abgebildet sind und aus Datensicherheitsgründen auch sämtliche Controller-Caches in der VM deaktiviert werden. Das Aktivieren selbiger macht auch keinen großen Sinn, der Cache muß doch wieder im Host-RAM abgebildet werden und belegt dann dort unnötig Ressourcen. Besonders ärgerlich ist dabei, daß diese Ressourcen in den Overhead dieser VM mit eingehen und dann wird es mit einem 32bit-System doch mitunter sehr eng. Wie groß der Overhead in Abhängigkeit zum vergebenen VM-RAM genau ist, hat VMware im Server2-Manual aufgeführt.
Zur IO-Performance allgemein kann ich dir sagen, daß es durch die vollständige Virtualisierung bei VMware auch nicht viel besser werden kann. IO-Werte zwischen 20-33% der Nennleistung deiner Datenträger sind vollkommen normal und dazu auch immer von der Auslastung von Host & Gast abhängig. Sollte auch verständlich sein, wenn die Plattenkontroller in SW abgebildet sind und aus Datensicherheitsgründen auch sämtliche Controller-Caches in der VM deaktiviert werden. Das Aktivieren selbiger macht auch keinen großen Sinn, der Cache muß doch wieder im Host-RAM abgebildet werden und belegt dann dort unnötig Ressourcen. Besonders ärgerlich ist dabei, daß diese Ressourcen in den Overhead dieser VM mit eingehen und dann wird es mit einem 32bit-System doch mitunter sehr eng. Wie groß der Overhead in Abhängigkeit zum vergebenen VM-RAM genau ist, hat VMware im Server2-Manual aufgeführt.
Hallo zusammen.
Ich muss hiermit einen großen Teil meiner obigen Aussage revidieren. Ihr habt natürlich Recht und meine IO-Probleme hängen recht eng mit dem RAM zusammen.
Meine letzte Änderung am System:
* tmpfs mit 512MB (50% des verfügbaren Arbeitsspeichers) angelegt
* in der Datei /etc/vmware/config "tmpDirectory = /dev/shm" eingestellt
* den Server angewiesen, keinesfalls mehr als 512MB RAM zu verteilen
* Overcommitten von RAM erlaubt
Die Gesamtperformance "im Einsatzbereich" (große Leistungstests habe ich noch nicht gemacht, was aber mangels wirklich großer Anforderungen auch nicht wirklich notwendig ist) ist nicht merklich ("gefühlt nicht", keine Aussage über evtl. messbare Änderungen) zurückgegangen. Dafür aber ist IO auf ~50MB/s gestiegen. Auch bei Dateien (deutlich) größer der gesetzten RAM-Größen (4GB, sowohl von /dev/zero in ein tmpfile als auch vom tmpfile nach /dev/null als auch von tmpfile1 nach tmpfile2, wobei hier mit 25/25 gleich viel read wie write ansteht) keine nennenswerten Änderungen.
In diesem Zusammenhang könnte ich mir eine SSD also durchaus als enormen Gewinn vorstellen. Allerdings spielen wohl die wirklich geilen SSDs mit nur 32GB in Preisregionen in denen man auch einfach 8 bis 12GB mehr RAM als tmpfs dazu kaufen kann um die IO-Performance einer großen 1TB-Platte auf "ein erträgliches Level" heben kann.
Nachdem aber -- das dürfte wohl beim lesen aufgefallen sein -- meine Config gerade über 100% RAM verteilt und die Katastrophe in Form von gigantischem Swapping nur eine Frage der Zeit sen dürfte, werde ich das natürlich nicht so laufen lassen sondern "weiter spielen".
Der nächste Schritt wird wohl sein, 4GB RAM in den Atom zu stecken, eine kleine VM mit 512MB zugewiesenem RAM mit VMDK-File in der Ramdisk anzulegen und darin dann IO zu erforschen.
Der Grund warum ich nach wie vor nicht so überzeugt davon bin dass is ausschließlich ein IO-Problem ist: Ich hätte doch erwartet, dass sich die Gast-IO-Last (auch die mit katastrophaler Performance) in starkem IO des Hosts niederschlägt. Bei starkem Swapping hätte ich im Host sogar deutlich mehr IO erwartet als der Gast produziert, was allerdings nicht der Fall zu sein scheint.
Ich muss hiermit einen großen Teil meiner obigen Aussage revidieren. Ihr habt natürlich Recht und meine IO-Probleme hängen recht eng mit dem RAM zusammen.
Meine letzte Änderung am System:
* tmpfs mit 512MB (50% des verfügbaren Arbeitsspeichers) angelegt
* in der Datei /etc/vmware/config "tmpDirectory = /dev/shm" eingestellt
* den Server angewiesen, keinesfalls mehr als 512MB RAM zu verteilen
* Overcommitten von RAM erlaubt
Die Gesamtperformance "im Einsatzbereich" (große Leistungstests habe ich noch nicht gemacht, was aber mangels wirklich großer Anforderungen auch nicht wirklich notwendig ist) ist nicht merklich ("gefühlt nicht", keine Aussage über evtl. messbare Änderungen) zurückgegangen. Dafür aber ist IO auf ~50MB/s gestiegen. Auch bei Dateien (deutlich) größer der gesetzten RAM-Größen (4GB, sowohl von /dev/zero in ein tmpfile als auch vom tmpfile nach /dev/null als auch von tmpfile1 nach tmpfile2, wobei hier mit 25/25 gleich viel read wie write ansteht) keine nennenswerten Änderungen.
In diesem Zusammenhang könnte ich mir eine SSD also durchaus als enormen Gewinn vorstellen. Allerdings spielen wohl die wirklich geilen SSDs mit nur 32GB in Preisregionen in denen man auch einfach 8 bis 12GB mehr RAM als tmpfs dazu kaufen kann um die IO-Performance einer großen 1TB-Platte auf "ein erträgliches Level" heben kann.
Nachdem aber -- das dürfte wohl beim lesen aufgefallen sein -- meine Config gerade über 100% RAM verteilt und die Katastrophe in Form von gigantischem Swapping nur eine Frage der Zeit sen dürfte, werde ich das natürlich nicht so laufen lassen sondern "weiter spielen".
Der nächste Schritt wird wohl sein, 4GB RAM in den Atom zu stecken, eine kleine VM mit 512MB zugewiesenem RAM mit VMDK-File in der Ramdisk anzulegen und darin dann IO zu erforschen.
Der Grund warum ich nach wie vor nicht so überzeugt davon bin dass is ausschließlich ein IO-Problem ist: Ich hätte doch erwartet, dass sich die Gast-IO-Last (auch die mit katastrophaler Performance) in starkem IO des Hosts niederschlägt. Bei starkem Swapping hätte ich im Host sogar deutlich mehr IO erwartet als der Gast produziert, was allerdings nicht der Fall zu sein scheint.
Hallo,
ich habe hier noch einem Thread zu Deinen Versuchen: http://vmware-forum.de/viewtopic.php?t=12946&highlight=dev+shm !!!
ich habe hier noch einem Thread zu Deinen Versuchen: http://vmware-forum.de/viewtopic.php?t=12946&highlight=dev+shm !!!
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 6 Gäste