Broatcast hat geschrieben:Das System wird später noch auf Raid 6 oder Raid 51 laufen.
Hab mich noch nicht für eine der beiden Varianten entschieden.
...
Allerdings haben wir dieses System schon erprobt laufen und es rennt seit 1 Jahr stabiel.
(Also i7 920 in Verbindung mit VMware)
Wenn du so hoch rangehen willst, machen VMserver1/2 keinen Sinn mehr. Dazu kommt die Tatsache, daß der Core_i7 nicht 100%ig vom VMserver erkannt wird und daher auch nicht vollständig genutzt werden kann. Das wird sich ja leider auch nicht mehr ändern.
...Wenn du viele VMs laufen läßt, was bei 24GB RAM nahe liegend ist...
Gut geschlussfolgert... jedoch würde ich 4 geplante (maximal im späteren Verlauf 5) Maschienen nicht als viel bezeichnen.
Das was du damit vorhast, halte ich für nicht vollständig durchdacht. Die beim VMserver1 maximalen 3.6GB RAM und beim VMserver2 sogar 8GB pro VM sind lediglich als Machbarkeitsangebote und nicht für den produktiven Einsatz vorgesehen. Sie sind nur für das Marketing oder den Gleichstand zu anderen Produktanbietern gut, aber keinesfalls zu mehr !
Kommen wir mal zum warum. Der VMserver1 macht bei 1.6GB VM-RAM zu und lagert dann bis auf 300MB sämtlichen an diese VM vergebenen RAM in den virtuellen Arbeitsspeicher, sprich Swap-Datei auf der Host-Platte, aus. Der VMserver2 ist zwar eine 64bit-Anwendung, wenn er auf einem 64bit-Host installiert ist und trotzdem sollte man besser nicht über 2GB RAM an eine VM vergeben. Bei beiden VMserver bricht ansonsten die Performance extrem ein. Der Grund dafür liegt im höheren Verwaltungsaufwand für den größeren Arbeitsspeicher wie auf jeden anderen Rechner/PC auch.
Die c't vom Heise-Verlag hat in mehreren Tests festgestellt, daß nur die wenigsten Anwendungen von mehr Speicher profitieren. Den meisten Gewinn verzeichneten sie bei lediglich 2GB RAM und den Umstieg von 32bit auf 64bit. Die weitere Speicheraufrüstung auf 4GB zeigt nur noch in Einzelfällen überhaupt Gewinne. Bei 6GB hatte nur noch eine Anwendung überhaupt Vorteile ziehen können, während die anderen entweder nur stagnierten oder sogar schon Performanceverluste auftraten
Du solltest bei 2GB VM-RAM auch immer dran denken, daß die VM auch einen entsprechend großen virtuellen Arbeitsspeicher auf ihrer v.Disk einrichten wird und mit einem SQL-Server in einer VM bindest du schon mal sehr viel CPU- und IO-Leistung, die den anderen Gästen nachher höchstwahrscheinlich fehlt. Du solltest dabei auch an die unterschiedlichen Zugriffs-Charakteristiken von einer DB und meinetwegen einem Fileserver im Auge behalten. Falls du auch viele Schreibzugriffe abzuwickeln hast, ist ein Raid5 mit seiner Lesestärke eventuell schon eine Bremse und sollte daher auch auf einem eigenständigen Raid gelagert sein. Ulli sagte ja schon, daß die Switche in deiner Skizze falsch sind und es eigentlich nur Hubs sind. Da kommen also zusätzliche Probleme (höhere Latenz und geringere Sicherheit) wie auf jedem Netzwerk-Hub auf dich hinzu.
Wie schon früher mal erwähnt, solltest du dir wirklich Gedanken über den Einsatz des ESX(i) machen. Bei 4 VMs a 4GB RAM und dann vielleicht noch 2 v.CPUs pro VM ist dein Host-System mehr mit dem dazu nötigen Verwaltungskram beschäftigt. Spätestens wenn dein Host-OS der Meinung ist, irgendwas im Hintergrund unbedingt laufen zu lassen und aufgrund von Speichermangel für diesen Task, deinen VM-RAM auf die Host-Platte auslagert, merkst du die Fehlentscheidung, 2 oder mehr GB RAM an eine VM vergeben zu haben, recht deutlich. Die wenigsten Betriebssysteme sind nun mal für Anwendungen jenseits der 2GB optimiert und eine VM wäre in diesem Fall so eine Anwendung. Jede VM erscheint im Taskmanager oder über
top bzw
ps aux als eigenständiger Prozess namens "vmware-vmx". Selbst eine SSD wäre bei 2GB an zu schreibenden, auszulagernden VM-RAMs circa 5sec beschäftigt, während dessen das System erstmal komplett steht.
Aus diesem Grund fallen dann sämtliche Hosted-Produkte, egal ob VMware, M$, Parallel oder Suns Virtualbox, heraus.
