Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!
Frage zur HDD Aufteilung
Frage zur HDD Aufteilung
Hallo Leute,
bin grad dabei eine neue Hardware für GSX (oder VMware Server) zu planen und würde gerne eure Meinung zu der Harddisk Aufteilung hören.
Also Server sollte ein HP DL380 werden (mit 12GB RAM), das Teil hat 6 hotplug U320 Einschübe.
Folgende Gäste werden drauf laufen:
- 2003er Server mit Notes Domino 6.5 oder 7
- NT4 Server mit Informix DB
- 2003er Server mit WSUS
- ca. 5 Test Workstations (NT4, 2000 und XP)
Vom Platz her wird der Domino am meisten benötigten (derzeit ca. 60GB werde ihm also gleich 200GB Platz zuteilen).
Der Informix Server wird weitere 50GB brauchen, der WSUS ca. 10 bis 15GB und die Test Clients minimal.
Ich wollte 6 Stück 146GB 10k Platten nehmen und wie folgt aufteilen:
Variante 1:
2 Stück im RAID1 Netto 146GB (ggf. auch 2 x 36GB Harddisks)
4 Stück im RAID5 Netto 438GB
Das Host System (Debian Sarge) kommt auf das RAID1 und die VM´s kommen aufs RAID5.
Variante 2:
2 Stück im RAID1 Netto 146GB
4 Stück im RAID5 Netto 438GB
Das Host System (Debian Sarge) kommt auf das RAID1 inkl. der System Platten der VM´s, die Daten des Domino Servers und die Informix DB kommt auf das RAID5 da der meiste I/O auf diesen beiden liegt.
Variante 3:
2 Stück im RAID1 Netto 146GB
4 Stück im RAID0+1 Netto 292GB
Das Host System (Debian Sarge) kommt auf das RAID1 inkl. der System Platten der VM´s, die Daten des Domino Servers und die Informix DB kommt auf das RAID0+1 da der meiste I/O auf diesen beiden liegt.
Jedoch wirds dann für die Zukunft mit dem Platz eng...
Variante 4:
6 Stück im RAID5 Netto 730GB
Das Host System (Debian Sarge) und die VM´s mit allen Daten auf ein RAID5.
Wie würdet Ihr das lösen?
bzw. wie legt Ihr die Disks für die Daten eigentlich an, vermutlich "Allocate all disk space now." und "Split disk into 2 GB files" oder?, beim Domino Data wären das ja dann 100 .vmdk files á 2GB....
oder ist auch jemand unter Euch der die Disk auch wachsen lässt?
ps. Für die Partition unter der die VM´s liegen hätte ich an XFS gedacht.
lg
Lord Nibbler
bin grad dabei eine neue Hardware für GSX (oder VMware Server) zu planen und würde gerne eure Meinung zu der Harddisk Aufteilung hören.
Also Server sollte ein HP DL380 werden (mit 12GB RAM), das Teil hat 6 hotplug U320 Einschübe.
Folgende Gäste werden drauf laufen:
- 2003er Server mit Notes Domino 6.5 oder 7
- NT4 Server mit Informix DB
- 2003er Server mit WSUS
- ca. 5 Test Workstations (NT4, 2000 und XP)
Vom Platz her wird der Domino am meisten benötigten (derzeit ca. 60GB werde ihm also gleich 200GB Platz zuteilen).
Der Informix Server wird weitere 50GB brauchen, der WSUS ca. 10 bis 15GB und die Test Clients minimal.
Ich wollte 6 Stück 146GB 10k Platten nehmen und wie folgt aufteilen:
Variante 1:
2 Stück im RAID1 Netto 146GB (ggf. auch 2 x 36GB Harddisks)
4 Stück im RAID5 Netto 438GB
Das Host System (Debian Sarge) kommt auf das RAID1 und die VM´s kommen aufs RAID5.
Variante 2:
2 Stück im RAID1 Netto 146GB
4 Stück im RAID5 Netto 438GB
Das Host System (Debian Sarge) kommt auf das RAID1 inkl. der System Platten der VM´s, die Daten des Domino Servers und die Informix DB kommt auf das RAID5 da der meiste I/O auf diesen beiden liegt.
Variante 3:
2 Stück im RAID1 Netto 146GB
4 Stück im RAID0+1 Netto 292GB
Das Host System (Debian Sarge) kommt auf das RAID1 inkl. der System Platten der VM´s, die Daten des Domino Servers und die Informix DB kommt auf das RAID0+1 da der meiste I/O auf diesen beiden liegt.
Jedoch wirds dann für die Zukunft mit dem Platz eng...
Variante 4:
6 Stück im RAID5 Netto 730GB
Das Host System (Debian Sarge) und die VM´s mit allen Daten auf ein RAID5.
Wie würdet Ihr das lösen?
bzw. wie legt Ihr die Disks für die Daten eigentlich an, vermutlich "Allocate all disk space now." und "Split disk into 2 GB files" oder?, beim Domino Data wären das ja dann 100 .vmdk files á 2GB....
oder ist auch jemand unter Euch der die Disk auch wachsen lässt?
ps. Für die Partition unter der die VM´s liegen hätte ich an XFS gedacht.
lg
Lord Nibbler
- continuum
- UNSTERBLICH(R.I.P.)
- Beiträge: 14759
- Registriert: 09.08.2003, 05:41
- Wohnort: sauerland
- Kontaktdaten:
Variante 1 gefaellt mir am besten - Host und VMs auf einer Platte halte ich fuer unguenstig - das bedeutet, dass man auf keinen Fall eine VM mitsamt Platte auf einen anderen Host mitnehmen kann, oder falls der Host mal Probleme macht kann man die VMs auch nicht nutzen ...
Fuer den Host wuerde mir eine 36er reichen - und die VMs wuerde ich dann ueber die Platten so verteilen dass alle Spindeln gut zu tun haben und im Fall eines Plattenausfalls moeglichst nur eine VM betroffen ist.
Sparse-platten koennen unter Umstaenden schneller sein als preallocated disks - aber nur dann, wenn auf ihnen nicht viel geloescht wird. Fuer stetig wachsende Datensammlungen sind sparse-disks einne gute Sache.
Fuer meinen Geschmack machen sehr grosse pre-allocated Platten wenig Sinn - der Performancevorteil vor den split-versionen ist wenn ueberhaupt dann nur minimal - wenn man allerdings einmal eine Panne hat, kann man die 2GB stuecke viel besser handhaben.
Bedenke bei meinen Ausfuehrungen, das ich Festplatten als Verschleissteile betrachte - durchschnittliche Lebensdauer bei mir max 2 Jahre - ich denke mal dass ist bei SCSI doch ein wenig anders
Ulli
Fuer den Host wuerde mir eine 36er reichen - und die VMs wuerde ich dann ueber die Platten so verteilen dass alle Spindeln gut zu tun haben und im Fall eines Plattenausfalls moeglichst nur eine VM betroffen ist.
oder ist auch jemand unter Euch der die Disk auch wachsen lässt?
Sparse-platten koennen unter Umstaenden schneller sein als preallocated disks - aber nur dann, wenn auf ihnen nicht viel geloescht wird. Fuer stetig wachsende Datensammlungen sind sparse-disks einne gute Sache.
Fuer meinen Geschmack machen sehr grosse pre-allocated Platten wenig Sinn - der Performancevorteil vor den split-versionen ist wenn ueberhaupt dann nur minimal - wenn man allerdings einmal eine Panne hat, kann man die 2GB stuecke viel besser handhaben.
Bedenke bei meinen Ausfuehrungen, das ich Festplatten als Verschleissteile betrachte - durchschnittliche Lebensdauer bei mir max 2 Jahre - ich denke mal dass ist bei SCSI doch ein wenig anders
Ulli
Sparse-platten koennen unter Umstaenden schneller sein als preallocated disks - aber nur dann, wenn auf ihnen nicht viel geloescht wird. Fuer stetig wachsende Datensammlungen sind sparse-disks einne gute Sache.
hmm.. also der Informix Server bekommt sicher eine fixe Platte zugeteilt. Da die DB ja sowieso mit einer fixen Grösse angelegt ist.
Die Frage stellt sich nur bei Lotus Domino, der liest und schreibt/löscht eigentlich die ganze Zeit.
Bedenke bei meinen Ausfuehrungen, das ich Festplatten als Verschleissteile betrachte - durchschnittliche Lebensdauer bei mir max 2 Jahre - ich denke mal dass ist bei SCSI doch ein wenig anders
naja.. nach meiner Erfahrung laufen die min. 5+ Jahre durch. Wenn eine ausfällt dann gleich am Anfang.
Ausserdem mache ich eh mindestens ein RAID5.
Vernünftig für die Daten Partition wäre dann auch noch "Independent" -> "Persistent" und "write cache" aber eher aus oder wie sind Eure Erfahrungen?
lg
Lord Nibbler
Hi Lord Nibbler,
wieso machst Du nicht, wenn Du schon einen HP Smart Array hast, ein Array mit allen 6 Disks (sinnigerweise alle 146 GB) und schneidest Dir dann 2 logische Laufwerke raus, für die Du ja jeweils noch mal die RAID Level definieren kannst. Das hat den Vorteil, dass Du jeweils auf alle 6 Spindeln zurückgreifen kannst, also entsprechend gute Performance. Die Konfig mit den logischen Laufwerken geht aber nur über das ACU z.B. von der Smart Start CD, nicht über das ROM Utility des Array Controllers.
Was ich auf jeden Fall als Zusatzausstattung empfehler ist die BBWC Option für den Array Controller. Das bringt noch mal richtig Dampf auf die Platten, wenn das Ding mit Schreibcache arbeitet.
Grüße
Chrishi
wieso machst Du nicht, wenn Du schon einen HP Smart Array hast, ein Array mit allen 6 Disks (sinnigerweise alle 146 GB) und schneidest Dir dann 2 logische Laufwerke raus, für die Du ja jeweils noch mal die RAID Level definieren kannst. Das hat den Vorteil, dass Du jeweils auf alle 6 Spindeln zurückgreifen kannst, also entsprechend gute Performance. Die Konfig mit den logischen Laufwerken geht aber nur über das ACU z.B. von der Smart Start CD, nicht über das ROM Utility des Array Controllers.
Was ich auf jeden Fall als Zusatzausstattung empfehler ist die BBWC Option für den Array Controller. Das bringt noch mal richtig Dampf auf die Platten, wenn das Ding mit Schreibcache arbeitet.
Grüße
Chrishi
Etwas Off-Topic:
Arbeitet ihr gar nicht mit Hot Spare Platten? Ich habe mich nie weiter mit den Möglichkeiten eines SmartArray Controllers beschäftigt, meist einfach Raid5 und eine Hot Spare. Fertig.
Ich plane gerade einen ESX auf einem DL380 und will auch 6x 146 verwenden.
Wie passt der ESX Server darein?
Wenn hierfür ein separater Thread sinnvoller ist bitte sagen
Arbeitet ihr gar nicht mit Hot Spare Platten? Ich habe mich nie weiter mit den Möglichkeiten eines SmartArray Controllers beschäftigt, meist einfach Raid5 und eine Hot Spare. Fertig.
Ich plane gerade einen ESX auf einem DL380 und will auch 6x 146 verwenden.
Wie passt der ESX Server darein?
Wenn hierfür ein separater Thread sinnvoller ist bitte sagen
Also was die Einstellungen des Cache angeht, so habe ich allerdings in einer größeren Konfiguration in Verbindung mit einem Windows Server ein paar Versuche gemacht und eigentlich immer mit 50:50 beste Ergebnisse erziehlt.
Was die Verwendung von Hot Spare Platten angeht, so verwende ich bei RAID 5 oder 0+1 immer eine Hot Spare. Falls irgend möglich fahre ich aber immer mit RAID 6 (also ADG) ohne Hot Spare. Da muss zwar der Controller beim Schreiben mehr ackern, habe aber auch mit gewalttätigen Schreibaktionen die Controller CPU noch nie mehr als 70% auslasten können. Die Leseperformance ist natürlich bei ADG auch besser als bei RAID 5 mit Hot Spare, weil ja eine Spindel mehr mit macht. Was für mich auch ein wichtiges Argument für ADG ist: Das RAID muss bei Plattenausfall nicht 2 mal durchgenudelt werden (alles auf die Hot Spare und nach Austausch wieder zurück) sondern nur die neue Platte wieder reingerechnet.
Wir hatten vor unserer SAN Einführung an den ESX Servern auch jeweils 6 Platten im ADG Verbund an SA6402 Controllern hängen. Das lief eigentlich echt ordentlich.
Alles in Allem ist es aber eine Wissenschaft für sich und glaube ich auch immer stark von der Applikation abhängig, was wirklich Sinn macht.
Übrigens noch @stakk: Wieso nimmst Du nicht statt eines DL380 einen DL385? Der macht mit ESX viel mehr Spass.........
Grüße
Chrishi
Was die Verwendung von Hot Spare Platten angeht, so verwende ich bei RAID 5 oder 0+1 immer eine Hot Spare. Falls irgend möglich fahre ich aber immer mit RAID 6 (also ADG) ohne Hot Spare. Da muss zwar der Controller beim Schreiben mehr ackern, habe aber auch mit gewalttätigen Schreibaktionen die Controller CPU noch nie mehr als 70% auslasten können. Die Leseperformance ist natürlich bei ADG auch besser als bei RAID 5 mit Hot Spare, weil ja eine Spindel mehr mit macht. Was für mich auch ein wichtiges Argument für ADG ist: Das RAID muss bei Plattenausfall nicht 2 mal durchgenudelt werden (alles auf die Hot Spare und nach Austausch wieder zurück) sondern nur die neue Platte wieder reingerechnet.
Wir hatten vor unserer SAN Einführung an den ESX Servern auch jeweils 6 Platten im ADG Verbund an SA6402 Controllern hängen. Das lief eigentlich echt ordentlich.
Alles in Allem ist es aber eine Wissenschaft für sich und glaube ich auch immer stark von der Applikation abhängig, was wirklich Sinn macht.
Übrigens noch @stakk: Wieso nimmst Du nicht statt eines DL380 einen DL385? Der macht mit ESX viel mehr Spass.........
Grüße
Chrishi
Also ich habe nun ein bisserl die Performance verglichen..
4 x 146GB
10GB RAID0+1 Debian System
die restlichen RAID5 /opt/vmware für die VM's
Cache 50/50
/opt/vmware als XFS Partition
Kopieren von 5 GB in der /opt/vmware Partition ca. 25 bis 30MB/sec Durchsatz. Aber der Traffic stockt.. man merkt den Schreibcache.. wenn der Voll ist steht das System bis der wieder leer ist.
Kopieren unter dem VM's von einer virtuellen Platte in die andere.. ca. 15 bis 20MB Durchsatz.. Bei 2 VM's gleichzeitig ca. 7 MB pro VM.
Die zweite Variante:
4 x 146GB
10GB RAID0+1 Debian System
die restlichen RAID0+1 /opt/vmware für die VM's
Cache 50/50
/opt/vmware als XFS Partition
Kopieren von 5 GB in der /opt/vmware Partition ca. 70 bis 80MB/sec Durchsatz. Aber der Traffic stockt.. man merkt den Schreibcache.. wenn der Voll ist steht das System bis der wieder leer ist.
Kopieren unter dem VM's von einer virtuellen Platte in die andere.. ca. 20 bis 25MB Durchsatz.. Bei 2 VM's gleichzeitig ca. 10 MB pro VM.
hmmm.. kann mir das jemand erklären?
Beim dritten Versuch habe ich den SchreibCache auf 0% gestellt.. Durchsatz am Host ist auch bei ca. 80MB/s.. dafür stockt das System aber nicht mehr.... hmm..
lg
Lord Nibbler
4 x 146GB
10GB RAID0+1 Debian System
die restlichen RAID5 /opt/vmware für die VM's
Cache 50/50
/opt/vmware als XFS Partition
Kopieren von 5 GB in der /opt/vmware Partition ca. 25 bis 30MB/sec Durchsatz. Aber der Traffic stockt.. man merkt den Schreibcache.. wenn der Voll ist steht das System bis der wieder leer ist.
Kopieren unter dem VM's von einer virtuellen Platte in die andere.. ca. 15 bis 20MB Durchsatz.. Bei 2 VM's gleichzeitig ca. 7 MB pro VM.
Die zweite Variante:
4 x 146GB
10GB RAID0+1 Debian System
die restlichen RAID0+1 /opt/vmware für die VM's
Cache 50/50
/opt/vmware als XFS Partition
Kopieren von 5 GB in der /opt/vmware Partition ca. 70 bis 80MB/sec Durchsatz. Aber der Traffic stockt.. man merkt den Schreibcache.. wenn der Voll ist steht das System bis der wieder leer ist.
Kopieren unter dem VM's von einer virtuellen Platte in die andere.. ca. 20 bis 25MB Durchsatz.. Bei 2 VM's gleichzeitig ca. 10 MB pro VM.
hmmm.. kann mir das jemand erklären?
Beim dritten Versuch habe ich den SchreibCache auf 0% gestellt.. Durchsatz am Host ist auch bei ca. 80MB/s.. dafür stockt das System aber nicht mehr.... hmm..
lg
Lord Nibbler
JoBa hat geschrieben:möglicherweise. Die DL380 hat Intel Prozis der DL385 ist mit Opterons bestückt.
i know.. darum frage ich ja ob es ein Problem sein könnte
Also normalerweise hat Linux damit kein Problem nur wies mit dem ESX aussieht.. keine Ahnung..
Und VM's dürften doch kein Problem bekommen.. denn das ist ja der Sinn einer VM's.. von der Hardware nicht abhängig zu sein.
Jetzt macht Ihr aber aus der Mücke auch wieder einen Elefanten. Vom Redundanzkonzept war bisher nicht die Rede, sondern nur, welche Kiste überhaupt verwendet wird. Ich wäre grundsätzlich auch vorsichtig, einfach die Platten von einem DL385 in einen DL380 zu stecken und davon auszugehen, dass der ESX ohne Meckern wieder hochkommt und alles gut ist.
Dann lieber für den Fehlerfall eine eigene ESX Installation auf dem DL380 vorbereiten und nur das VMFS Volume umhängen, sollte dann kein Problem sein.
Grundsätzlich muss man sich aber in der ESX Welt wenn man alle Funktionen nutzen will für eine CPU Familie entscheiden, da VMotion die VMs wenn sie von Opteron nach Xeon wandern nach Aussage von VMware in die Wüste schickt.
Gehört aber eigentlich in ein ganz anderes Forum.....
Dann lieber für den Fehlerfall eine eigene ESX Installation auf dem DL380 vorbereiten und nur das VMFS Volume umhängen, sollte dann kein Problem sein.
Grundsätzlich muss man sich aber in der ESX Welt wenn man alle Funktionen nutzen will für eine CPU Familie entscheiden, da VMotion die VMs wenn sie von Opteron nach Xeon wandern nach Aussage von VMware in die Wüste schickt.
Gehört aber eigentlich in ein ganz anderes Forum.....
da VMotion die VMs wenn sie von Opteron nach Xeon wandern nach Aussage von VMware in die Wüste schickt.
In die Wüste schicken wird VMotion sie vermutlich nicht, sondern schlicht und ergreifend die Annahme des Auftrags verweigern. Die VM wird dabei wohl keinen Schaden nehmen, sondern ungerührt weiterlaufen.
Selbst noch nicht ausprobiert, da nur kompatible CPUs im Einsatz.
Grüße, Georg.
Zurück zu „VMserver 1 und GSX“
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 2 Gäste
