Seite 1 von 1
Eure Virtualisierungsdichte (VMs pro CPU)
Verfasst: 04.04.2012, 12:26
von roeschu
Hallo Zusammen
Mich würde wunder nehmen wieviel VM's ihr pro Host und pro CPU (Socket) laufen habt im Betrieb habt ohne das ihr Konzessionen an die in eurem Umfeld verlangte Performance eingehen müsst.
Klar, es gibt unterschiedlichste Hardwareplattformen (2-weg, 4-weg et.), verschiedenen Anforderungen an Performance, verschiedene Gast System etc. ppt. Was beim einen i.O ist geht in einem anderen Umfeld gar nicht. Aber trotzdem: wie siehts das bei euch so aus?
Vor 5 - 6 Jahren hiess es mal ziemlich salopp pro CPU so 4-5 VM's. Klar ist längst vorbei aber ich bin teilweise immer noch "konservativ" und habe bei mehr als10 - 12 VM's (z.b auf 2xXeon 6 cores HP Blades) pro ESX Host ein "Gefühl der Vorsicht". Obschon ich nie irgendwelche Performance Engpässe hatte diesbetreffend. Und auch die CPUs der ESX Host sehe ich selten bei über 30% Auslastung. Habe auch keine wahnsinns Performancelastigen Umgebungen drauf auf den Shared Clustern aber ein paar Exchange,SQL's,Oracles u.a sind trotzdem auch drauf.
Uebel wird es bei mir u.a eher wenn es irgendwelche SAN Wartungsphasen gibt wo man vielleicht 100 - 150 VMs auf einem Aggregate hat und diese VM's nach der Wartungsphase wieder rauffährt....Kann dauern. Hat jetzt nichts direkt mit Virtualisierungsdichte zu tun. Aber irgendwie verlagern sich natürlich dann gewisse Ansprüche je mehr virtuelle Maschinen man laufen lässt.
Wie sieht das bei euch aus? Wie weit geht ihr? Kurze Info der darunterliegenden Hardware wäre auch interessant.
Verfasst: 04.04.2012, 13:52
von Dectall
Cluster A
4 x HP ProLiant DL380 G7 Sixcore 6x 2,8 Ghz mit jeweils 144 GB Speicher
Über den Daumen gepeilt ca. 140 Hosts, also so zwischen 30-40 Hosts pro Knoten.
Volles Spektrum an Servertypen, von TSV über Datenbankserver, Testmaschinen, Workstations, etc. etc - Alles was man so im betrieb halt braucht
Performance.. nunja, ganz ok, die Gesamtperformance im Cluster lässt sich grad warumauchimemr nicht anzeigen. Ich kann allerdings einen Host in Maintenance nehmen ohne dass es kritisch wird (solange es dann bei drei aktiven bleibt

)
Cluster B
War mal ein geplantes Datenbankcluster (Oracle un SQL), die Migration fand bisher noch nicht statt, daher viel Leerlauf..
2x HP ProLiant DL 380 G7 4x 3,4 Ghz mit 132 GB, aktuell überschaubare 15 Hosts, verteilt mit je 10 zu 5 .. die 5 sind die Oracleserver, die aktuell im Leerlauf sind, aber da schon fast die Hälfte vom RAM fressen.. nehm ich einen Host in Maintenance passt es genau mit der Memory Usage, CPU natürlich total overpowert, ohne Aktive Datenbankzyklen...
Sonst noch was?

Verfasst: 04.04.2012, 14:27
von irix
30 VMs auf Dual Intel 6 Core (x5670) Dell R710
36 VMs auf Quad Intel 4 Core (x7350) Dell R900
Bei Wartungsarbeiten schon mal 50VMs auf einem Host aber da merkt man es dann schon.
Ich habe 2 Intel E5 8 Core (Dell R720) mit 128GB im Anflug und dann gucken wir mal was geht. Da wir schon laenger 10Gbe haben und mit vSphere 5 auch mehre Interfaces verwendet werden ist hier ein vMotion eine wahre Freunde wenn 8 VMs gleichzeit den Host wechseln.
Gruss
Joerg
Verfasst: 04.04.2012, 14:36
von andiwe
Bei uns sind's 3x Dell R900 mit 1x 4-Way E7340 und 2x 2-Way E7450 CPUs.
Im Mittel: 25 VMs pro Host, 4-6 VMs/Socket, 1,5-3 VCpus/Core.
Läuft alles noch sehr ordentlich wobei die Terminalserver gerne mal viel Overhead produzieren.
Verfasst: 04.04.2012, 15:40
von sirrossi
Moin, moin,
wir setzen bei z.B. in gemischten Umgebungen ein:
30 View VMs mit je 1vCPU auf jedem HP DL380 G7 mit 2xE5645 ein (144 GB) ein, im Fehlerfall packt dieser auch die 60 VMs

.
Laufen noch Exchange und die üblichen DCs & Fileserver mit auf den Systemen.
Sonst haben wir meist auch eine Dichte von 3-4 vCPUs je physikalischem Core.
Verfasst: 04.04.2012, 16:01
von BastiHN
bei uns etwa 3 VM´s pro kern wobei die CPU bei weitem nicht der limitierende faktor ist
jeder server hat im schnitt 5-10% CPU auslastung und 70% RAM last
CPU hat also noch genug platz, RAM (96GB pro Host) ist da schon eher das problem...
Verfasst: 04.04.2012, 18:01
von Martin
Bei uns gilt auch die Daumenregel 4-8 vCPU pro pCore für kleinere Linux- und Win2003 VMs bzw. 2-4 vCPU/pCore bei aktuelleren Win2008- und anderen 64bit VMs.
Verfasst: 05.04.2012, 07:38
von stahly
So siehts bei uns aus:
Das sind noch 2 Cluster... Hoffe der 4.1er stirbt bald - dann haben wir wieder einen Cluster mit 8 Hosts. In diesen müssen noch ein paar größere DB-Server von alten Blades migriert werden. Danach dürfe es dort deutlich "enger" werden.
Für die weiteren Projekte (Citrix, ERP) habe ich mal 2 Server mit je 40 Kernen und je 1TB bestellt. Bin mal gespannt, wie sich diese Kisten machen.
Verfasst: 05.04.2012, 09:07
von roeschu
Ich sehe ich bin noch zu konservativ. So ganz grob über den Daumen gepeilt sinds so allgemein zwischen 3 - 6 pro physischen Core. Interessant.
@Stahly:
Was ist das für ein Tool mit welchem du diese Infos in Tabellenformat exportiert hast?
Verfasst: 05.04.2012, 09:18
von irix
rvTools vom guten Rob.
Gruss
Joerg
Verfasst: 05.04.2012, 09:19
von stahly
roeschu hat geschrieben:...
Was ist das für ein Tool mit welchem du diese Infos in Tabellenformat exportiert hast?
RVTools in der Version 3.1.
Edit:
Habe gerade gesehen, es gibt die Version 3.2
http://www.robware.net/
Verfasst: 05.04.2012, 10:45
von roeschu
Danke. cooles tool.
Verfasst: 05.04.2012, 10:57
von irix
roeschu hat geschrieben:Danke. cooles tool.
Da beim Autor auf der Webseite kann man ein paar Euros einwerfen als Danke schoen.
Gruss
Joerg
Verfasst: 26.04.2012, 09:37
von stahly
Version 3.3 der rvTools ist raus.
Version 3.3 (April, 2012)
GetWebResponse timeout value changed from 5 minutes to 10 minutes (for very big environments)
New tabpage with HBA information
On vDatastore tab the definition of the Provisioned MB and In Use MB columns was confusing! This is changed now.
RVToolsSendMail accepts now multiple recipients (semicolon is used as separator)
Folder information of VMs and Templates are now visible on vInfo tabpage
Bugfix: data in comboboxes on filter form are now sorted
Bugfix: Problem with api version 2.5.0 solved
Bugfix: Improved exception handling on vCPU tab.
Bugfix: Improved exception handling on vDatastore tab.
Verfasst: 26.04.2012, 09:58
von sirrossi
Danke für die Info, der Download läuft
