Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!
Eure Virtualisierungsdichte (VMs pro CPU)
Eure Virtualisierungsdichte (VMs pro CPU)
Hallo Zusammen
Mich würde wunder nehmen wieviel VM's ihr pro Host und pro CPU (Socket) laufen habt im Betrieb habt ohne das ihr Konzessionen an die in eurem Umfeld verlangte Performance eingehen müsst.
Klar, es gibt unterschiedlichste Hardwareplattformen (2-weg, 4-weg et.), verschiedenen Anforderungen an Performance, verschiedene Gast System etc. ppt. Was beim einen i.O ist geht in einem anderen Umfeld gar nicht. Aber trotzdem: wie siehts das bei euch so aus?
Vor 5 - 6 Jahren hiess es mal ziemlich salopp pro CPU so 4-5 VM's. Klar ist längst vorbei aber ich bin teilweise immer noch "konservativ" und habe bei mehr als10 - 12 VM's (z.b auf 2xXeon 6 cores HP Blades) pro ESX Host ein "Gefühl der Vorsicht". Obschon ich nie irgendwelche Performance Engpässe hatte diesbetreffend. Und auch die CPUs der ESX Host sehe ich selten bei über 30% Auslastung. Habe auch keine wahnsinns Performancelastigen Umgebungen drauf auf den Shared Clustern aber ein paar Exchange,SQL's,Oracles u.a sind trotzdem auch drauf.
Uebel wird es bei mir u.a eher wenn es irgendwelche SAN Wartungsphasen gibt wo man vielleicht 100 - 150 VMs auf einem Aggregate hat und diese VM's nach der Wartungsphase wieder rauffährt....Kann dauern. Hat jetzt nichts direkt mit Virtualisierungsdichte zu tun. Aber irgendwie verlagern sich natürlich dann gewisse Ansprüche je mehr virtuelle Maschinen man laufen lässt.
Wie sieht das bei euch aus? Wie weit geht ihr? Kurze Info der darunterliegenden Hardware wäre auch interessant.
Mich würde wunder nehmen wieviel VM's ihr pro Host und pro CPU (Socket) laufen habt im Betrieb habt ohne das ihr Konzessionen an die in eurem Umfeld verlangte Performance eingehen müsst.
Klar, es gibt unterschiedlichste Hardwareplattformen (2-weg, 4-weg et.), verschiedenen Anforderungen an Performance, verschiedene Gast System etc. ppt. Was beim einen i.O ist geht in einem anderen Umfeld gar nicht. Aber trotzdem: wie siehts das bei euch so aus?
Vor 5 - 6 Jahren hiess es mal ziemlich salopp pro CPU so 4-5 VM's. Klar ist längst vorbei aber ich bin teilweise immer noch "konservativ" und habe bei mehr als10 - 12 VM's (z.b auf 2xXeon 6 cores HP Blades) pro ESX Host ein "Gefühl der Vorsicht". Obschon ich nie irgendwelche Performance Engpässe hatte diesbetreffend. Und auch die CPUs der ESX Host sehe ich selten bei über 30% Auslastung. Habe auch keine wahnsinns Performancelastigen Umgebungen drauf auf den Shared Clustern aber ein paar Exchange,SQL's,Oracles u.a sind trotzdem auch drauf.
Uebel wird es bei mir u.a eher wenn es irgendwelche SAN Wartungsphasen gibt wo man vielleicht 100 - 150 VMs auf einem Aggregate hat und diese VM's nach der Wartungsphase wieder rauffährt....Kann dauern. Hat jetzt nichts direkt mit Virtualisierungsdichte zu tun. Aber irgendwie verlagern sich natürlich dann gewisse Ansprüche je mehr virtuelle Maschinen man laufen lässt.
Wie sieht das bei euch aus? Wie weit geht ihr? Kurze Info der darunterliegenden Hardware wäre auch interessant.
Cluster A
4 x HP ProLiant DL380 G7 Sixcore 6x 2,8 Ghz mit jeweils 144 GB Speicher
Über den Daumen gepeilt ca. 140 Hosts, also so zwischen 30-40 Hosts pro Knoten.
Volles Spektrum an Servertypen, von TSV über Datenbankserver, Testmaschinen, Workstations, etc. etc - Alles was man so im betrieb halt braucht
Performance.. nunja, ganz ok, die Gesamtperformance im Cluster lässt sich grad warumauchimemr nicht anzeigen. Ich kann allerdings einen Host in Maintenance nehmen ohne dass es kritisch wird (solange es dann bei drei aktiven bleibt
)
Cluster B
War mal ein geplantes Datenbankcluster (Oracle un SQL), die Migration fand bisher noch nicht statt, daher viel Leerlauf..
2x HP ProLiant DL 380 G7 4x 3,4 Ghz mit 132 GB, aktuell überschaubare 15 Hosts, verteilt mit je 10 zu 5 .. die 5 sind die Oracleserver, die aktuell im Leerlauf sind, aber da schon fast die Hälfte vom RAM fressen.. nehm ich einen Host in Maintenance passt es genau mit der Memory Usage, CPU natürlich total overpowert, ohne Aktive Datenbankzyklen...
Sonst noch was?
4 x HP ProLiant DL380 G7 Sixcore 6x 2,8 Ghz mit jeweils 144 GB Speicher
Über den Daumen gepeilt ca. 140 Hosts, also so zwischen 30-40 Hosts pro Knoten.
Volles Spektrum an Servertypen, von TSV über Datenbankserver, Testmaschinen, Workstations, etc. etc - Alles was man so im betrieb halt braucht
Performance.. nunja, ganz ok, die Gesamtperformance im Cluster lässt sich grad warumauchimemr nicht anzeigen. Ich kann allerdings einen Host in Maintenance nehmen ohne dass es kritisch wird (solange es dann bei drei aktiven bleibt

Cluster B
War mal ein geplantes Datenbankcluster (Oracle un SQL), die Migration fand bisher noch nicht statt, daher viel Leerlauf..
2x HP ProLiant DL 380 G7 4x 3,4 Ghz mit 132 GB, aktuell überschaubare 15 Hosts, verteilt mit je 10 zu 5 .. die 5 sind die Oracleserver, die aktuell im Leerlauf sind, aber da schon fast die Hälfte vom RAM fressen.. nehm ich einen Host in Maintenance passt es genau mit der Memory Usage, CPU natürlich total overpowert, ohne Aktive Datenbankzyklen...
Sonst noch was?

-
- King of the Hill
- Beiträge: 13043
- Registriert: 02.08.2008, 15:06
- Wohnort: Hannover/Wuerzburg
- Kontaktdaten:
30 VMs auf Dual Intel 6 Core (x5670) Dell R710
36 VMs auf Quad Intel 4 Core (x7350) Dell R900
Bei Wartungsarbeiten schon mal 50VMs auf einem Host aber da merkt man es dann schon.
Ich habe 2 Intel E5 8 Core (Dell R720) mit 128GB im Anflug und dann gucken wir mal was geht. Da wir schon laenger 10Gbe haben und mit vSphere 5 auch mehre Interfaces verwendet werden ist hier ein vMotion eine wahre Freunde wenn 8 VMs gleichzeit den Host wechseln.
Gruss
Joerg
36 VMs auf Quad Intel 4 Core (x7350) Dell R900
Bei Wartungsarbeiten schon mal 50VMs auf einem Host aber da merkt man es dann schon.
Ich habe 2 Intel E5 8 Core (Dell R720) mit 128GB im Anflug und dann gucken wir mal was geht. Da wir schon laenger 10Gbe haben und mit vSphere 5 auch mehre Interfaces verwendet werden ist hier ein vMotion eine wahre Freunde wenn 8 VMs gleichzeit den Host wechseln.
Gruss
Joerg
Moin, moin,
wir setzen bei z.B. in gemischten Umgebungen ein:
30 View VMs mit je 1vCPU auf jedem HP DL380 G7 mit 2xE5645 ein (144 GB) ein, im Fehlerfall packt dieser auch die 60 VMs
.
Laufen noch Exchange und die üblichen DCs & Fileserver mit auf den Systemen.
Sonst haben wir meist auch eine Dichte von 3-4 vCPUs je physikalischem Core.
wir setzen bei z.B. in gemischten Umgebungen ein:
30 View VMs mit je 1vCPU auf jedem HP DL380 G7 mit 2xE5645 ein (144 GB) ein, im Fehlerfall packt dieser auch die 60 VMs

Laufen noch Exchange und die üblichen DCs & Fileserver mit auf den Systemen.
Sonst haben wir meist auch eine Dichte von 3-4 vCPUs je physikalischem Core.
So siehts bei uns aus:
Das sind noch 2 Cluster... Hoffe der 4.1er stirbt bald - dann haben wir wieder einen Cluster mit 8 Hosts. In diesen müssen noch ein paar größere DB-Server von alten Blades migriert werden. Danach dürfe es dort deutlich "enger" werden.
Für die weiteren Projekte (Citrix, ERP) habe ich mal 2 Server mit je 40 Kernen und je 1TB bestellt. Bin mal gespannt, wie sich diese Kisten machen.

Das sind noch 2 Cluster... Hoffe der 4.1er stirbt bald - dann haben wir wieder einen Cluster mit 8 Hosts. In diesen müssen noch ein paar größere DB-Server von alten Blades migriert werden. Danach dürfe es dort deutlich "enger" werden.

Für die weiteren Projekte (Citrix, ERP) habe ich mal 2 Server mit je 40 Kernen und je 1TB bestellt. Bin mal gespannt, wie sich diese Kisten machen.
roeschu hat geschrieben:...
Was ist das für ein Tool mit welchem du diese Infos in Tabellenformat exportiert hast?
RVTools in der Version 3.1.
Edit:
Habe gerade gesehen, es gibt die Version 3.2
http://www.robware.net/
Version 3.3 der rvTools ist raus.
Version 3.3 (April, 2012)
GetWebResponse timeout value changed from 5 minutes to 10 minutes (for very big environments)
New tabpage with HBA information
On vDatastore tab the definition of the Provisioned MB and In Use MB columns was confusing! This is changed now.
RVToolsSendMail accepts now multiple recipients (semicolon is used as separator)
Folder information of VMs and Templates are now visible on vInfo tabpage
Bugfix: data in comboboxes on filter form are now sorted
Bugfix: Problem with api version 2.5.0 solved
Bugfix: Improved exception handling on vCPU tab.
Bugfix: Improved exception handling on vDatastore tab.

Version 3.3 (April, 2012)
GetWebResponse timeout value changed from 5 minutes to 10 minutes (for very big environments)
New tabpage with HBA information
On vDatastore tab the definition of the Provisioned MB and In Use MB columns was confusing! This is changed now.
RVToolsSendMail accepts now multiple recipients (semicolon is used as separator)
Folder information of VMs and Templates are now visible on vInfo tabpage
Bugfix: data in comboboxes on filter form are now sorted
Bugfix: Problem with api version 2.5.0 solved
Bugfix: Improved exception handling on vCPU tab.
Bugfix: Improved exception handling on vDatastore tab.
Zurück zu „vCenter / VMware VirtualCenter“
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 3 Gäste