Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!
ESX 3.0.* auf HP-hardware
- continuum
- UNSTERBLICH(R.I.P.)
- Beiträge: 14759
- Registriert: 09.08.2003, 05:41
- Wohnort: sauerland
- Kontaktdaten:
ESX 3.0.* auf HP-hardware
Da es in der letzten Zeit oft Klagen mit ESX performance auf HP-systemen gibt - moechte ich einmal von euch wissen ob irgendwer mit seiner ESX-performance auf HP-hardware *Proliant server zufrieden ist.
Falls ihr auch Probleme habt, verwendet ihr die onboard broadcom nics ?
Falls ihr auch Probleme habt, verwendet ihr die onboard broadcom nics ?
Hallo,
nutze derzeit ESX 3.0.2 Enterprise auf 2 HP DL385 G2 als "SAN" wird eine MSA1000 mit 14x 146GB verwendet.
Die OnBoard NICs werden verwendet, allerdings "nur" als dedizierten Anschluss einmal für die Console und einmal für das VMotion.
Die VMs laufen über 2 HP NC360T PCIe Dual Port Gigabit Server Adapter
Wie kann ich die Performance am besten messen und welche Werte sind "normal"
nutze derzeit ESX 3.0.2 Enterprise auf 2 HP DL385 G2 als "SAN" wird eine MSA1000 mit 14x 146GB verwendet.
Die OnBoard NICs werden verwendet, allerdings "nur" als dedizierten Anschluss einmal für die Console und einmal für das VMotion.
Die VMs laufen über 2 HP NC360T PCIe Dual Port Gigabit Server Adapter
Wie kann ich die Performance am besten messen und welche Werte sind "normal"
- angoletti1
- Experte
- Beiträge: 1323
- Registriert: 08.07.2005, 16:41
- Wohnort: bei Trier
-
- Member
- Beiträge: 7
- Registriert: 15.09.2007, 14:51
- Wohnort: Heubach
- Kontaktdaten:
Bei uns läuft
2 x HP DL 385
1 x HP Storegeworks Switch 4 / 8 2 GB
1 x MSA 1000 mit weiterem Platten Enclosure also ingesammt 27 x 136 GB HD mit 10.000 RPM
Das ganze ist in 2 LUN´s aufgeteilt zu jeweils ca 2 TB
in den ESX Servern sind jetzt Qlogic 200 HBA´s eingebaut.
Getestet habe ich auch die A7388A [LP1050] und die FCA2214 / FCA2210 [QLA2340].
Datentrasfertare beim kopieren einer Datei ins SAN ca. 40 MB/s
Tests mit dem IOMETER (www.iometer.org) bringen verschienene Werte von 3 MB / s bis 55 MB / s je nachem welcher Modus gefahren wird.
Für mein Empfinden ist diese Umgebung nicht zur Virtualisierung geeignet.
Stephan
2 x HP DL 385
1 x HP Storegeworks Switch 4 / 8 2 GB
1 x MSA 1000 mit weiterem Platten Enclosure also ingesammt 27 x 136 GB HD mit 10.000 RPM
Das ganze ist in 2 LUN´s aufgeteilt zu jeweils ca 2 TB
in den ESX Servern sind jetzt Qlogic 200 HBA´s eingebaut.
Getestet habe ich auch die A7388A [LP1050] und die FCA2214 / FCA2210 [QLA2340].
Datentrasfertare beim kopieren einer Datei ins SAN ca. 40 MB/s
Tests mit dem IOMETER (www.iometer.org) bringen verschienene Werte von 3 MB / s bis 55 MB / s je nachem welcher Modus gefahren wird.
Für mein Empfinden ist diese Umgebung nicht zur Virtualisierung geeignet.
Stephan
Momentan sieht unsere Umgebung so aus:
3x HP DL380 G5
2x EVA8000 mit Continous Access
Im Moment läuft der komplette Netzwerkverkehr über die beiden Onboard NICs. Die HP NC360T PCIe Dual Port Gigabit Server Adapter sind aber bereits bestellt und werden nächste Woche eingebaut. Werde dann den Traffic der VMs über diese NICs führen und VMotion usw. über die Onboard NICs.
Über Performance Probleme bei HP Servern höre ich jetzt zum ersten mal. Wo hast du davon gehört?
Gruss
Dominik
3x HP DL380 G5
2x EVA8000 mit Continous Access
Im Moment läuft der komplette Netzwerkverkehr über die beiden Onboard NICs. Die HP NC360T PCIe Dual Port Gigabit Server Adapter sind aber bereits bestellt und werden nächste Woche eingebaut. Werde dann den Traffic der VMs über diese NICs führen und VMotion usw. über die Onboard NICs.
Über Performance Probleme bei HP Servern höre ich jetzt zum ersten mal. Wo hast du davon gehört?
Gruss
Dominik
Viel HP DL585G2
Wir haben zurzeit grosse Probleme mit HP DL 585 G2. Es sind vier HP Server DualCore mit je 32GB Ram – SAN Integriert und mit 2x Quad Port Intelkarte.
Der Installationsvorgang lief fehlerfrei. ESX 3.0.2. Als ich nachträglich alle vier Server pingte stellte ich mit schreckend fest das Antwortzeiten sehr schlecht waren. Bis 45ms zum teil. Netz (Switch) seitig klärte auch ab. Keine Fehler. Auch im VC bei Performance history war klar ersichtlich, dass alle vier ESX Server mit CPU last von 20% ohne eine Virtuelle Maschine am laufen.
- Die QuadPort NIC Karten sind im Kompatibilitätsliste drin. Habe fast alles ausprobiert. Ich werde an VMware support schreiben.
Der Installationsvorgang lief fehlerfrei. ESX 3.0.2. Als ich nachträglich alle vier Server pingte stellte ich mit schreckend fest das Antwortzeiten sehr schlecht waren. Bis 45ms zum teil. Netz (Switch) seitig klärte auch ab. Keine Fehler. Auch im VC bei Performance history war klar ersichtlich, dass alle vier ESX Server mit CPU last von 20% ohne eine Virtuelle Maschine am laufen.
- Die QuadPort NIC Karten sind im Kompatibilitätsliste drin. Habe fast alles ausprobiert. Ich werde an VMware support schreiben.
alle Patches eingespielt??
http://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=1001732
http://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=1001732
Schon mal Netzwerkkomponente geprüft?
Wir hatten 2 ESX Server 3.0.2 an unsere Cisco Coreswitche gepatcht. Damit die Ausfallsicherheit perfekt wurde, haben wir den ersten ESX an den ersten Coreswitch und den zweiten ESX an den zweiten Coreswitch gepatcht. Bevor der zweite Coreswitch den Geist aufgegeben hat, hatten wir eine schlechte Responszeit beim Pingen. Dann wollte der zweite Coreswitch gar nicht mehr und wir haben alle NICs beider ESX-Server an den ersten Coreswitch gehängt. Seit dem ist die Performance optimal.
-
- Member
- Beiträge: 41
- Registriert: 14.10.2005, 16:30
mambk hat geschrieben:ach du scheiße da ist ja meine MSA schneller, also hier scheint es wirklich irgendwie Probleme zu geben..
Dann poste bitte hier mal deinen Speed. Würde mich interessieren.
Hatten anfangs die ESX Umgebung auch auf MSA1000 laufen, habe dort jedoch nur getestet und keine performance Messungen gemacht.
Entweder messe ich mist (wer misst, misst mist ) oder och habe einen an der Schüssel aber ich kann beim besten willen keine performance Probleme fest stellen. Wir haben jetzt doch mehr als 20 VMs produktiv im Einsatz und jeder ist begeistert von der Geschwindigkeit, nicht nur aufs Netz bezogen.
Bei uns laufen auf 3 HP ProLiant 380 G5 Servern ESX Server 3.0.1.
Wir haben bis jetzt keine Probleme hinsichtlich der Performance gamacht.
Das einzige problem ist das vcbBackup eine ewigkeit für ein Backup braucht (300GB in 15Std) aber ich glaub nicht das das was mit den HP Servern zutun hat. Sondarn mit ESX Server Software.
Wir haben bis jetzt keine Probleme hinsichtlich der Performance gamacht.
Das einzige problem ist das vcbBackup eine ewigkeit für ein Backup braucht (300GB in 15Std) aber ich glaub nicht das das was mit den HP Servern zutun hat. Sondarn mit ESX Server Software.
Bei uns laufen auf 3 HP ProLiant 380 G5 Servern ESX Server 3.0.1.
Wir haben bis jetzt keine Probleme hinsichtlich der Performance gamacht.
Das einzige problem ist das vcbBackup eine ewigkeit für ein Backup braucht (300GB in 15Std) aber ich glaub nicht das das was mit den HP Servern zutun hat. Sondarn mit ESX Server Software.
Wir haben bis jetzt keine Probleme hinsichtlich der Performance gamacht.
Das einzige problem ist das vcbBackup eine ewigkeit für ein Backup braucht (300GB in 15Std) aber ich glaub nicht das das was mit den HP Servern zutun hat. Sondarn mit ESX Server Software.
HP 585 G2 hat defintiv ein IRQ Problem mit PCI Express Karte
Ihr solltet euch mal den folgen VMware Beitrag lesen:
http://communities.vmware.com/thread/108498
Also ich sowohl HP 585 G1 und HP 585 G2.
Bei der HP 585 G1 tritt kein IRQ Sharing auf.
Bei der HP 585 G2 tritt mit PCI Expresskarten IRQ Sharing auf.
Das Problem liegt definitiv bei HP und nicht bei VMware.
Ein Bios update wird erst in März 2008 für die HP DL 585 G2 kommen,
da dann die AMD Barcelona CPU'S verfügbar sind.
Umgehen kann man das IRQ Problem nur, wnn man PCI-X und PCI Expresskarten
gleichzeitig nutzt.
Ich bin sehr gespannt darauf, ob ein HP die DL 585 G2 redesigned, und diese dann nur noch mit PCI Express 2.0 ausliefert.
Somit gilt wieder, kaufe nie Version 1.
Hielfreiche Beiträge:
http://www.tuxyturvy.com/blog/index.php ... mance.html
http://kb.vmware.com/selfservice/micros ... alId=10229
http://communities.vmware.com/thread/108498
Also ich sowohl HP 585 G1 und HP 585 G2.
Bei der HP 585 G1 tritt kein IRQ Sharing auf.
Bei der HP 585 G2 tritt mit PCI Expresskarten IRQ Sharing auf.
Das Problem liegt definitiv bei HP und nicht bei VMware.
Ein Bios update wird erst in März 2008 für die HP DL 585 G2 kommen,
da dann die AMD Barcelona CPU'S verfügbar sind.
Umgehen kann man das IRQ Problem nur, wnn man PCI-X und PCI Expresskarten
gleichzeitig nutzt.
Ich bin sehr gespannt darauf, ob ein HP die DL 585 G2 redesigned, und diese dann nur noch mit PCI Express 2.0 ausliefert.
Somit gilt wieder, kaufe nie Version 1.
Hielfreiche Beiträge:
http://www.tuxyturvy.com/blog/index.php ... mance.html
http://kb.vmware.com/selfservice/micros ... alId=10229
-
- Member
- Beiträge: 2
- Registriert: 23.12.2007, 09:13
Hallo Leute,
mir sind ESX-seitig keine groben Probleme aufgefallen...
Eingesetzt werden 6 Hosts auf Version 3.0.2 (DL385G1), und weitere 6 Hosts auf 3.5 (DL585G1)
In der Vergangenheit hatten wir doch immer wieder Performanceprobleme mit einzelnen VMs, besonders, wenn hohe Last auftrat:
*Systemzeit ging alle 900sec. um 5sec. falsch!
* SQL Server Verbindungen (MSSQL2k und 05) gingen verloren!
* System freeze
* ...
also doch schon einiges und vor allem kritisches.
Diese fehler traten auf ESX 3.0.1 und auf HP DL585G1 auf.
Weiß einer von euch mehr zu Performanceproblemen auf VMs??
U.a. Datenbankservern??
Antwort wäre super!
mir sind ESX-seitig keine groben Probleme aufgefallen...
Eingesetzt werden 6 Hosts auf Version 3.0.2 (DL385G1), und weitere 6 Hosts auf 3.5 (DL585G1)
In der Vergangenheit hatten wir doch immer wieder Performanceprobleme mit einzelnen VMs, besonders, wenn hohe Last auftrat:
*Systemzeit ging alle 900sec. um 5sec. falsch!
* SQL Server Verbindungen (MSSQL2k und 05) gingen verloren!
* System freeze
* ...
also doch schon einiges und vor allem kritisches.
Diese fehler traten auf ESX 3.0.1 und auf HP DL585G1 auf.
Weiß einer von euch mehr zu Performanceproblemen auf VMs??
U.a. Datenbankservern??
Antwort wäre super!
Hallo,
bei uns läuft der ESX Server auf einem bzw. mehreren Blades (HP Blade Center ProLiant BL480C)
mit 4 Dual Core CPUs und 36 GB Hauptspeicher
Problemlos. Die Anbindung der VMs erfolgt über ein SAN-Netzwerk an ein EMC-System. Das einzige Problem hab ich mit VLANs über den eingebauten Nortel Switch.
Ich empfehle auf jeden Fall CISCO Hardware für aufwändigere Konfigurationen wie Load Balancing und Ether Cannel sowie VLAN-Tagging über den ESX.
lg
Michi
bei uns läuft der ESX Server auf einem bzw. mehreren Blades (HP Blade Center ProLiant BL480C)
mit 4 Dual Core CPUs und 36 GB Hauptspeicher
Problemlos. Die Anbindung der VMs erfolgt über ein SAN-Netzwerk an ein EMC-System. Das einzige Problem hab ich mit VLANs über den eingebauten Nortel Switch.
Ich empfehle auf jeden Fall CISCO Hardware für aufwändigere Konfigurationen wie Load Balancing und Ether Cannel sowie VLAN-Tagging über den ESX.
lg
Michi
HI,
Ich habe 16 x DL585G1, je 6 GBIt NIC und 2 Qlogic HBAs unter ESX3.0.2 laufen.
eth performance ist gut (4 Intel im Bonding), aber die Disk I/O aufs EVA dürften etwas besser sein.
Aus einer RHES4 VM ist die Disk I/0 etwa ein drittel langsamer ale ein Physikalischer server am SAN.
Ist aber auch auf IBM und Dell Maschinen der Fall.
Generell zähle ich die Proliants zu den Top-Servern der x86 (bzw. x86_64) Klasse. Einfach gute Qualität und Features. Am besten gefällt mir bei HP der "rote Faden" welcher sich durch das ganze Proliant Portfolio zieht.
Ich habe 16 x DL585G1, je 6 GBIt NIC und 2 Qlogic HBAs unter ESX3.0.2 laufen.
eth performance ist gut (4 Intel im Bonding), aber die Disk I/O aufs EVA dürften etwas besser sein.
Aus einer RHES4 VM ist die Disk I/0 etwa ein drittel langsamer ale ein Physikalischer server am SAN.
Ist aber auch auf IBM und Dell Maschinen der Fall.
Generell zähle ich die Proliants zu den Top-Servern der x86 (bzw. x86_64) Klasse. Einfach gute Qualität und Features. Am besten gefällt mir bei HP der "rote Faden" welcher sich durch das ganze Proliant Portfolio zieht.
Hallo Zusammen,
HP Prolaint Server taugen sehr wohl zu ESX 3.x Servern.
Allerdings müssen die Onboard Nics abgeschaltet werden.
Diese verursachen nachweislich Performance Probleme.
Dieses habe ich vor kurzen mit VMware Support ud HP Support herausgefunden und bewiesen.
HP hat unserem Kunden kostenlos neue Nics geschickt und die Onboard Nics haben wir
deakiviert.
Seid dem ist die Performance mit der Proalpha DB sehr gut.
HP Prolaint Server taugen sehr wohl zu ESX 3.x Servern.
Allerdings müssen die Onboard Nics abgeschaltet werden.
Diese verursachen nachweislich Performance Probleme.
Dieses habe ich vor kurzen mit VMware Support ud HP Support herausgefunden und bewiesen.
HP hat unserem Kunden kostenlos neue Nics geschickt und die Onboard Nics haben wir
deakiviert.
Seid dem ist die Performance mit der Proalpha DB sehr gut.
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 2 Gäste