Das Forum wurde aktualisiert. Wurde höchste Zeit. Wenn etwas nicht funktioniert, bitte gerne hier jederzeit melden.
(Das "alte Design" kommt wieder, wird ne Weile brauchen!)

ESX 3.0.* auf HP-hardware

Hilfe bei Problemen mit Installation & Benutzung des VMware ESX/ESXi Server 3.

Moderatoren: irix, continuum, Dayworker, Tschoergez

ESX-performance auf HP-servern

ok
50
82%
geht so
8
13%
unbrauchbar
3
5%
 
Abstimmungen insgesamt: 61

Benutzeravatar
Moderator
Beiträge: 14648
Registriert: 09.08.2003, 05:41
Wohnort: sauerland
Kontaktdaten:

ESX 3.0.* auf HP-hardware

Beitragvon continuum » 19.09.2007, 15:21

Da es in der letzten Zeit oft Klagen mit ESX performance auf HP-systemen gibt - moechte ich einmal von euch wissen ob irgendwer mit seiner ESX-performance auf HP-hardware *Proliant server zufrieden ist.

Falls ihr auch Probleme habt, verwendet ihr die onboard broadcom nics ?

Member
Beiträge: 28
Registriert: 21.02.2006, 10:32
Kontaktdaten:

Beitragvon Barntrup » 19.09.2007, 15:25

Hallo,

nutze derzeit ESX 3.0.2 Enterprise auf 2 HP DL385 G2 als "SAN" wird eine MSA1000 mit 14x 146GB verwendet.

Die OnBoard NICs werden verwendet, allerdings "nur" als dedizierten Anschluss einmal für die Console und einmal für das VMotion.

Die VMs laufen über 2 HP NC360T PCIe Dual Port Gigabit Server Adapter

Wie kann ich die Performance am besten messen und welche Werte sind "normal"

Benutzeravatar
Experte
Beiträge: 1323
Registriert: 08.07.2005, 16:41
Wohnort: bei Trier

Beitragvon angoletti1 » 20.09.2007, 08:50

Hi,

also ich kann nicht klagen. Die DL580 G2-G4 arbeiten alle einwandfrei :D

Grüße
Chris

Member
Beiträge: 7
Registriert: 15.09.2007, 14:51
Wohnort: Heubach
Kontaktdaten:

Beitragvon stephan dietz » 20.09.2007, 09:31

Bei uns läuft
2 x HP DL 385
1 x HP Storegeworks Switch 4 / 8 2 GB
1 x MSA 1000 mit weiterem Platten Enclosure also ingesammt 27 x 136 GB HD mit 10.000 RPM

Das ganze ist in 2 LUN´s aufgeteilt zu jeweils ca 2 TB

in den ESX Servern sind jetzt Qlogic 200 HBA´s eingebaut.
Getestet habe ich auch die A7388A [LP1050] und die FCA2214 / FCA2210 [QLA2340].

Datentrasfertare beim kopieren einer Datei ins SAN ca. 40 MB/s

Tests mit dem IOMETER (www.iometer.org) bringen verschienene Werte von 3 MB / s bis 55 MB / s je nachem welcher Modus gefahren wird.

Für mein Empfinden ist diese Umgebung nicht zur Virtualisierung geeignet.
Stephan

Member
Beiträge: 46
Registriert: 08.02.2007, 13:08
Wohnort: Basel, Schweiz

Beitragvon domei » 20.09.2007, 09:41

Momentan sieht unsere Umgebung so aus:

3x HP DL380 G5
2x EVA8000 mit Continous Access

Im Moment läuft der komplette Netzwerkverkehr über die beiden Onboard NICs. Die HP NC360T PCIe Dual Port Gigabit Server Adapter sind aber bereits bestellt und werden nächste Woche eingebaut. Werde dann den Traffic der VMs über diese NICs führen und VMotion usw. über die Onboard NICs.

Über Performance Probleme bei HP Servern höre ich jetzt zum ersten mal. Wo hast du davon gehört?

Gruss
Dominik

Member
Beiträge: 46
Registriert: 08.02.2007, 13:08
Wohnort: Basel, Schweiz

Beitragvon domei » 20.09.2007, 11:16

Hier mal meine Messungen mit IOMETER:

P2V: 13 MB/s
P2P: 17 MB/s
V2V: 10 MB/s

Member
Beiträge: 27
Registriert: 27.04.2007, 14:49

Beitragvon Hurk » 26.09.2007, 13:42

was meinst du mit "Klagen über ESX performance"
welche Probleme tauchen da auf ??

wir haben hier mehrere DL380 G5 Quadcore im Einsartz
und benutzen die Broadcom Adapter

Member
Beiträge: 2
Registriert: 20.09.2007, 10:46

Viel HP DL585G2

Beitragvon indriti » 27.09.2007, 14:36

Wir haben zurzeit grosse Probleme mit HP DL 585 G2. Es sind vier HP Server DualCore mit je 32GB Ram – SAN Integriert und mit 2x Quad Port Intelkarte.
Der Installationsvorgang lief fehlerfrei. ESX 3.0.2. Als ich nachträglich alle vier Server pingte stellte ich mit schreckend fest das Antwortzeiten sehr schlecht waren. Bis 45ms zum teil. Netz (Switch) seitig klärte auch ab. Keine Fehler. Auch im VC bei Performance history war klar ersichtlich, dass alle vier ESX Server mit CPU last von 20% ohne eine Virtuelle Maschine am laufen.
- Die QuadPort NIC Karten sind im Kompatibilitätsliste drin. Habe fast alles ausprobiert. Ich werde an VMware support schreiben.

Member
Beiträge: 52
Registriert: 27.02.2006, 09:29
Kontaktdaten:

Beitragvon mambk » 27.09.2007, 15:53


Member
Beiträge: 1
Registriert: 02.10.2007, 10:31

Schon mal Netzwerkkomponente geprüft?

Beitragvon 1sttb » 02.10.2007, 14:01

Wir hatten 2 ESX Server 3.0.2 an unsere Cisco Coreswitche gepatcht. Damit die Ausfallsicherheit perfekt wurde, haben wir den ersten ESX an den ersten Coreswitch und den zweiten ESX an den zweiten Coreswitch gepatcht. Bevor der zweite Coreswitch den Geist aufgegeben hat, hatten wir eine schlechte Responszeit beim Pingen. Dann wollte der zweite Coreswitch gar nicht mehr und wir haben alle NICs beider ESX-Server an den ersten Coreswitch gehängt. Seit dem ist die Performance optimal.

Member
Beiträge: 41
Registriert: 14.10.2005, 16:30

Beitragvon VirtualBeat » 08.10.2007, 16:12

wir haben 5 DL585 G2 mit je 2 DualCores und Intel 4Port Nic's im Einsatz und sind soweit zufrieden

Member
Beiträge: 52
Registriert: 27.02.2006, 09:29
Kontaktdaten:

Beitragvon mambk » 08.10.2007, 17:14

domei hat geschrieben:Hier mal meine Messungen mit IOMETER:

P2V: 13 MB/s
P2P: 17 MB/s
V2V: 10 MB/s


ach du scheiße da ist ja meine MSA schneller, also hier scheint es wirklich irgendwie Probleme zu geben..

Member
Beiträge: 46
Registriert: 08.02.2007, 13:08
Wohnort: Basel, Schweiz

Beitragvon domei » 09.10.2007, 07:45

mambk hat geschrieben:ach du scheiße da ist ja meine MSA schneller, also hier scheint es wirklich irgendwie Probleme zu geben..


Dann poste bitte hier mal deinen Speed. Würde mich interessieren.
Hatten anfangs die ESX Umgebung auch auf MSA1000 laufen, habe dort jedoch nur getestet und keine performance Messungen gemacht.

Entweder messe ich mist (wer misst, misst mist ;) ) oder och habe einen an der Schüssel aber ich kann beim besten willen keine performance Probleme fest stellen. Wir haben jetzt doch mehr als 20 VMs produktiv im Einsatz und jeder ist begeistert von der Geschwindigkeit, nicht nur aufs Netz bezogen.

Member
Beiträge: 52
Registriert: 27.02.2006, 09:29
Kontaktdaten:

Beitragvon mambk » 09.10.2007, 09:23

hast du schon mal ein Backup mit VCB von der Service Console aus vom SAN zum SAN gemacht...

da komme ich so auf 25 MB/s (insgesamt) und das ist so langsam das ich für das Backup 10 Stunden brauche, absolut inakzeptable.

Aber bei dir scheint es ja noch langsamer zu sein.. und das mit einer EVA

Member
Beiträge: 46
Registriert: 08.02.2007, 13:08
Wohnort: Basel, Schweiz

Beitragvon domei » 09.10.2007, 09:38

Backups laufen bei uns momentan noch bisherige weise mit einem Backup Agenten. VCB wird kommen, nur nicht mehr dieses Jahr. Von dem her fehlen mir Vergleichsmöglichkeiten.

Ich kann im Moment nur synthetische Benchmarks liefern.

Member
Beiträge: 52
Registriert: 27.02.2006, 09:29
Kontaktdaten:

Beitragvon mambk » 09.10.2007, 11:12

Die einfachste Methode ist: kopieren eine große Datei in einem Windows Rechner und schaue dir im VC das Performance Chart an.

Profi
Beiträge: 535
Registriert: 04.01.2006, 12:06
Wohnort: Hamm

Beitragvon ostekl1 » 07.11.2007, 09:47

Wir stellen gerade von FSC auf HP um und sind damit voll zufrieden

Member
Beiträge: 38
Registriert: 26.07.2007, 11:30

Beitragvon monk » 21.11.2007, 15:06

Bei uns laufen auf 3 HP ProLiant 380 G5 Servern ESX Server 3.0.1.
Wir haben bis jetzt keine Probleme hinsichtlich der Performance gamacht.
Das einzige problem ist das vcbBackup eine ewigkeit für ein Backup braucht (300GB in 15Std) aber ich glaub nicht das das was mit den HP Servern zutun hat. Sondarn mit ESX Server Software.

Member
Beiträge: 38
Registriert: 26.07.2007, 11:30

Beitragvon monk » 21.11.2007, 15:06

Bei uns laufen auf 3 HP ProLiant 380 G5 Servern ESX Server 3.0.1.
Wir haben bis jetzt keine Probleme hinsichtlich der Performance gamacht.
Das einzige problem ist das vcbBackup eine ewigkeit für ein Backup braucht (300GB in 15Std) aber ich glaub nicht das das was mit den HP Servern zutun hat. Sondarn mit ESX Server Software.

Member
Beiträge: 3
Registriert: 23.09.2004, 15:31

HP 585 G2 hat defintiv ein IRQ Problem mit PCI Express Karte

Beitragvon buddy » 22.11.2007, 01:32

Ihr solltet euch mal den folgen VMware Beitrag lesen:
http://communities.vmware.com/thread/108498

Also ich sowohl HP 585 G1 und HP 585 G2.
Bei der HP 585 G1 tritt kein IRQ Sharing auf.
Bei der HP 585 G2 tritt mit PCI Expresskarten IRQ Sharing auf.
Das Problem liegt definitiv bei HP und nicht bei VMware.
Ein Bios update wird erst in März 2008 für die HP DL 585 G2 kommen,
da dann die AMD Barcelona CPU'S verfügbar sind.
Umgehen kann man das IRQ Problem nur, wnn man PCI-X und PCI Expresskarten
gleichzeitig nutzt.
Ich bin sehr gespannt darauf, ob ein HP die DL 585 G2 redesigned, und diese dann nur noch mit PCI Express 2.0 ausliefert.
Somit gilt wieder, kaufe nie Version 1.

Hielfreiche Beiträge:

http://www.tuxyturvy.com/blog/index.php ... mance.html

http://kb.vmware.com/selfservice/micros ... alId=10229

Member
Beiträge: 2
Registriert: 23.12.2007, 09:13

Beitragvon sammydavis » 23.12.2007, 09:31

wir haben 6 stk. hp bl25p blades (2 x AMD Dualcore mit 16GB RAM) an einer EVA hängen sowie an den cisco blade-switches hängen! wir haben eigentlich noch nie performanceprobleme gehabt! wir nutzen schon vcb in kombination mit dataprotector 6.0

sammydavis

Member
Beiträge: 21
Registriert: 23.08.2005, 15:23
Wohnort: Salzburg
Kontaktdaten:

Beitragvon hstrasser » 02.01.2008, 17:30

Hallo Leute,

mir sind ESX-seitig keine groben Probleme aufgefallen...

Eingesetzt werden 6 Hosts auf Version 3.0.2 (DL385G1), und weitere 6 Hosts auf 3.5 (DL585G1)

In der Vergangenheit hatten wir doch immer wieder Performanceprobleme mit einzelnen VMs, besonders, wenn hohe Last auftrat:

*Systemzeit ging alle 900sec. um 5sec. falsch!
* SQL Server Verbindungen (MSSQL2k und 05) gingen verloren!
* System freeze
* ...

also doch schon einiges und vor allem kritisches.

Diese fehler traten auf ESX 3.0.1 und auf HP DL585G1 auf.

Weiß einer von euch mehr zu Performanceproblemen auf VMs??
U.a. Datenbankservern??

Antwort wäre super!

Member
Beiträge: 5
Registriert: 18.01.2008, 16:53

Beitragvon wami24 » 21.01.2008, 11:36

Hallo,

bei uns läuft der ESX Server auf einem bzw. mehreren Blades (HP Blade Center ProLiant BL480C)

mit 4 Dual Core CPUs und 36 GB Hauptspeicher

Problemlos. Die Anbindung der VMs erfolgt über ein SAN-Netzwerk an ein EMC-System. Das einzige Problem hab ich mit VLANs über den eingebauten Nortel Switch.

Ich empfehle auf jeden Fall CISCO Hardware für aufwändigere Konfigurationen wie Load Balancing und Ether Cannel sowie VLAN-Tagging über den ESX.

lg
Michi

Member
Beiträge: 19
Registriert: 05.04.2007, 11:35

Beitragvon geeko71 » 14.02.2008, 20:46

HI,

Ich habe 16 x DL585G1, je 6 GBIt NIC und 2 Qlogic HBAs unter ESX3.0.2 laufen.
eth performance ist gut (4 Intel im Bonding), aber die Disk I/O aufs EVA dürften etwas besser sein.

Aus einer RHES4 VM ist die Disk I/0 etwa ein drittel langsamer ale ein Physikalischer server am SAN.

Ist aber auch auf IBM und Dell Maschinen der Fall.

Generell zähle ich die Proliants zu den Top-Servern der x86 (bzw. x86_64) Klasse. Einfach gute Qualität und Features. Am besten gefällt mir bei HP der "rote Faden" welcher sich durch das ganze Proliant Portfolio zieht.

Member
Beiträge: 64
Registriert: 27.03.2008, 10:23
Wohnort: Werl
Kontaktdaten:

Beitragvon MBengsch » 03.04.2008, 16:25

Hallo Zusammen,

HP Prolaint Server taugen sehr wohl zu ESX 3.x Servern.
Allerdings müssen die Onboard Nics abgeschaltet werden.
Diese verursachen nachweislich Performance Probleme.
Dieses habe ich vor kurzen mit VMware Support ud HP Support herausgefunden und bewiesen.

HP hat unserem Kunden kostenlos neue Nics geschickt und die Onboard Nics haben wir
deakiviert.
Seid dem ist die Performance mit der Proalpha DB sehr gut.


Zurück zu „ESX 3 & ESXi 3“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 2 Gäste