Hallo! -> HILFE!
Folgende Situation:
Server ist mit 4 x gBit an Switch angeschlossen. NFS Server ist auch mit 4 x gBit an Switch angeschlossen. Nic Teaming ist am NFS-Storage und am ESXi aktiviert. Alle Modes durchprobiert. Switch unterstützt diese Spielerein natürlich.
So, die HDD Performance ist aber extrem schlecht. Das NFS bringt ca. 200MB/Sec. Am Windows Server sinds aber nur mehr ~ 20Mb/sec. Ich habe hier nun alle Einträge gelesen und alles probiert was mir in den Sinn gekommen ist. Jetzt brauche ich Eure Hilfe.
Wir haben hier auch 2 x 10gBit Karten liegen, die werden aber vom ESXi noch nicht unterstützt.
Mir ist bewusst das pro Client dann max ~ 72MB/Sec möglich sind, aber so könnte man das Maximum des Storage voll ausnutzen.
Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!
NFS Performance 4 x gBit
Hallo,
also denke du hast alles richtige gemacht da soweit ich weiß der ESXi kein Load Balancing für NFS kann.
Was für eine "storage" hast du? Meine Empfehlung wäre ien Solaris 10 mit NFS, geht 1a und wird supportet (da das ja auch auf den SUN Büchsen läuft die auf der HCL sind).
Meine Empfehung wäre 4 IPs am NFS und 4 Mounts. Das ganze dann mit 2 vSwitches und 4 mal VMkernel. So kannst du immer einen Link als Standby definieren pro VMkernel.
Damit sollte das klappen und die Perfromance besser sein.
also denke du hast alles richtige gemacht da soweit ich weiß der ESXi kein Load Balancing für NFS kann.
Was für eine "storage" hast du? Meine Empfehlung wäre ien Solaris 10 mit NFS, geht 1a und wird supportet (da das ja auch auf den SUN Büchsen läuft die auf der HCL sind).
Meine Empfehung wäre 4 IPs am NFS und 4 Mounts. Das ganze dann mit 2 vSwitches und 4 mal VMkernel. So kannst du immer einen Link als Standby definieren pro VMkernel.
Damit sollte das klappen und die Perfromance besser sein.
-
kastlr
- Profi
- Beiträge: 993
- Registriert: 31.03.2008, 17:26
- Wohnort: Einzugsbereich des FC Schalke 04
- Kontaktdaten:
Hallo,
falls du einen VMworld Account hast, kannst du dir eine anständige Präsentation zu diesem Thema herunterladen.
NFS & iSCSI: Performance Characterization and Best Practices in ESX 3.5
Alternativ kannst du auch folgende Website zu diesem Thema nutzen.
A “Multivendor Post” to help our mutual NFS customers using VMware
Viel Erfolg
Ralf
falls du einen VMworld Account hast, kannst du dir eine anständige Präsentation zu diesem Thema herunterladen.
NFS & iSCSI: Performance Characterization and Best Practices in ESX 3.5
Alternativ kannst du auch folgende Website zu diesem Thema nutzen.
A “Multivendor Post” to help our mutual NFS customers using VMware
Viel Erfolg
Ralf
PANIC hat geschrieben:Hallo,
also denke du hast alles richtige gemacht da soweit ich weiß der ESXi kein Load Balancing für NFS kann.
Was für eine "storage" hast du? Meine Empfehlung wäre ien Solaris 10 mit NFS, geht 1a und wird supportet (da das ja auch auf den SUN Büchsen läuft die auf der HCL sind).
Meine Empfehung wäre 4 IPs am NFS und 4 Mounts. Das ganze dann mit 2 vSwitches und 4 mal VMkernel. So kannst du immer einen Link als Standby definieren pro VMkernel.
Damit sollte das klappen und die Perfromance besser sein.
Hallo!
Und Danke für die Rückmeldung. Als Storage wird ein HP Proliant DL320s (DualCore Xeon 3066/8GB Ram) mit 12 x 1TB (3,5" Samsung F1 Raid Edition) HDDs an einem HP P400/512MB BBWC verwendet.
Das mit den 4 IPs habe ich noch nicht probiert und ist sicherlich eine Überlegung wert.
kastlr hat geschrieben:Hallo,
falls du einen VMworld Account hast, kannst du dir eine anständige Präsentation zu diesem Thema herunterladen.
NFS & iSCSI: Performance Characterization and Best Practices in ESX 3.5
Alternativ kannst du auch folgende Website zu diesem Thema nutzen.
A “Multivendor Post” to help our mutual NFS customers using VMware
Viel Erfolg
Ralf
Danke!
Werde ich mir gleich mal reinziehen.
Datacore SANmelody wäre sicherlich eine Möglichkeit. Dazu noch eine Dual- oder Quadport NIC für iSCSI und du hast auf jeden Fall etwas mehr Performance durch das Caching.
Wenn du dich für DataCore interessierst, einfach Fragen. Ich bin DCIE und HP Master ASE. Die Kombi HP und DataCore kenne ich ganz gut.
Wenn du dich für DataCore interessierst, einfach Fragen. Ich bin DCIE und HP Master ASE. Die Kombi HP und DataCore kenne ich ganz gut.
PANIC hat geschrieben:Wenn du Load Balancing willst, wirst du um iSCSI oder FC nicht herumkommen.
Möglichkeit wäre auf der DL 320 eine Datacore SANmeldody zu installieren.
Da sieht man das ich wohl falsch gedacht habe. Ich dachte ESXi Loadbalancing + Storage Loadbalancing - sollte es tun. Mir war schon bewusst das ich einen gewissen Overhead haben würde, da das Storage aber rund 200MB/sec bringt und 4 x gBit ca. 4 x 72MB/sec sind...
Falsch gedacht. Kann mir jemand erklären warum das so nicht funktioniert?
iSCSI ist sicher eine Überlegung, habe ich bisher noch nicht gebaut, sollte aber mit Openfiller relativ leicht zu meistern sein.
Wir hätten ja 2 x 10gBit Karten, aber VMWare erkennt die leider nicht
bla!zilla hat geschrieben:Datacore SANmelody wäre sicherlich eine Möglichkeit. Dazu noch eine Dual- oder Quadport NIC für iSCSI und du hast auf jeden Fall etwas mehr Performance durch das Caching.
Wenn du dich für DataCore interessierst, einfach Fragen. Ich bin DCIE und HP Master ASE. Die Kombi HP und DataCore kenne ich ganz gut.
Danke für das Angebot! Ich muss mich aber erst einlesen was das überhaupt ist *gg*. Vmware ist ne never ending story und ich beschäftige mich erst seit ein paar Monaten damit. Komme zwar aus der Linux schiene, aber das hilft mir hier weniger als erwartet.
Es soll hald immer alles leistbar bleiben. Wir verkaufen das an klein und mittelständische Unternehmen. Heisst zwischen 3 und 25 Virtualisierungen. Und es spielt hier leider fast jeder Euro eine Rolle. Also versuchen wir ums Geld das Beste zu bauen. Man lernt ja.
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 25 Gäste