Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

VMware Storage Netzwerk

ESX(i)-taugliche Hardware, HCL .....

Moderatoren: irix, Dayworker

Member
Beiträge: 80
Registriert: 15.03.2010, 14:40

VMware Storage Netzwerk

Beitragvon sam36 » 23.10.2013, 09:50

Hallo zusammen,

zur Zeit bin ich in den Überlegungen wie ich am besten vorgehen könnte bei der Planung unser Infrastruktur. Gerne interessiere ich mich auch über das Zusammenspiel der Komponenten bei anderen Unternehmen. Ich stehe zur Zeit mit einem Hersteller und Dienstleister in Kontakt bezüglich dieses Unterfangens, aber mir ist es wichtig auch noch ein andere Meinung zu diesem Thema zu erhaschen

Hier mal kurz die IST Situtaion:

Zur Zeit haben wir 5 ESX Server mit 4 Netzwerkbereichen im Einsatz, unterteilt in in Kunden-Netzwerk, Hausnetz, DMZ und ISCSI Netz. Da wir im grafischen Produktionsgewerbe tätig sind, werden relativ hohe Datenmengen durchs Haus geschoben und deshalb hat jeder Server in unserem bisherigen Gigabytenetzwerk zwei Portbelegungen, also insgesamt 8 pro Server. Auf den 5 Servern laufen derzeit knapp 70 Maschinen. Als Storage dient noch eine FAS 2040 die im nächsten Jahre ersetzt wird.

Vorbereitend soll die Netzwerkkomponente getauscht werden und auf 10 G vorbereitet werden. Somit könnte die Netzwerkanbindung der geplanten neuen ESX jeweils mit 2 Ports und der Nutzung von VLANS realisiert werden. Das neue Storage wird dann ebenfalls mit 10 G Ports ausgestattet sein. Ein B2D Storage soll ebenfalls dann über 10 G angeschlosssen werden, hierüber soll dann die noch zu kaufende VEEAM Sicherung laufen.

Sollte man die Netzwerkanbindung zwischen Storage und Netapp zwingend mit Glas (SFP) realisieren? Welche Vorteile hätte das?

Wenn ich mir die durchschnittliche Netzwerklast auf den ESX Servern so anschaue, (60000 kbits) dann frage ich mich, welche Vorteile eine Vorbereitung auf 10 G überhaupt für uns hat? Das Nadelöhr sind doch eher die Paltten des Storages oder seh ich das falsch.
.

Grüße
Stefan

King of the Hill
Beiträge: 12944
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 23.10.2013, 10:28

Moin,
ich habe im Laufe der Jahre beide Arten installiert bei Kunden

Das ihr getrennte Netzbereiche habt ist schon mal sehr gut. War nur nicht 100% heraus zuhoeren ob jeweils separate Ports verwendet werden. iSCSI moechte man immer Redundant und separat haben, sprich hier geht kein anderer Traffic Typ mit drueber sofern man sich das mit den Portkosten leisten kann. In einer idialen Welt wuerde man das Storagenetz auch noch separieren. Allerdings in Umgebungen mit mit geringen Hostanzahlen ist das wirtschaftlich grenzwertig.

Sprich bei 10GB waeren es 2x 10GbE fuer Storage und 2x 10GbE fuer euren LAN und ESXi Host Traffic. Jeder Traffictyp hat sein VLAN. Wer sich auch Broadcom als NIC Typ im Server einlaesst der kann sich nPAR mal angucken welche transparent fuer den Host und pSwitch den die 10GbE auf 4 NICs partitionieren kann.

SFP+ hat eine niedriegere Latzenz, Stromverbrauch und ermoeglicht laengere Kabel als BaseT und ist auch schon laenger im produktiven Einsatz.

Allerdings ermoeglicht nur BaseT eine sanfte Migration und Abwartskompatibilitaet und da dieser Typ mittlerweile Standardmaessig auf Serverboards vorhanden ist steigt die Verbreitung Rapide an.

Die Gruende fuer den langsamen Umstieg hast du nicht dargelegt drum sei gesagt das vernuenftige 10GbE Switche nicht ganz guenstig sind und laenger man wartet desto mehr Geraete/Hersteller sind am Markt. Geh mal fuer knapp 8k von einem 24+8 Port 10G Switch aus.

Im letzten Projekt sind Highdensitiy/LowLatency 1HE Switche mit 48x10GbE + 4x40GbE zum Einsatz gekommen.

Viele Storage Hersteller bieten die Kontroller mit beiden Typen an oder aber es kommt SFP+ mit der Option ein Gbic->BaseT zuverwenden.

Deine FAS ist ja nun schon etwas aelter ;) Mich wuerde interessieren ob ihr sie auch als Filer, sprich CIFS verwendet, oder nur fuer Blockstorage.

Gruss
Joerg

Profi
Beiträge: 993
Registriert: 31.03.2008, 17:26
Wohnort: Einzugsbereich des FC Schalke 04
Kontaktdaten:

Beitragvon kastlr » 23.10.2013, 10:38

Hallo Stefan,

der Einsatz von Glasfasern anstelle von Kupfer bringt dir grundsätzlich keinen Vorteil, sofern du dich nicht in Bereichen bewegst, wo das Thema Dämpfung und/oder Übersprechen Wirkung zeigen könnte.
Beide Medien können problemlos in 10 GBit Umgebungen verwendet werden.

Wenn du mit deinen 5 ESXi Server je 60 MB/sec IO Last erzeugst, muß natürlich das Array dafür ausgelegt sein.
Da du in der Planungsphase bist, solltest du dabei dann noch eine ordentliche Reserve einplanen, denn die Virtualisierung führt in der Regel dazu, das solche Server viel länger betrieben werden als physikalische Systeme.
Man stolpert im RZ halt nicht mehr über die alten Kisten, und was macht es schon, eine VM länger laufen zu lassen.

Wichtig ist noch die Frage, ob Ihr Dienste anbietet, die entweder hohen Durchsatz oder geringe Latenz erfordern.
Denn das ist neben den zur erzielenden IO Zahlen eigentlich der entscheidende Punkt, der bei der Dimensionierung eines Arrays beachtet werden muß.

Sofern du dies bei deinen Planungen berücksichtigt, sehe ich auch im Storage Bereich kein größeres Problem auf dich zukommen.

In deinem Fall wird die Umstellung von 1 auf 10 GB kaum Auswirkunegn haben, da du aktuell vermutlich keine einzige Komponete im Grenzbereich betreibst.

Wenn z. B. deine LAN Switche aktuell zu 30-40% ausgelastet sind, wird die Umstellung auf 10 GB nur dazu führen, das deren Auslastung sinkt.
Gleiches gilt demnach für alle weiteren Komponenten, die von1 auf 10 GB umgestellt werden.

Ich würde daher von einem Wechsel von 1 auf 10 GB nicht all zu viel erwarten, allerdings würde ich ihn trotzdem durchführen, da das nun mal aktuell State-of-the-art Design ist.

Gruß,
Ralf

Member
Beiträge: 80
Registriert: 15.03.2010, 14:40

Beitragvon sam36 » 23.10.2013, 11:04

Hallo zusammen,

vielen Dank für Eure Antworten. Bei den getrennten Netzwerkbereichen wäre ich schon fast wieder auf die Nase gefallen, da ich für alle Netzwerkbereiche 2x10GbE verwendet hätte und keine Trennung zwischen der VLAN für Netzwerk und Storage vorgenommen hätte. Da wir ein kleines mittelständischen Unternehmen sind muss auf der Ausgabenseite immer mal genauer geschaut werden was in welcher Zeit realisiert werden kann. Meine Erfahrung mit der GF ist, das in einem gewissen Rahmen Investitionen immer möglich sind die einigermaßen überschaubar sind. Da 2014 ein neues Storage und ein Teil der ESX anfällt, bleiben leider ein völliger Umbau aller Komponenten noch ein Wunschdenken.

Deshalb ja auch meine Frage des Nutzens ob es wirklich entscheidende Vorteile mit sich bringt. Nur wenn ich eine neue Netapp kaufe, dann sollte ich schon wissen, wie die künftig ans Netzwerk angeschlossen wird.

Die Netapp ist unser Rundrum Paket, also nicht nicht nur Storage für die VMs sondern. Im Einsatz sind ISCSI, NFS und CIFS.

Alles in Allem habe ich etwas Angst vor einer Kosenexplosion für die Dinge an die ich nicht gedacht habe. Unsere Watchguard kann z.B. auch nur 1 GB. Ein 8 Port 10 GBASE kostet in der HP Preisliste mal eben 4k, als Projektpreis vielleicht noch etwas weniger als die Hälfte. Groß überschlagen würde der Austausch der bestehenden Netzwerkswitch ca. 18-20K kosten. Das erscheint mir sehr viel wenn es dann nur State of-fhe-art-Design ist.

Gruß
Stefan

King of the Hill
Beiträge: 12944
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 23.10.2013, 11:21

Also mit "State-of-the-Art" ziehe ich nie als Argument in Verhandlungen :). Je nach Umfeld kann doch die Lebensdauer des Netzwerks 5-10Jahre betragen und die Frage ist wie entwickelt sich der Markt und das eigene Umfeld. Der Markt zeigt die Verbreitung von 10GbE-BaseT auf Serverseite und irgendwann hat auch jedes QNAP so einen Port.

Was SFP+ angeht so muss es nicht heissen das die Kabel Fiber sind. Solange man innerhalb eines Racks bleibt bieten sich die TwinAxial ink. Optic an.

Also ein(zwei) 8Port Switch waere mir zuwenig auf lange Sicht. Je nach Architektur und ob die Switche redundant mit einander verbunden werden muessen sind bei 5 Hosts + Storage ja schon alle Ports vom Start weg belegt. Reserve fuer 2-3 Hosts sowie mal ein weiteres Storage, und sei es nur fuer die Migration/Abloesung, sollte eingeplant werden.

Bitte auch immer drauf achten das die Switche iSCSI geeignet sind. Nur weil irgendwo CISCO oder HP drauf steht sind sie das nicht automatisch.

Gruss
Joerg


Zurück zu „Hardware“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 10 Gäste