Seite 1 von 1
1x 10GB pro Server vorhanden - wie einsetzen???
Verfasst: 24.05.2012, 08:34
von stahly
Hallo allerseits!
Wir habe jetzt endlich 2 neue Server bekommen (x3850 X5 - 40C - 1TB Memory). Angeschlossen werden die Richtung SAN mit 2x 8GB FC.
Netzwerkseitig sind reichlich 1GB Kupferanschlüsse vorhanden. Zusätzlich noch 2x 10GB pro Server (endlich!!!

)
Leider sind an unseren Switchen nur noch 2 Ports für 10GB frei, so dass pro Server nur 1 Anschluss genutzt werden kann.
Jetzt zur Frage: Wie würdet ihr diesen Anschluss nutzen? Mein favorisierte Lösung ist, diesen Port ins Managementnetz zu nehmen, um im Wartungsfall die 1TB Speicher schnellstmöglich leer zu räumen.
Habt ihr eine bessere Lösung? Schonmal vielen Dank für eure Ratschläge!
Verfasst: 24.05.2012, 08:48
von Supi
Die IBM x3850 X5 sind schon richtige "Geschosse". Was kostet denn so ein Teil in dieser Config?
Auch wenn diese so eine hohe Konsolidierungsrate ermöglichen, habe ich doch ein großes Problem, wenn so ein Host mal ausfällt (Mainboard defekt).
Da ist auf einen Schlag ganz viel Power weg...Wenn ich 4-5 von diesen Server hab, ist das ok.
Aber wenns nur 2-3 sind?
Zu der Frage: Wenn du sonst keinen Anwendungsfall hast(Storage ja FC), der die 10GB Leitung auslastet, dann macht das sicher so Sinn.
Verfasst: 24.05.2012, 08:53
von mangold
wie räumst du denn leer? Normalerweise, wenn es geplant ist, macht man das über das vmotion Netzwerk, denn die VMs müssen nicht herunter gefahren werden. Das vmotion Netzwerk wird für den normalen Betrieb auch nicht benötigt, sollte also mal was mit diesem Anschluss sein laufen die VMs erstmal weiter. Nachteil; du bekommst dann die VMs aber auch nicht ohne Neustart runter

wenn sie herunter gefahren werden, geht das natürlich auch ohne vmotion Netzwerk. Vor allem mit 64Bit Systemen wird der vRam pro VM ja auch nicht grad weniger, da kann das evakuieren eines Hostes mit einem performanten Vmotion Netzwerk deutlich schneller gehen. Natürlich nur, wenn ihr auch vmotion betreibt.
Da Management Netzwerk benötigt "eigentlich" keine schnelle Anbindung, aber das ist abhängig von eurer Backup/Restore Lösung. Früher hat man das Backup und Restore von VMs auch über dieses Netzwerk gemacht, in Zeiten der vStorage API ist das aber auch nicht mehr notwendig. Ausserdem sollte das MGM Netzwerk redundant angeschlossen sein (der Host "meckert" ansonsten), es ist auch sehr ungünstig, wenn der Host nicht erreichbar ist, und man eine Störung beheben möchte.
Zum Schluss wäre natürlich das Datennetzwerk, welches immer redundant sein sollte, hier fiele mir nur mangelnde Bandbreite mit 1Gb ein als Grund ein, hier die einzelne 10Gb Verbindung zu nutzen.
Fazit; ich würde das als VMotion Netzwerk nutzen (wenn ihr das überhaupt verwendet)
Verfasst: 24.05.2012, 09:13
von stahly
Die Kosten für so ein Maschinchen liegen bei unter 50k. (Vor der Preisverhandlung

)
Leerräumen lasse ich die Server meistens automatisch, sobald ich den Wartungsmodus wechsele. Die VMs bleiben natürlich eingeschaltet (also vMotion).
Im Datennnetz sehe ich auch nicht so den Engpass. Zur Zeit ist das mit 4x 1GB angeschlossen. Erweiterung möglich.
Verfasst: 24.05.2012, 09:24
von Dectall
Wir haben bei uns seit Anfang des Jahres auch 10GB im Einsatz,
Beim ersten Cluster haben wir erstmal nur die Guest-vSwitche reingenommen (Also reines VLAN-Trunking für den Verkehr), allerdings Online und Standby Adapter
Beim zweiten (Da gabs vom Chef mal mehr Zeit zur Vorbereitung und aufbau ^^) sind ebenfalls zwei Dualport-10GE-Adapter drin, da ist jeweils Guest (Online und Standby) und jeweils den OnlineAdapter von vMotion und FT. management läuft komplett über die 1 GE Onboard Karten. Seh ich auch so keinen Sinn drin, die auf 10 GE zu packen, ist doch nur die Schnittstelle für die Konnektivität zwischen vCenter und Host? Da reicht 1 GE dicke aus, denk ich.
Ich würd vMotion drauf legen, is richtig nett, wenn SAN und Hosts selbst genug Power haben, geht die Migration echt flux von der Hand, nett anzusehen.
Verfasst: 24.05.2012, 09:35
von PeterDA
Hi,
wenn es´dir darum geht die Kisten möglichst schnell leer zu bekommen, würde ich die 10GB Adapter ins vMotion Netz schalten und hier zusätzlich min einen 1GB Adapter als Standby hinzu konfigurieren.
Gruß Peter
Verfasst: 24.05.2012, 10:00
von irix
Da man das Netzwerk dahinter nicht kennt.
Ich wuerde alles ueber den einen 10GbE laufen lassen und jede PG dann nochmals 1GbE als Standby beistellen. Es wuerde noch die Moeglichkeit gegen per Trafficshaping etwas zu regulieren aber das haben wir hier nie benoetigt und selbst dann muss man wissen das ein vMotion ein 10GbE nicht auslastet sondern so max. 2-3Gbit macht.
Ich habe schon Probleme gesehen das der default Timeout von 15min fuer den Wartungsmodus ueberschritten wird wenn man da sehr viel Memory ueber den Draht schieben muss und ich bin Froh ueber unsere 2x10GbE
Gruss
Joerg
Verfasst: 24.05.2012, 10:17
von stahly
irix hat geschrieben:...
Ich wuerde alles ueber den einen 10GbE laufen lassen
...
Alles? Also Management, vMotion und Datennetzwerk der VMs?
irix hat geschrieben:...
und selbst dann muss man wissen das ein vMotion ein 10GbE nicht auslastet sondern so max. 2-3Gbit macht.
...
2-4 Gbit pro vMotion-Vorgang oder insgesamt? Es sind ja 8 vMotions pro Host gleichzeitig möglich.
Verfasst: 24.05.2012, 17:05
von sirrossi
Moin stahly,
ja Alles über die 10 GE, ist ja in Summe mehr als Dir bisher über die 1 Gbit/s Interfaces zur Verfügung steht, oder
Weiterhin dann verbleibende 1 Gbit/s Interfaces als Standby konfiguriert.
Und ja, vMotion wird Dir das Interface nur zu etwa 1/3 auslasten, die max. 8 gleichzeitigen Motion Vorgänge teilen sich diese Bandbreite.
Verfasst: 25.05.2012, 08:23
von stahly
O.K. - Also alles über ein Kabel (+Standby) - da muss man sich erst dran gewöhnen. Vorher alles schön getrennt, damit es zu keinen Konflikten / Engpässen kommt und jetzt, alles durch eine Leitung
Das bedeutet ja auch, dass es nur noch einen vSwitch gibt. Richtig?
Verfasst: 25.05.2012, 08:34
von irix
stahly hat geschrieben:O.K. - Also alles über ein Kabel (+Standby) - da muss man sich erst dran gewöhnen. Vorher alles schön getrennt, damit es zu keinen Konflikten / Engpässen kommt und jetzt, alles durch eine Leitung

"One big pipe to rule them all"
Du hast gefragt was mit dem vorhandenem sinnvoll gemacht werden kann. Es verbleibt natuerlich wie anders auch das mittels VLANs alles getrennt wird.
Unsere Kisten haben 4x10GbE wovon 2x fuer Storage ist und 2x fuer alles andere mit Ausnahme von DMZ.
Das bedeutet ja auch, dass es nur noch einen vSwitch gibt. Richtig?
Ja.
Gruss
Joerg
Verfasst: 25.05.2012, 08:37
von MarcelMertens
Wenn du dvSwitches hast kannst du pro PortGruppe eine max. Bandbreite definieren.
Verfasst: 25.05.2012, 09:30
von irix
MarcelMertens hat geschrieben:Wenn du dvSwitches hast kannst du pro PortGruppe eine max. Bandbreite definieren.
Geht auch mit vSS sofern man nur Ausgehend einschraenken moechte. Bei Einsatz von vDS wuerde ich mein MGMT da aber, nach leidlicher Erfahrung, nur ungern mit drauf legen. Aber das war hier ja nicht das Thema.
Gruss
Joerg
Verfasst: 25.05.2012, 09:46
von stahly
Ist noch ein Standard Switch.