Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

1x 10GB pro Server vorhanden - wie einsetzen???

Moderatoren: Dayworker, irix

Member
Beiträge: 480
Registriert: 03.08.2010, 11:13
Wohnort: Sauerland

1x 10GB pro Server vorhanden - wie einsetzen???

Beitragvon stahly » 24.05.2012, 08:34

Hallo allerseits!

Wir habe jetzt endlich 2 neue Server bekommen (x3850 X5 - 40C - 1TB Memory). Angeschlossen werden die Richtung SAN mit 2x 8GB FC.

Netzwerkseitig sind reichlich 1GB Kupferanschlüsse vorhanden. Zusätzlich noch 2x 10GB pro Server (endlich!!! ;) )
Leider sind an unseren Switchen nur noch 2 Ports für 10GB frei, so dass pro Server nur 1 Anschluss genutzt werden kann.

Jetzt zur Frage: Wie würdet ihr diesen Anschluss nutzen? Mein favorisierte Lösung ist, diesen Port ins Managementnetz zu nehmen, um im Wartungsfall die 1TB Speicher schnellstmöglich leer zu räumen.

Habt ihr eine bessere Lösung? Schonmal vielen Dank für eure Ratschläge!

Experte
Beiträge: 1337
Registriert: 25.04.2009, 11:17
Wohnort: Thüringen

Beitragvon Supi » 24.05.2012, 08:48

Die IBM x3850 X5 sind schon richtige "Geschosse". Was kostet denn so ein Teil in dieser Config?
Auch wenn diese so eine hohe Konsolidierungsrate ermöglichen, habe ich doch ein großes Problem, wenn so ein Host mal ausfällt (Mainboard defekt).
Da ist auf einen Schlag ganz viel Power weg...Wenn ich 4-5 von diesen Server hab, ist das ok.
Aber wenns nur 2-3 sind?

Zu der Frage: Wenn du sonst keinen Anwendungsfall hast(Storage ja FC), der die 10GB Leitung auslastet, dann macht das sicher so Sinn.

Benutzeravatar
Profi
Beiträge: 743
Registriert: 23.07.2008, 14:09
Wohnort: Usa
Kontaktdaten:

Beitragvon mangold » 24.05.2012, 08:53

wie räumst du denn leer? Normalerweise, wenn es geplant ist, macht man das über das vmotion Netzwerk, denn die VMs müssen nicht herunter gefahren werden. Das vmotion Netzwerk wird für den normalen Betrieb auch nicht benötigt, sollte also mal was mit diesem Anschluss sein laufen die VMs erstmal weiter. Nachteil; du bekommst dann die VMs aber auch nicht ohne Neustart runter :grin: wenn sie herunter gefahren werden, geht das natürlich auch ohne vmotion Netzwerk. Vor allem mit 64Bit Systemen wird der vRam pro VM ja auch nicht grad weniger, da kann das evakuieren eines Hostes mit einem performanten Vmotion Netzwerk deutlich schneller gehen. Natürlich nur, wenn ihr auch vmotion betreibt.

Da Management Netzwerk benötigt "eigentlich" keine schnelle Anbindung, aber das ist abhängig von eurer Backup/Restore Lösung. Früher hat man das Backup und Restore von VMs auch über dieses Netzwerk gemacht, in Zeiten der vStorage API ist das aber auch nicht mehr notwendig. Ausserdem sollte das MGM Netzwerk redundant angeschlossen sein (der Host "meckert" ansonsten), es ist auch sehr ungünstig, wenn der Host nicht erreichbar ist, und man eine Störung beheben möchte.

Zum Schluss wäre natürlich das Datennetzwerk, welches immer redundant sein sollte, hier fiele mir nur mangelnde Bandbreite mit 1Gb ein als Grund ein, hier die einzelne 10Gb Verbindung zu nutzen.

Fazit; ich würde das als VMotion Netzwerk nutzen (wenn ihr das überhaupt verwendet)

Member
Beiträge: 480
Registriert: 03.08.2010, 11:13
Wohnort: Sauerland

Beitragvon stahly » 24.05.2012, 09:13

Die Kosten für so ein Maschinchen liegen bei unter 50k. (Vor der Preisverhandlung ;) )

Leerräumen lasse ich die Server meistens automatisch, sobald ich den Wartungsmodus wechsele. Die VMs bleiben natürlich eingeschaltet (also vMotion).

Im Datennnetz sehe ich auch nicht so den Engpass. Zur Zeit ist das mit 4x 1GB angeschlossen. Erweiterung möglich.

Member
Beiträge: 57
Registriert: 02.03.2012, 08:15

Beitragvon Dectall » 24.05.2012, 09:24

Wir haben bei uns seit Anfang des Jahres auch 10GB im Einsatz,

Beim ersten Cluster haben wir erstmal nur die Guest-vSwitche reingenommen (Also reines VLAN-Trunking für den Verkehr), allerdings Online und Standby Adapter

Beim zweiten (Da gabs vom Chef mal mehr Zeit zur Vorbereitung und aufbau ^^) sind ebenfalls zwei Dualport-10GE-Adapter drin, da ist jeweils Guest (Online und Standby) und jeweils den OnlineAdapter von vMotion und FT. management läuft komplett über die 1 GE Onboard Karten. Seh ich auch so keinen Sinn drin, die auf 10 GE zu packen, ist doch nur die Schnittstelle für die Konnektivität zwischen vCenter und Host? Da reicht 1 GE dicke aus, denk ich.

Ich würd vMotion drauf legen, is richtig nett, wenn SAN und Hosts selbst genug Power haben, geht die Migration echt flux von der Hand, nett anzusehen.

Benutzeravatar
Guru
Beiträge: 3138
Registriert: 22.02.2008, 20:01
Wohnort: Hessen

Beitragvon PeterDA » 24.05.2012, 09:35

Hi,
wenn es´dir darum geht die Kisten möglichst schnell leer zu bekommen, würde ich die 10GB Adapter ins vMotion Netz schalten und hier zusätzlich min einen 1GB Adapter als Standby hinzu konfigurieren.

Gruß Peter

King of the Hill
Beiträge: 13066
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 24.05.2012, 10:00

Da man das Netzwerk dahinter nicht kennt.

Ich wuerde alles ueber den einen 10GbE laufen lassen und jede PG dann nochmals 1GbE als Standby beistellen. Es wuerde noch die Moeglichkeit gegen per Trafficshaping etwas zu regulieren aber das haben wir hier nie benoetigt und selbst dann muss man wissen das ein vMotion ein 10GbE nicht auslastet sondern so max. 2-3Gbit macht.

Ich habe schon Probleme gesehen das der default Timeout von 15min fuer den Wartungsmodus ueberschritten wird wenn man da sehr viel Memory ueber den Draht schieben muss und ich bin Froh ueber unsere 2x10GbE :)

Gruss
Joerg

Member
Beiträge: 480
Registriert: 03.08.2010, 11:13
Wohnort: Sauerland

Beitragvon stahly » 24.05.2012, 10:17

irix hat geschrieben:...
Ich wuerde alles ueber den einen 10GbE laufen lassen
...


Alles? Also Management, vMotion und Datennetzwerk der VMs?

irix hat geschrieben:...
und selbst dann muss man wissen das ein vMotion ein 10GbE nicht auslastet sondern so max. 2-3Gbit macht.
...


2-4 Gbit pro vMotion-Vorgang oder insgesamt? Es sind ja 8 vMotions pro Host gleichzeitig möglich.

Benutzeravatar
Member
Beiträge: 446
Registriert: 11.03.2008, 12:28
Wohnort: Seligenstadt

Beitragvon sirrossi » 24.05.2012, 17:05

Moin stahly,

ja Alles über die 10 GE, ist ja in Summe mehr als Dir bisher über die 1 Gbit/s Interfaces zur Verfügung steht, oder :?:
Weiterhin dann verbleibende 1 Gbit/s Interfaces als Standby konfiguriert.

Und ja, vMotion wird Dir das Interface nur zu etwa 1/3 auslasten, die max. 8 gleichzeitigen Motion Vorgänge teilen sich diese Bandbreite.

Member
Beiträge: 480
Registriert: 03.08.2010, 11:13
Wohnort: Sauerland

Beitragvon stahly » 25.05.2012, 08:23

O.K. - Also alles über ein Kabel (+Standby) - da muss man sich erst dran gewöhnen. Vorher alles schön getrennt, damit es zu keinen Konflikten / Engpässen kommt und jetzt, alles durch eine Leitung ;)

Das bedeutet ja auch, dass es nur noch einen vSwitch gibt. Richtig?

King of the Hill
Beiträge: 13066
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 25.05.2012, 08:34

stahly hat geschrieben:O.K. - Also alles über ein Kabel (+Standby) - da muss man sich erst dran gewöhnen. Vorher alles schön getrennt, damit es zu keinen Konflikten / Engpässen kommt und jetzt, alles durch eine Leitung ;)


"One big pipe to rule them all"
Du hast gefragt was mit dem vorhandenem sinnvoll gemacht werden kann. Es verbleibt natuerlich wie anders auch das mittels VLANs alles getrennt wird.

Unsere Kisten haben 4x10GbE wovon 2x fuer Storage ist und 2x fuer alles andere mit Ausnahme von DMZ.

Das bedeutet ja auch, dass es nur noch einen vSwitch gibt. Richtig?


Ja.

Gruss
Joerg

Member
Beiträge: 360
Registriert: 13.07.2011, 15:33

Beitragvon MarcelMertens » 25.05.2012, 08:37

Wenn du dvSwitches hast kannst du pro PortGruppe eine max. Bandbreite definieren.

King of the Hill
Beiträge: 13066
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 25.05.2012, 09:30

MarcelMertens hat geschrieben:Wenn du dvSwitches hast kannst du pro PortGruppe eine max. Bandbreite definieren.


Geht auch mit vSS sofern man nur Ausgehend einschraenken moechte. Bei Einsatz von vDS wuerde ich mein MGMT da aber, nach leidlicher Erfahrung, nur ungern mit drauf legen. Aber das war hier ja nicht das Thema.

Gruss
Joerg

Member
Beiträge: 480
Registriert: 03.08.2010, 11:13
Wohnort: Sauerland

Beitragvon stahly » 25.05.2012, 09:46

Ist noch ein Standard Switch.


Zurück zu „vSphere 5 / ESXi 5 und 5.1“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast