Seite 1 von 1

Pro / Contra Einen- oder Mehrere dvSwitches

Verfasst: 21.03.2012, 07:25
von MarcelMertens
Hallo Zusammen,

ich plane gerade eine größere VMware Umgebung und stelle mir die Frage welches dvSwitch Szenario sinnvoller ist:

Je Server 8 Uplink Ports (HP Server mit 2 10Ge links, aufgeteilt auf 2* 4 FlexNICs mit VirtualConnect):

10Ge Uplink 1 = vmnic0 - vmnic3
10Ge Uplink 2 = vmnic4 - vmnic7
vmnic0,vmnic4 = Kein Bandbreitenlimit
vmnic1,vmnic5 = je 5Gb/s
vmnic2,vmnic6 = je 2Gb/s
vmnic3,vmnic7 = je 2Gb/s

Folgende LAN Segmente müssen Abgebildet werden:

- Production (mit VPX NetScaler und VMAC -> aktiver Link nur über einen 10Ge Port)
- PXE Services (Citrix Provisioning Services)
- 3* internes Magement
- vMotion


Meine Idee:

dvSwitch_Production, active uplink: vmnic0, standby uplink: vmnic4
|-> Portgruppe: Production

dvSwitch_PXE_PVS, active uplink: vmnic1, vmnic5
|-> Portgruppe PXE_PVS

dvSwitch_Internal, active uplink: vmnic2, vmnic6
|-> Portgruppe Management1 [vmk0]
|-> Portgruppe Management2
|-> Portgruppe Management3

dvSwitch_Internal, active uplink: vmnic3, vmnic7
|-> Portgruppe vMotion [vmk1]

Alternative: Ein dvSwitch

dvSwitch_All
|-> Portgruppe: Production, active uplink: vmnic0, standby uplink: vmnic4
|-> Portgruppe PXE_PVS, active uplink: vmnic1, vmnic5
|-> Portgruppe Management1 [vmk0], active uplink: vmnic1, vmnic5
|-> Portgruppe Management2, active uplink: vmnic1, vmnic5
|-> Portgruppe Management3, active uplink: vmnic1, vmnic5
|-> Portgruppe vMotion [vmk1], active uplink: vmnic3, vmnic7

Welche Lösung ist zu bevorzugen, welche Nachteile / Vorteile hat welche Lösung

Viele Grüße,

Marcel

Verfasst: 21.03.2012, 08:10
von Tschoergez
Hi!
Arbeitest Du mit VLANs?

Ist das vCenter auch ne VM, die auf diesem Cluster läuft?

Brauchst Du zwingend dvSwitches fürs Management?
(Da gibts eine schöne zirkuläre Abhängigkeit, wenn das vCenter an nem dvSwitch hängt!)

Wenn Du die beiden letzten Fragen mit ja beantwortest, würd ich eher in Richtung mehrere Switches gehen, um im Notfall die vCenter VM leichter umhängen zu können.
Außerdem sieht man bei mehreren Switchen halt gleich, was wie connected ist, und muss sich nicht erst in die Portgruppen-Konfig reinklicken.
Allerdings spielt das bei Flex10-Adaptern eigentlich keine Rolle, weil man ja eh keine Kabel mehr hat :grin: ..

Ein einzelner dvSwitch brauch etwas weniger Verwaltungsoverhead (=memory auf dem ESX), aber das ist eigentlich zu vernachlässigen.

Wenn Du aber weißt, wie man zur Not (dann nur via ESX Konsole) auch einen einzelnen dvSwitch troubleshooten kann, ist ein einzelner Switch halt eher "konsolidiertes" Management, wie man das vielleicht von den VirtualConnect-Modulen gewohnt ist.

=> Die übliche Antwort: Es gibt kein richtig, oder falsch, IT DEPENDS :grin:

Viele Grüße,
Jörg

Verfasst: 21.03.2012, 08:59
von MarcelMertens
Ja, ich arbeite mit VLANs,
Ja, das vCenter wird eine VM im selben Cluster
Ja, der Verwaltungs-VMK Port soll auch im dvSwitch hängen.

Troubleshooting wird es nicht geben -> 24 Node Cluster, wenn was kaputt ist Neuinstallation über Kickstart Scipt (Autodeploy ist nicht gewünscht). (Zur Not weiß ich aber wie es geht ;))

Da ich noch nicht so viel mit dvSwitches gemacht habe, interessiert mich einfach ob es irgendwo einen Nachteil gibt den ich nicht berücksichtig habe.

Verfasst: 21.03.2012, 11:16
von sirrossi
Ja, so ein einzelner Standard Switch kann bei heiklen Konfigurationsänderungen der dvSwitche schon eine hilfreiche Rückzugszone sein. ;)

Verfasst: 21.03.2012, 11:28
von bla!zilla
Ich würde, zumindest für das Management, einen normalen vSwitch einsetzen. Darüber kannst du ja auch vMotion ziehen.

Verfasst: 22.03.2012, 13:52
von roeschu
Verwende hier auch Flex 10 Virtual Connect und bin auch eine neue Umgebung unter vsphere5 am aufbauen. Ich machs so:

2 Flex module mit je einem Shared Uplink Sets, 10Gb uplink Ports pro Set


2 FlexNics Active/Active = Mgtm Konsole
2 FlexNics Active/Active = NFS Vmkernel Storage Anbindung
2 FlexNics Active/Active = Multiple Networks (Kunden Vlans, bis zu 30 - 40 Vlans)
2 FlexNics Active/Active = Vmotion

Mgtm, NFS Vmkernel und Vmotion sind normale Vmware Standardswitches, Multiple Networks ist ein dvSwitch. Dies deshalb weil es einfach nur im "Multiple Networks" regelmässige Vlan Aenderungen gibt etc. Ausserdem ist mir einfach wohler dabei wenn vmotion, mgt und NFS vmkernel nach wie vor über dedizierte NICs und Standard Switches laufen. Einfach weil ich es mir so gewohnt bin und weil ich bis jetzt noch nicht viel mit DvSwitch gearbeitet habe.

Gerade mit den 10Gb Ports sieht man immer mehr Umgebungen welche einfach zwei 10Gb NIC's an einem dvSwitch haben und alles darüber nehmen. Konnte gerade letzte Woche mit einem Flex10 Spezialisten von HP sprechen und der meinte dass die Konfiguration die obige Konfiguration mit 8 Flex Nics Sinn macht. Diesbetreffend findest du ansonsten auch Flex/Vmware Best Practice Sheets unter dessen URL http://www.sallustio.ch/blade/

Ein Problem hättest du natürlich wenn du noch dedizierte Nics für Fault Tolerance brauchen würdest, dann würden die 8 möglichen Flex Nics nicht reichen und du müsstest noch so ein Mezzanine Chip reintun...

Verfasst: 22.03.2012, 20:28
von MarcelMertens
Danke für den Super Link ;)

ich werd mir das nochmal durch den kopf gehen lassen.
derzeit ist noch konzeptphase.
Ich habe nur das Problem, dass das Produktivlan nur Active/Standby sein kann, da dort ein NetScaler mit vMAC auf 4 Nics läuft.