Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

Pro / Contra Einen- oder Mehrere dvSwitches

Alles zum Virtualisierungsmanagement und Servermanagement, was nicht direkt in ein festes Version-Schema paßt.

Moderatoren: irix, Dayworker

Member
Beiträge: 360
Registriert: 13.07.2011, 15:33

Pro / Contra Einen- oder Mehrere dvSwitches

Beitragvon MarcelMertens » 21.03.2012, 07:25

Hallo Zusammen,

ich plane gerade eine größere VMware Umgebung und stelle mir die Frage welches dvSwitch Szenario sinnvoller ist:

Je Server 8 Uplink Ports (HP Server mit 2 10Ge links, aufgeteilt auf 2* 4 FlexNICs mit VirtualConnect):

10Ge Uplink 1 = vmnic0 - vmnic3
10Ge Uplink 2 = vmnic4 - vmnic7
vmnic0,vmnic4 = Kein Bandbreitenlimit
vmnic1,vmnic5 = je 5Gb/s
vmnic2,vmnic6 = je 2Gb/s
vmnic3,vmnic7 = je 2Gb/s

Folgende LAN Segmente müssen Abgebildet werden:

- Production (mit VPX NetScaler und VMAC -> aktiver Link nur über einen 10Ge Port)
- PXE Services (Citrix Provisioning Services)
- 3* internes Magement
- vMotion


Meine Idee:

dvSwitch_Production, active uplink: vmnic0, standby uplink: vmnic4
|-> Portgruppe: Production

dvSwitch_PXE_PVS, active uplink: vmnic1, vmnic5
|-> Portgruppe PXE_PVS

dvSwitch_Internal, active uplink: vmnic2, vmnic6
|-> Portgruppe Management1 [vmk0]
|-> Portgruppe Management2
|-> Portgruppe Management3

dvSwitch_Internal, active uplink: vmnic3, vmnic7
|-> Portgruppe vMotion [vmk1]

Alternative: Ein dvSwitch

dvSwitch_All
|-> Portgruppe: Production, active uplink: vmnic0, standby uplink: vmnic4
|-> Portgruppe PXE_PVS, active uplink: vmnic1, vmnic5
|-> Portgruppe Management1 [vmk0], active uplink: vmnic1, vmnic5
|-> Portgruppe Management2, active uplink: vmnic1, vmnic5
|-> Portgruppe Management3, active uplink: vmnic1, vmnic5
|-> Portgruppe vMotion [vmk1], active uplink: vmnic3, vmnic7

Welche Lösung ist zu bevorzugen, welche Nachteile / Vorteile hat welche Lösung

Viele Grüße,

Marcel

Benutzeravatar
Moderator
Beiträge: 3476
Registriert: 23.02.2005, 09:14
Wohnort: Burgberg im Allgäu
Kontaktdaten:

Beitragvon Tschoergez » 21.03.2012, 08:10

Hi!
Arbeitest Du mit VLANs?

Ist das vCenter auch ne VM, die auf diesem Cluster läuft?

Brauchst Du zwingend dvSwitches fürs Management?
(Da gibts eine schöne zirkuläre Abhängigkeit, wenn das vCenter an nem dvSwitch hängt!)

Wenn Du die beiden letzten Fragen mit ja beantwortest, würd ich eher in Richtung mehrere Switches gehen, um im Notfall die vCenter VM leichter umhängen zu können.
Außerdem sieht man bei mehreren Switchen halt gleich, was wie connected ist, und muss sich nicht erst in die Portgruppen-Konfig reinklicken.
Allerdings spielt das bei Flex10-Adaptern eigentlich keine Rolle, weil man ja eh keine Kabel mehr hat :grin: ..

Ein einzelner dvSwitch brauch etwas weniger Verwaltungsoverhead (=memory auf dem ESX), aber das ist eigentlich zu vernachlässigen.

Wenn Du aber weißt, wie man zur Not (dann nur via ESX Konsole) auch einen einzelnen dvSwitch troubleshooten kann, ist ein einzelner Switch halt eher "konsolidiertes" Management, wie man das vielleicht von den VirtualConnect-Modulen gewohnt ist.

=> Die übliche Antwort: Es gibt kein richtig, oder falsch, IT DEPENDS :grin:

Viele Grüße,
Jörg

Member
Beiträge: 360
Registriert: 13.07.2011, 15:33

Beitragvon MarcelMertens » 21.03.2012, 08:59

Ja, ich arbeite mit VLANs,
Ja, das vCenter wird eine VM im selben Cluster
Ja, der Verwaltungs-VMK Port soll auch im dvSwitch hängen.

Troubleshooting wird es nicht geben -> 24 Node Cluster, wenn was kaputt ist Neuinstallation über Kickstart Scipt (Autodeploy ist nicht gewünscht). (Zur Not weiß ich aber wie es geht ;))

Da ich noch nicht so viel mit dvSwitches gemacht habe, interessiert mich einfach ob es irgendwo einen Nachteil gibt den ich nicht berücksichtig habe.

Benutzeravatar
Member
Beiträge: 446
Registriert: 11.03.2008, 12:28
Wohnort: Seligenstadt

Beitragvon sirrossi » 21.03.2012, 11:16

Ja, so ein einzelner Standard Switch kann bei heiklen Konfigurationsänderungen der dvSwitche schon eine hilfreiche Rückzugszone sein. ;)

Guru
Beiträge: 2082
Registriert: 21.10.2006, 08:24

Beitragvon bla!zilla » 21.03.2012, 11:28

Ich würde, zumindest für das Management, einen normalen vSwitch einsetzen. Darüber kannst du ja auch vMotion ziehen.

Member
Beiträge: 202
Registriert: 18.01.2008, 11:02

Beitragvon roeschu » 22.03.2012, 13:52

Verwende hier auch Flex 10 Virtual Connect und bin auch eine neue Umgebung unter vsphere5 am aufbauen. Ich machs so:

2 Flex module mit je einem Shared Uplink Sets, 10Gb uplink Ports pro Set


2 FlexNics Active/Active = Mgtm Konsole
2 FlexNics Active/Active = NFS Vmkernel Storage Anbindung
2 FlexNics Active/Active = Multiple Networks (Kunden Vlans, bis zu 30 - 40 Vlans)
2 FlexNics Active/Active = Vmotion

Mgtm, NFS Vmkernel und Vmotion sind normale Vmware Standardswitches, Multiple Networks ist ein dvSwitch. Dies deshalb weil es einfach nur im "Multiple Networks" regelmässige Vlan Aenderungen gibt etc. Ausserdem ist mir einfach wohler dabei wenn vmotion, mgt und NFS vmkernel nach wie vor über dedizierte NICs und Standard Switches laufen. Einfach weil ich es mir so gewohnt bin und weil ich bis jetzt noch nicht viel mit DvSwitch gearbeitet habe.

Gerade mit den 10Gb Ports sieht man immer mehr Umgebungen welche einfach zwei 10Gb NIC's an einem dvSwitch haben und alles darüber nehmen. Konnte gerade letzte Woche mit einem Flex10 Spezialisten von HP sprechen und der meinte dass die Konfiguration die obige Konfiguration mit 8 Flex Nics Sinn macht. Diesbetreffend findest du ansonsten auch Flex/Vmware Best Practice Sheets unter dessen URL http://www.sallustio.ch/blade/

Ein Problem hättest du natürlich wenn du noch dedizierte Nics für Fault Tolerance brauchen würdest, dann würden die 8 möglichen Flex Nics nicht reichen und du müsstest noch so ein Mezzanine Chip reintun...

Member
Beiträge: 360
Registriert: 13.07.2011, 15:33

Beitragvon MarcelMertens » 22.03.2012, 20:28

Danke für den Super Link ;)

ich werd mir das nochmal durch den kopf gehen lassen.
derzeit ist noch konzeptphase.
Ich habe nur das Problem, dass das Produktivlan nur Active/Standby sein kann, da dort ein NetScaler mit vMAC auf 4 Nics läuft.


Zurück zu „vCenter / VMware VirtualCenter“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast