Hallo Zusammen,
ich plane gerade eine größere VMware Umgebung und stelle mir die Frage welches dvSwitch Szenario sinnvoller ist:
Je Server 8 Uplink Ports (HP Server mit 2 10Ge links, aufgeteilt auf 2* 4 FlexNICs mit VirtualConnect):
10Ge Uplink 1 = vmnic0 - vmnic3
10Ge Uplink 2 = vmnic4 - vmnic7
vmnic0,vmnic4 = Kein Bandbreitenlimit
vmnic1,vmnic5 = je 5Gb/s
vmnic2,vmnic6 = je 2Gb/s
vmnic3,vmnic7 = je 2Gb/s
Folgende LAN Segmente müssen Abgebildet werden:
- Production (mit VPX NetScaler und VMAC -> aktiver Link nur über einen 10Ge Port)
- PXE Services (Citrix Provisioning Services)
- 3* internes Magement
- vMotion
Meine Idee:
dvSwitch_Production, active uplink: vmnic0, standby uplink: vmnic4
|-> Portgruppe: Production
dvSwitch_PXE_PVS, active uplink: vmnic1, vmnic5
|-> Portgruppe PXE_PVS
dvSwitch_Internal, active uplink: vmnic2, vmnic6
|-> Portgruppe Management1 [vmk0]
|-> Portgruppe Management2
|-> Portgruppe Management3
dvSwitch_Internal, active uplink: vmnic3, vmnic7
|-> Portgruppe vMotion [vmk1]
Alternative: Ein dvSwitch
dvSwitch_All
|-> Portgruppe: Production, active uplink: vmnic0, standby uplink: vmnic4
|-> Portgruppe PXE_PVS, active uplink: vmnic1, vmnic5
|-> Portgruppe Management1 [vmk0], active uplink: vmnic1, vmnic5
|-> Portgruppe Management2, active uplink: vmnic1, vmnic5
|-> Portgruppe Management3, active uplink: vmnic1, vmnic5
|-> Portgruppe vMotion [vmk1], active uplink: vmnic3, vmnic7
Welche Lösung ist zu bevorzugen, welche Nachteile / Vorteile hat welche Lösung
Viele Grüße,
Marcel
Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!
Pro / Contra Einen- oder Mehrere dvSwitches
-
- Member
- Beiträge: 360
- Registriert: 13.07.2011, 15:33
- Tschoergez
- Moderator
- Beiträge: 3476
- Registriert: 23.02.2005, 09:14
- Wohnort: Burgberg im Allgäu
- Kontaktdaten:
Hi!
Arbeitest Du mit VLANs?
Ist das vCenter auch ne VM, die auf diesem Cluster läuft?
Brauchst Du zwingend dvSwitches fürs Management?
(Da gibts eine schöne zirkuläre Abhängigkeit, wenn das vCenter an nem dvSwitch hängt!)
Wenn Du die beiden letzten Fragen mit ja beantwortest, würd ich eher in Richtung mehrere Switches gehen, um im Notfall die vCenter VM leichter umhängen zu können.
Außerdem sieht man bei mehreren Switchen halt gleich, was wie connected ist, und muss sich nicht erst in die Portgruppen-Konfig reinklicken.
Allerdings spielt das bei Flex10-Adaptern eigentlich keine Rolle, weil man ja eh keine Kabel mehr hat
..
Ein einzelner dvSwitch brauch etwas weniger Verwaltungsoverhead (=memory auf dem ESX), aber das ist eigentlich zu vernachlässigen.
Wenn Du aber weißt, wie man zur Not (dann nur via ESX Konsole) auch einen einzelnen dvSwitch troubleshooten kann, ist ein einzelner Switch halt eher "konsolidiertes" Management, wie man das vielleicht von den VirtualConnect-Modulen gewohnt ist.
=> Die übliche Antwort: Es gibt kein richtig, oder falsch, IT DEPENDS
Viele Grüße,
Jörg
Arbeitest Du mit VLANs?
Ist das vCenter auch ne VM, die auf diesem Cluster läuft?
Brauchst Du zwingend dvSwitches fürs Management?
(Da gibts eine schöne zirkuläre Abhängigkeit, wenn das vCenter an nem dvSwitch hängt!)
Wenn Du die beiden letzten Fragen mit ja beantwortest, würd ich eher in Richtung mehrere Switches gehen, um im Notfall die vCenter VM leichter umhängen zu können.
Außerdem sieht man bei mehreren Switchen halt gleich, was wie connected ist, und muss sich nicht erst in die Portgruppen-Konfig reinklicken.
Allerdings spielt das bei Flex10-Adaptern eigentlich keine Rolle, weil man ja eh keine Kabel mehr hat

Ein einzelner dvSwitch brauch etwas weniger Verwaltungsoverhead (=memory auf dem ESX), aber das ist eigentlich zu vernachlässigen.
Wenn Du aber weißt, wie man zur Not (dann nur via ESX Konsole) auch einen einzelnen dvSwitch troubleshooten kann, ist ein einzelner Switch halt eher "konsolidiertes" Management, wie man das vielleicht von den VirtualConnect-Modulen gewohnt ist.
=> Die übliche Antwort: Es gibt kein richtig, oder falsch, IT DEPENDS

Viele Grüße,
Jörg
-
- Member
- Beiträge: 360
- Registriert: 13.07.2011, 15:33
Ja, ich arbeite mit VLANs,
Ja, das vCenter wird eine VM im selben Cluster
Ja, der Verwaltungs-VMK Port soll auch im dvSwitch hängen.
Troubleshooting wird es nicht geben -> 24 Node Cluster, wenn was kaputt ist Neuinstallation über Kickstart Scipt (Autodeploy ist nicht gewünscht). (Zur Not weiß ich aber wie es geht
)
Da ich noch nicht so viel mit dvSwitches gemacht habe, interessiert mich einfach ob es irgendwo einen Nachteil gibt den ich nicht berücksichtig habe.
Ja, das vCenter wird eine VM im selben Cluster
Ja, der Verwaltungs-VMK Port soll auch im dvSwitch hängen.
Troubleshooting wird es nicht geben -> 24 Node Cluster, wenn was kaputt ist Neuinstallation über Kickstart Scipt (Autodeploy ist nicht gewünscht). (Zur Not weiß ich aber wie es geht

Da ich noch nicht so viel mit dvSwitches gemacht habe, interessiert mich einfach ob es irgendwo einen Nachteil gibt den ich nicht berücksichtig habe.
Verwende hier auch Flex 10 Virtual Connect und bin auch eine neue Umgebung unter vsphere5 am aufbauen. Ich machs so:
2 Flex module mit je einem Shared Uplink Sets, 10Gb uplink Ports pro Set
2 FlexNics Active/Active = Mgtm Konsole
2 FlexNics Active/Active = NFS Vmkernel Storage Anbindung
2 FlexNics Active/Active = Multiple Networks (Kunden Vlans, bis zu 30 - 40 Vlans)
2 FlexNics Active/Active = Vmotion
Mgtm, NFS Vmkernel und Vmotion sind normale Vmware Standardswitches, Multiple Networks ist ein dvSwitch. Dies deshalb weil es einfach nur im "Multiple Networks" regelmässige Vlan Aenderungen gibt etc. Ausserdem ist mir einfach wohler dabei wenn vmotion, mgt und NFS vmkernel nach wie vor über dedizierte NICs und Standard Switches laufen. Einfach weil ich es mir so gewohnt bin und weil ich bis jetzt noch nicht viel mit DvSwitch gearbeitet habe.
Gerade mit den 10Gb Ports sieht man immer mehr Umgebungen welche einfach zwei 10Gb NIC's an einem dvSwitch haben und alles darüber nehmen. Konnte gerade letzte Woche mit einem Flex10 Spezialisten von HP sprechen und der meinte dass die Konfiguration die obige Konfiguration mit 8 Flex Nics Sinn macht. Diesbetreffend findest du ansonsten auch Flex/Vmware Best Practice Sheets unter dessen URL http://www.sallustio.ch/blade/
Ein Problem hättest du natürlich wenn du noch dedizierte Nics für Fault Tolerance brauchen würdest, dann würden die 8 möglichen Flex Nics nicht reichen und du müsstest noch so ein Mezzanine Chip reintun...
2 Flex module mit je einem Shared Uplink Sets, 10Gb uplink Ports pro Set
2 FlexNics Active/Active = Mgtm Konsole
2 FlexNics Active/Active = NFS Vmkernel Storage Anbindung
2 FlexNics Active/Active = Multiple Networks (Kunden Vlans, bis zu 30 - 40 Vlans)
2 FlexNics Active/Active = Vmotion
Mgtm, NFS Vmkernel und Vmotion sind normale Vmware Standardswitches, Multiple Networks ist ein dvSwitch. Dies deshalb weil es einfach nur im "Multiple Networks" regelmässige Vlan Aenderungen gibt etc. Ausserdem ist mir einfach wohler dabei wenn vmotion, mgt und NFS vmkernel nach wie vor über dedizierte NICs und Standard Switches laufen. Einfach weil ich es mir so gewohnt bin und weil ich bis jetzt noch nicht viel mit DvSwitch gearbeitet habe.
Gerade mit den 10Gb Ports sieht man immer mehr Umgebungen welche einfach zwei 10Gb NIC's an einem dvSwitch haben und alles darüber nehmen. Konnte gerade letzte Woche mit einem Flex10 Spezialisten von HP sprechen und der meinte dass die Konfiguration die obige Konfiguration mit 8 Flex Nics Sinn macht. Diesbetreffend findest du ansonsten auch Flex/Vmware Best Practice Sheets unter dessen URL http://www.sallustio.ch/blade/
Ein Problem hättest du natürlich wenn du noch dedizierte Nics für Fault Tolerance brauchen würdest, dann würden die 8 möglichen Flex Nics nicht reichen und du müsstest noch so ein Mezzanine Chip reintun...
-
- Member
- Beiträge: 360
- Registriert: 13.07.2011, 15:33
Zurück zu „vCenter / VMware VirtualCenter“
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 0 Gäste