Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

Optimale Netzwerkanbindung

Moderatoren: Dayworker, irix

Member
Beiträge: 13
Registriert: 22.07.2010, 15:09

Optimale Netzwerkanbindung

Beitragvon yoda333 » 21.03.2012, 09:30

Guten Morgen,

ich bin gerade dabei zwei neue ESXi Server (Dell R510) in Betrieb zu nehmen.
In jedem Server habe ich folgende Netzwerkkarten verbaut.

1x 2Port Broadcom NetXtrem II BCM5716 1000Base-T Intern
1x 4Port Intel 82576 Gigabit Karte

Als Core Switche haben wir 2x Cisco Catalyst 4500.

Folgende Konstellation habe ich zur Zeit.

vNic0 --> vmk0 für Management
vNic1 --> vmk1 direkt an den zweiten ESXi Server um VM zu verschieben. Es gibt leider keinen Zentralen Storage für die Server.
vNic2 --> 1. Core Switch
vNic3 --> 1. Core Switch
vNic4 --> 2. Core Switch --> Standby
vNic5 --> 2. Core Switch --> Standby

Die vNic2 - 5 Bilden einen vSwitch mit einer Portgruppe
Die Ports auf den Switchen sind als normale Access Ports mit einem VLAN konfiguriert.

Jetzt suche ich folgende Möglichkeiten. a) Bandbreite mehr als 1Gbit b) Pfade redundant.
In der jetzigen Konstellation kann ich von vNic2 bis 5 bis auf ein Kabel alle ziehen und die VM ist immernoch erreichbar.

Das zweite Problem das ich habe ist, dass ich versuche eine VM vom ESXi1 auf den ESXi2 zu verschieben. Hierzu habe ich jewiels die vNic 1 direkt zwischen den Server verkabelt. Trotzdem wird die VM über die vNic0 verschoben. Was muss ich wo einstellen damit dieser Traffic über die vNic1 läuft?

Gruß
Yoda

Member
Beiträge: 57
Registriert: 02.03.2012, 08:15

Beitragvon Dectall » 21.03.2012, 15:08

Damit die Maschinen über die vNIC1 geschoben werden, solltest du dort "vmotion" aktivieren, das ist das vmkernel.netz für Migrationsvorgänge.

Ansonsten sehe ich deinen Aufbau als nicht allzuredundant an... wenn die 4Port-Karte wegbricht, wars das nämlich komplett..

Bandbreite mehr als 1Gb... ich rat mal.. ich würde zwei Adapter jeweils auf Online und die anderen beiden auf Standby stellen, dadurch greift, wenn dir Core 1 wegknickt direkt Core 2 .. die beiden Leitungen fahren dann auch jeweils Lastverteilung untereinander, ich weiss allerdings nicht ob man so auf über 1 GB kommt.

Redundater wäre es zwei 2er Karten zu nehmen und jeweils

Core 1 A und Core 2 B, bzw Core 1 B und Core 2 A anzuschließen, so kann dir immer eine Karte oder ein Coreswitch flöten gehen, ohne dass die VMs nichtmehr erreichbar sind

Member
Beiträge: 13
Registriert: 22.07.2010, 15:09

Beitragvon yoda333 » 22.03.2012, 09:17

Hi,

ja, das mit der Netzwerkkarte ist mir bewusst. Da es noch keinen zentralen Storage gibt, ist der Server ja auch ein Singel Point of failure.

Das mit dem vmotion muss ich noch mal testen. Hatte ich glaube ich schon mal gemacht und keine Änderung gesehn. Ich werde es noch mal testen.

Gruß
Yoda

Member
Beiträge: 13
Registriert: 22.07.2010, 15:09

Beitragvon yoda333 » 22.03.2012, 09:27

So, noch mal schnell getestet. Auf dem vmk0 nur Verwaltungsdatenverkehr aktiviert und auf dem vmk1 nur vMotion aktiviert. Lt. esxtop läuft das verschieben immer noch über den vmk0

Bild

Gruß
Yoda

King of the Hill
Beiträge: 13063
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 22.03.2012, 10:40

Es macht den Eindruck das du von dem Bug betroffen bist wenn mehre VMKs auf einem vSwitch sind klappt das mit den Standby/Unused Adaptern nicht. Gibt nen KB zum Thema und wir hatten das doch erst Anfang der Woche hier wo speziell die ISCSI Anwender angekniffen sind.

Gruss
Joerg


Zurück zu „vSphere 5 / ESXi 5 und 5.1“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 8 Gäste