Hallo @All,
wie Ihr seht bin ich neu hier und habe schon eine Frage zur Netzwerkkonfiguration:
Ich habe VMware ESX Server der Version 3.5 im Einsatz, dazu einen NetAppFiler 3020 HA mit NFS, CIFS uns ISCSI Unterstützung. Auf einem IBM Server sind 6 Netzwerkkarten. Ein Storage ist via LUN eingebunden, dort laufen die virtuellen Maschinen.
So und nun kommt die große Frage, wie setzte ich die 6 Netzwerkkarten sinnvoll ein?
Ich habe gehört, dass der VM Kernel (dieser läuft auf dem vituellen Switch0) nur eine Karte nutzen kann und man deshalb zwei Karten einbinden soll und eine davon auf Standby setzen soll. Das VM Netzwerk läuft auf dem VSwitch1 mit den restlichen 4 Netzwerkkarten, hier soll die gemeinsame Nutzung, sprich Load Balacing möglich sein.
Die ServiceConsole läuft auf vSwitch0.
Ist dies optimal konfiguriert oder sollte es anders gemacht werden?
Für Antworten bedanke ich mich im Voraus!
Grüße
Günther
Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!
VM Kernel + VM Network
Nimm alle 6 NICs, pack die an einem Switch, alle aktiv und keine Standby. Load Balancing basierend auf der Port ID. An dem Switch kannst du dann deine Port-Groups einrichten, mit unterschiedlichen VLAN IDs usw. Vielleicht sind 6 NICs ein paar zuviel, hängt von der Anzahl der VMs ab. Vielleicht machst du 3 NICs pro Switch, und erstellst einen zweiten VM Switch.
Danke erst einmal für Deine Antwort
Genau so hatte ich am Anfang konfiguriert, VMKernel, VMNetwork und die Service Console an einem vSwitch und alle 6 NICs rein.
Bis dann jemand daherkam und mir mitteilte, dass der VMKernel (iSCSI) dies gar nicht unterstützen soll. Also Trennung VMKernel und VMNetwork auf unterschiedliche vSwitches. Würde mich und sicherlich auch viele andere interessieren was nun wirklich wahr ist ...
Genau so hatte ich am Anfang konfiguriert, VMKernel, VMNetwork und die Service Console an einem vSwitch und alle 6 NICs rein.
Bis dann jemand daherkam und mir mitteilte, dass der VMKernel (iSCSI) dies gar nicht unterstützen soll. Also Trennung VMKernel und VMNetwork auf unterschiedliche vSwitches. Würde mich und sicherlich auch viele andere interessieren was nun wirklich wahr ist ...
Hi,
also ich würde das wie folgt konfigurieren:
Service Console und VMotion: 2 NICS (ab esx3.5 empfohlen für Service Console)
VMotion Port kann ruhig auf die selben Nics wie die Service Console,da VMotion
nicht ständig im Einsatz ist.
VM Network: 2 NICS (reicht in den meisten Fällen vollkommen aus)
iSCSI: 2 NICS (Multipathing auch über iSCSI)
Eventuell für iSCSI zwei eigene kleine Switche.
Mit der NetApp ist das ausreichend schnell.
also ich würde das wie folgt konfigurieren:
Service Console und VMotion: 2 NICS (ab esx3.5 empfohlen für Service Console)
VMotion Port kann ruhig auf die selben Nics wie die Service Console,da VMotion
nicht ständig im Einsatz ist.
VM Network: 2 NICS (reicht in den meisten Fällen vollkommen aus)
iSCSI: 2 NICS (Multipathing auch über iSCSI)
Eventuell für iSCSI zwei eigene kleine Switche.
Mit der NetApp ist das ausreichend schnell.
Hallo
habe ähnliche Konstellation. Mir ist es nicht ganz klar, wenn ich nur NFS einsetze brauch ich eigentlich gar keine iSCSI-Konfiguration. Den Softwareinitiator schon. Aber wie kann man dann eine Redundanz konfigurieren, wenn man zwei unterschiedliche IP-Segmente hat? Ich verbinde die LUN's über IP-Adresse?
habe ähnliche Konstellation. Mir ist es nicht ganz klar, wenn ich nur NFS einsetze brauch ich eigentlich gar keine iSCSI-Konfiguration. Den Softwareinitiator schon. Aber wie kann man dann eine Redundanz konfigurieren, wenn man zwei unterschiedliche IP-Segmente hat? Ich verbinde die LUN's über IP-Adresse?
Hi,
den iSCSI Softwareinitiator brauchst Du nur bei iSCSI. NFS wird nicht über den Initiator
angesteuert. Da musst Du einfach eine neue VMKernel Port Group erstellen und NFS konfigurieren.
So legt man einen NFS Storage an:
Creating an NFS-Based Datastore
When you create a datastore on an NFS volume, the Add Storage wizard guides you
through the configuration steps.
To mount an NFS volume
1 Log in to the VI Client, and select a server from the inventory panel.
2 Click the Configuration tab, and click Storage in the Hardware panel.
3 Click Add Storage.
4 Select Network File System as the storage type and click Next.
5 Enter the server name, the mount point folder name, and the datastore name.
6 Click Next.
7 In the Network File System Summary page, review the configuration options and
click Finish.
den iSCSI Softwareinitiator brauchst Du nur bei iSCSI. NFS wird nicht über den Initiator
angesteuert. Da musst Du einfach eine neue VMKernel Port Group erstellen und NFS konfigurieren.
So legt man einen NFS Storage an:
Creating an NFS-Based Datastore
When you create a datastore on an NFS volume, the Add Storage wizard guides you
through the configuration steps.
To mount an NFS volume
1 Log in to the VI Client, and select a server from the inventory panel.
2 Click the Configuration tab, and click Storage in the Hardware panel.
3 Click Add Storage.
4 Select Network File System as the storage type and click Next.
5 Enter the server name, the mount point folder name, and the datastore name.
6 Click Next.
7 In the Network File System Summary page, review the configuration options and
click Finish.
Danke erstmal für deine schnelle Antwort.
Der Ablauf ist mir klar. Allerdings kann ich nur über die IP-Adresse den Netapp connecten. Wie kann ich dann den Failover konfigurieren, wenn das 2. NIC über ein anderes IP-Segment auf den Netapp verbunden ist.
Habe meine Konfiguration in einer eigenen Anfrage schon gepostet. War Zufall. dass das gerade mit der zusammengefallen ist.
Der Ablauf ist mir klar. Allerdings kann ich nur über die IP-Adresse den Netapp connecten. Wie kann ich dann den Failover konfigurieren, wenn das 2. NIC über ein anderes IP-Segment auf den Netapp verbunden ist.
Habe meine Konfiguration in einer eigenen Anfrage schon gepostet. War Zufall. dass das gerade mit der zusammengefallen ist.
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast