Kernelports und VMs auf selbem VSwitch
Verfasst: 15.04.2019, 16:22
Ihr Lieben
Folgende Konfiguration grob umrissen:
physisch:
HP Server mit 2x 10Gbit und 6x 1Gbit am Core Switch
NAS mit 2x 10 Gbit am Core Switch
ESXi 6.5 Netzwerkconfig:
VSwitch0 mit management kernelport. vmk0
An VSwitch1 hängen alle VMs in einer Portgruppe und 2 dedizierte vmkernelports in jeweils eigenen dedizierten Portgruppen. vmk1 und vmk2 Auf der anderen Seite des VSwitch hängen die beiden 10 Gbit Nics. nic6 und nic7
Die vmkernelportgruppen sind mit Portbindung und Lastenausgleich konfiguriert. Jeweils ein Nic ist auf aktiv der andere auf aus gesetzt.
Problem:
Das iSCSI Target des Storage wird nicht gefunden. Der Storage befindet sich im selben Subnetz wie die vmk1 und 2. Mit vmkping aus dem cli kann der Storage gepingt werden.
Vermutung: Trotz sauberer Konfiguration versucht ESXi den Storage via dem TCP/IP stack des management kernelports vmk0 zu finden, was fehlschlägt, da dieser in einem anderen Subnetz ist.
Ich habe nun Testweise einen dedizierten VSwitch aufgebaut, auf dem keine anderen Portgruppen als die der vmk1 und vmk2 sind. Alles läuft. Auch MPIO mit Roundrobin ist kein Problem. Aber sobald auf dem Switch noch vnics der VMs drauf sind findet der Host das iSCSI target nicht mehr.
Ist das per Design oder kann man das via cli konfigurieren? Es kann doch nicht sein, dass ich gezwungen bin für jede Kernelport Anwendung eigene physische nics zu installieren. Ich habe schon gelesen, dass es Best practise ist eigene physische Interfaces für den iSCSI Storage zu nutzen aber das macht in meiner Umgebung keinen Sinn. Die 2x10 Gbit sind massiv schneller als die 4x1Gbit auch da MPIO die Bandbreite nicht aggregiert, sondern nur den max Speed eines physischen Nics verwendet. Also nur 1 Gbit.
Besten Dank für Hilfe. Ich gebe gerne mehr Details, falls diese von Nöten sind.
Beste Grüsse
Peter
Folgende Konfiguration grob umrissen:
physisch:
HP Server mit 2x 10Gbit und 6x 1Gbit am Core Switch
NAS mit 2x 10 Gbit am Core Switch
ESXi 6.5 Netzwerkconfig:
VSwitch0 mit management kernelport. vmk0
An VSwitch1 hängen alle VMs in einer Portgruppe und 2 dedizierte vmkernelports in jeweils eigenen dedizierten Portgruppen. vmk1 und vmk2 Auf der anderen Seite des VSwitch hängen die beiden 10 Gbit Nics. nic6 und nic7
Die vmkernelportgruppen sind mit Portbindung und Lastenausgleich konfiguriert. Jeweils ein Nic ist auf aktiv der andere auf aus gesetzt.
Problem:
Das iSCSI Target des Storage wird nicht gefunden. Der Storage befindet sich im selben Subnetz wie die vmk1 und 2. Mit vmkping aus dem cli kann der Storage gepingt werden.
Vermutung: Trotz sauberer Konfiguration versucht ESXi den Storage via dem TCP/IP stack des management kernelports vmk0 zu finden, was fehlschlägt, da dieser in einem anderen Subnetz ist.
Ich habe nun Testweise einen dedizierten VSwitch aufgebaut, auf dem keine anderen Portgruppen als die der vmk1 und vmk2 sind. Alles läuft. Auch MPIO mit Roundrobin ist kein Problem. Aber sobald auf dem Switch noch vnics der VMs drauf sind findet der Host das iSCSI target nicht mehr.
Ist das per Design oder kann man das via cli konfigurieren? Es kann doch nicht sein, dass ich gezwungen bin für jede Kernelport Anwendung eigene physische nics zu installieren. Ich habe schon gelesen, dass es Best practise ist eigene physische Interfaces für den iSCSI Storage zu nutzen aber das macht in meiner Umgebung keinen Sinn. Die 2x10 Gbit sind massiv schneller als die 4x1Gbit auch da MPIO die Bandbreite nicht aggregiert, sondern nur den max Speed eines physischen Nics verwendet. Also nur 1 Gbit.
Besten Dank für Hilfe. Ich gebe gerne mehr Details, falls diese von Nöten sind.
Beste Grüsse
Peter