Ziel soll es sein, über separate vSwitches die Datensicherungen durchzuführen.
Aktuell müssen zunächst jedoch alle VM´s einmalig übernommen werden (3,5 TB).
Eingesetzt wird
1x ESX 5.1 mit 2 vSwitches:
- 1x für Produktiv VM´s + 2 Nic´s + VMkernel-Port
- 1x für Backups mit einer Ubuntu VM als NFS-Server (1x VMXNET3) + 2 Nics +VMkernel-Port - alles tagged
physisch angeschlossen an einen unmanaged Switch D-Link DGS-8000D
1x ESX 5.5 mit 3 Switches;
- 1x für Produktiv VM´s + 2 Nic´s
- 1x für Management + 2 Nic´s + VMkernel-Port
- 1x für Backup mit einer Ubuntu VM als NFS-Server (VMXNET 3) + 2 Nics - + VMkernel-Port alles tagged
physisch angeschlossen an einen unmanaged Switch D-Link DGS-8000D
Beide D-Link Switches sind über einen weiteren Switch D-Link DGS 12-24 verbunden.
Alle VMkernel-Ports haben eine IP-Adresse aus dem gleichen Netzwerk.
Für die vSwitches wurde die VLAN-Id 4095 verwendet und für das NIC Teaming die Optionen
"Anhand des IP-Hashs Routen" +
"Nur Verbindungsstatus" +
"Switches benachrichtigen" +
"kein Fallback" gesetzt.
Anm.: bei einigen Versuchen hatte ich auch alternativ "Anhand der ursprünglichen ID des virtuellen Ports Routen" (erfolglos) gesetzt.
Die NFS-Shares der jeweiligen NFS-Server (Ubuntu VM´s) sind auf beiden Hosts als Datenspeicher angelegt und können beidseitig problemlos angesprochen werden.
Bei einem Kopiervorgang mit vmkfstools von Host1 / NFS-Share --> Host2 / Raid kommen jedoch Transferzeiten von max. 10-15 MB/s zustande.
Bei funktionierendem Teaming sollten da doch höhere Durchsatzraten rauskommen ?
Anhand von esxtop kann ich ersehen, das der Datentransfer vom Host1 / Switch2 zum Host2 / Switch1 erfolgt und NICHT wie erwartet an Host2 / Switch2.
Esxtop zeigt aber eindeutig an, dass seitens hosts1 der (tagged) Switch2 / Host1 benutzt wird.
Auch findet (richtigerweise) kein Datenverkehr auf dem host2/switch0 statt. Also wenigstens hier kein abstruses Routing...
Deshalb habe ich auch einen Gegenversuch gemacht und vom Host2 direkt auf die NFS-Freigabe kopiert:
# time vmkfstools -c 10GB -d eagerzeroedthick …
Ergebnis war ein Datendurchsatz von rd 71 MB/s (was aber wohl eher der optimierten Datenübertragung von "eagerzero" zuzuschreiben ist).
Variante 1:
anstelle VLAN id "4095" habe ich auch "10" eingesetzt, Dann komme ich aber von keinem Host mehr an die NFS-Shares ran - auch nicht an die eigenen
Variante 2:
Ich habe es anstelle des VLAN Taggings auch erfolglos mit der Vergabe von IP-Adressen aus einem andren Netzwerk Segment für die Host-zu-Host Anbindung versucht.
Tja und nun hoffe ich nur noch, dass mir jemand weiterhelfen kann ...