Das Forum wurde aktualisiert. Wurde höchste Zeit. Wenn etwas nicht funktioniert, bitte gerne hier jederzeit melden.
(Das "alte Design" kommt wieder, wird ne Weile brauchen!)

iSCSI mit mehr Pfaden als physikalische NICs

Alles zum Thema vSphere 6.5, ESXi 6.5 und vCenter Server.

Moderatoren: irix, continuum, Dayworker, Tschoergez

Member
Beiträge: 36
Registriert: 27.12.2016, 17:43

iSCSI mit mehr Pfaden als physikalische NICs

Beitragvon Willi » 01.08.2017, 14:08

Hallo,

wir sind neu im Thema VM und machen die ersten Gehversuche. Wir haben jetzt Hosts auf denen ESXi 6.5 läuft und die haben 2 physikalische NICs. Unser SAN hat 2*4 iSCSI-Pfade zum anschliessen.

Uns wurde nun gesagt das die beiden physischen Karten ausreichen um das SAN korrekt anzubinden. Allerdings beschleichen mich hier ein paar Zweifel.

Probiert haben wir inzwischen 2 Portgruppen und diese jeweils an eine NIC gebunden. Die Subnetze waren getrennt und auch per VLAN nochmal getrennt. Die Verbindung stand war aber Grotten langsam. Statt alle 4 Pfade (4 sind wohl Standby) wurde nur einer benutzt.

Das selbe Ergebnis ergab eine ähnliche Konfiguration nur das die Pfade jetzt im selben Subnetz sind und auch im selben VLAN.

Ist es überhaupt möglich mit den Vorraussetzungen das Ganze korrekt zu konfigurieren oder brauchen wir doch noch zusätzliche NICs?

Meiner Meinung nach fehlt innerhalb der Portgruppe "nur" das korrekte Load-balancing. Aber wo stelle ich das ein? Geht das überhaupt?

Vielen Dank im Vorraus,
Willi

Experte
Beiträge: 1775
Registriert: 23.02.2012, 12:26

Re: iSCSI mit mehr Pfaden als physikalische NICs

Beitragvon ~thc » 01.08.2017, 14:50

- Was bedeutet "grottenlangsam" - welche Geschwindigkeit haben die NICs im ESXi?
- Soll der ESXi mit zwei NICs redundant angeschlossen werden oder parallel?
- Wenn zwei NICs für iSCSI gedacht sind, wie sollen dann die VMs kommunizieren?
- Portgruppen sind für VMs - meinst du vmKernel-Ports?

Member
Beiträge: 36
Registriert: 27.12.2016, 17:43

Re: iSCSI mit mehr Pfaden als physikalische NICs

Beitragvon Willi » 01.08.2017, 15:00

Sorry für die falschen Begriffe.

Grottenlangsam heißt, das wir das SAN vorher per iSCSI an dedizierten Windows-Rechnern angeschlossen hatten und es dort gut 3mal schneller war. Abzüglich eines gewissen Overheads komme ich deshalb zu dem Schluß das in ESXi nur eine Netzwerkkarte genutzt wird.

Das SAN hat 2 Controller mit jeweils 4 1GB-Ports.

Die physikalischen Karten der ESXi-Hosts haben 10GB.

Es soll redundant angeschlossen werden so das bei Ausfall eines Controllers am SAN der andere Weg anspringt.

So, hier mit den NICs kommen wir zu der Stelle wo ich auch zweifle. Es wurde ein vSwitch angelegt mit beiden NICs. und hier dann einmal der normale Netzwerk-Traffic darüber geleitet und zum anderen vmKernel-Adaptern dann die Pfade zu dem SAN erstellt. Es wurde dann für jeden Pfad ein Adapter gemacht, diesem die IP-Adresse und VLAN zugeordnet und natürlich jeweils eine NIC.

Dann wurden 2 iSCSI-Hostadapter erstellt und jeweils 4 der Kernel-Adapter zugewiesen.

Jenseits von Gut & Böse
Beiträge: 10966
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Re: iSCSI mit mehr Pfaden als physikalische NICs

Beitragvon irix » 01.08.2017, 15:14

Ein Storage Array hat keine ISCSI Pfade zum anschliessen.... es wird wohl Ports haben welche aufgeteilt sind auf die 2 oder mehr Controller. Ich gehe aber davon aus das du 2x4 Ports pro Controller gemeint hast.

Du must uns das Modell/Hersteller sagen. Ansonsten gibt der Hersteller vor ob das Storage entweder
- Alle Ports in einem Subnet haben muss
- Die Ports in unterschiedlichen Subnets
- Es dem Storage Egal ist. Wobei ein Hersteller dann ein BestPractices mit gibt fuer vSphere ESXi
Die Konfiguration auf Seiten des ESX ist je nach Fall eine ganz andere! Siehe https://kb.vmware.com/kb/2038869

Man kann fast die pauschale Aussage treffen das 2 pNICs fuer Storage Anbindung genug sind. Wenn man dann noch 10GbE nimmt dann sollte es eigentlich fuer fast jeden Anwendungsfalls reichen. Aber selbst wenn es "nur" 1GbE sollte man da was hinbekommen.

Welche pSwitche kommen denn zum Einsatz?

Ob und wenn ja welche LoadBalancing Police steht in den BestPractice bzw. in der HCL fuer dein Storage. Aber eine LB Policy macht aus "grottenlangsam" kein "Superschnell".

Du must also ein paar Infos nachreichen.

Meine Meinung: Nach >8 Jahren iSCSI fuer ESX(i) kann ich sagen das es mir unter vSphere 6.5 und dem WebClient/Host Client/HTML5 vSphere unmoeglich ist alle benoetigten Settings zu machen. Mal vom Zeitaufwand abgesehen. Entweder man betruegt in dem man mit dem alten C# Windows Client direkt auf den Host sich verbindet oder man Hilft etwas ueber die Shell aus.
Wahrscheinlich ist es eine Grosse Hilfe wenn man nicht weis wie es "frueher" mal war.... 8)

Gruss
Joerg

Member
Beiträge: 36
Registriert: 27.12.2016, 17:43

Re: iSCSI mit mehr Pfaden als physikalische NICs

Beitragvon Willi » 01.08.2017, 15:25

Ich liefere gerne alle notwendigen Infos. Wie gesagt bin ich halt neu und weiß nicht was genau notwendig ist.

Also der Storage ist von Dell. Es ist eine PowerVault MD3200. Dort wurde mir gesagt (und auch per PDF das ich leider nicht mehr finde im Moment) das die SAN-Ports in unterschiedlichen Subnetzen sein sollten (Windows) und sein müssen für VM.

Deine Aussage läßt ja darauf schliessen das 2 NICs reichen müssten. Das läßt mich hoffen.

Der physikalische Switch dazwischen ist auch ein Dell.

Die LB-Policy sollte ein RoundRobin sein soweit ich mich erinnere. Und es muss auch kein "superschnell" sein erstmal. Mir reicht ja ein "gut erträglich" :-)

Und wenn es CLI-Commandos sind ist mir das auch recht. ich habe damit keine Berührungsängste :-)

Vielen dank

Jenseits von Gut & Böse
Beiträge: 10966
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Re: iSCSI mit mehr Pfaden als physikalische NICs

Beitragvon irix » 01.08.2017, 16:15

Anmerkung... 10Gbe Nics auf ein altes 1Gbe Storage loszulassen ist nicht so gut.

- Wieviele und was fuer NICs haben die ESXi Hosts?
- Was sind das fuer Server und wieviele
- Was sind das fuer pSwitche und sind sie verbunden?

Gruss
Joerg

Member
Beiträge: 36
Registriert: 27.12.2016, 17:43

Re: iSCSI mit mehr Pfaden als physikalische NICs

Beitragvon Willi » 01.08.2017, 17:01

Mit "nicht so gut" muss ich dann im Moment wohl leben. Aber zur Zeit ist es eigentlich "geht kaum".

Es ist ein Dell FX20 mit 3 FC630 drin. Die ESXi-Hosts haben jeweils 2 "QLogic 57810 10 Gigabit" Karten.

Es ist ein Dell Force10 Switch.

Jenseits von Gut & Böse
Beiträge: 10966
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Re: iSCSI mit mehr Pfaden als physikalische NICs

Beitragvon irix » 01.08.2017, 17:11

Die FX2 + FC630 mit den Broadcom/Qlogic 10Gbe und den beiden Force10 haben wir hier auch.

Frage: Habt ihr die FN410 extern verbunden und wenn ja welche Modi habt ihr gewaehlt?

Die gute Nachricht ist das man die per NPAR unterteilen kann in bis zu 4 NICs. So als Beispiel:
MGMT 2x 2000Mbit
vMotion 2x 4000Mbit
iSCSI: 2x 1000Mbit
LAN: 2x 3000Mbit

Die Bandbreite kannst du einstellen und auch "Bursts" zulassen. Der ESXi sieht dann 8 NICs und man kann das schoen auf die vSwitch/Portgruppen aufteilen.

Gruss
Joerg

Member
Beiträge: 36
Registriert: 27.12.2016, 17:43

Re: iSCSI mit mehr Pfaden als physikalische NICs

Beitragvon Willi » 01.08.2017, 17:17

Sorry für die blöde Rückfrage: Was ist die FN410?

Und für das iSCSI würden wir ja 4 Karten benötigen. Aber das wäre eine Frage des Sizing. Hättest Du einen Link wo ich das nachlesen könnte mit dem NPAR?

Jenseits von Gut & Böse
Beiträge: 10966
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Re: iSCSI mit mehr Pfaden als physikalische NICs

Beitragvon irix » 01.08.2017, 17:20

Ruf mich mal an oder schick mir deine telefonnummer als PM.

Gruss
Joerg


Zurück zu „vSphere 6.5“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast