Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

alte DX60 ISCSI in vmWare

ESX(i)-taugliche Hardware, HCL .....

Moderatoren: irix, Dayworker

Member
Beiträge: 8
Registriert: 24.01.2018, 10:32

alte DX60 ISCSI in vmWare

Beitragvon chhadm » 25.01.2018, 08:54

Hallo zusammen,

ich habe hier noch eine alte DX60 ISCSI mit 2 Controller á 2 x 1gb rumliegen. Diese würde ich gerne noch für unseren Marketingbereich einsetzten, da die momentan alle Ihre Daten dezentral überall verteilen. Habe hier 12*300 15k SAS Platten für die ich einen Raid 5 konfigurieren würde oder Raid 6 für mehr Ausfallsicherheit. Es wäre für 2 Personen, von daher müsste der Traffic völlig ausreichend sein.

Nun zu meiner Frage. Wie richte ich das am besten im Web Client ein.
Allen Hosts den iSCSI Software Adapter hinzufügen und dann sich mit dem Ziel verbinden (dynamisch oder statisch?). Wie ist das mit dem Switch zu sehen. Kann ich den bestehenden Switch einsetzen HP2920-48G? Die Anbindung im selben Vlan oder ein anderes anlegen? Was mache ich mit dem Host Response und iSCSI Host auf der DX?

Über eure Unterstützung würde ich mich freuen :roll: .

Gruß chhadm

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Re: alte DX60 ISCSI in vmWare

Beitragvon UrsDerBär » 25.01.2018, 10:16

Bei der Einbindung und Konfiguration solltest Du dich an die Vorgaben von Fujitsu halten.
Da ich eine alte DX80 habe, dürfte es ähnlich sein

- Eigener vSwitch für die iSCSI Verbindungen, mind. 2 LAN-Anschlüsse, 1 pro physischen Switch. Im vSwitch die NIC-Gruppierung überall auf deaktiviert stellen
- Jeder Port auf der DX in einen eigenen IP-Sub-Bereich
- Pro Port auf der DX einen vmk auf diesem vSwitch mit jeweils einem dedizierter NIC in der NIC-Gruppierung auf Aktiv, restliche deaktiviert
- Auf der Storage musst dann auch die ganze IP's erstellen

Sieht dann z.B. so aus:
Controller:
Controller 0 Port 0: IP 192.168.100.1
Controller 0 Port 1: IP 192.168.101.1
Controller 1 Port 0: IP 192.168.102.1
Controller 1 Port 1: IP 192.168.103.1

Auf den ESXi-Hosts mit 2 physischen Nics (bei optimalen 4 ports eben zweites paar auf nic 3 + 4)
ESXi 1 - vmk0: 192.168.100.10 - physische NIC 1 auf physischen Switch 1
ESXi 1 - vmk1: 192.168.101.10 - physische NIC 2 auf physischen Switch 2
ESXi 1 - vmk2: 192.168.102.10 - physische NIC 1 auf physischen Switch 1
ESXi 1 - vmk3: 192.168.103.10 - physische NIC 2 auf physischen Switch 2

ESXi 2 - vmk0: 192.168.100.20 - physische NIC 1 auf physischen Switch 1
ESXi 2 - vmk1: 192.168.101.20 - physische NIC 2 auf physischen Switch 2
ESXi 2 - vmk2: 192.168.102.20 - physische NIC 1 auf physischen Switch 1
ESXi 2 - vmk3: 192.168.103.20 - physische NIC 2 auf physischen Switch 2

Wenn Du das nicht auf diese (eher komplizierte) Variante machst, gibt es teilweise sehr komische Seiteneffekte. Zu viele oder zu wenige Pfade. Zu viele Pfade down, Performance-Einbrüche weil sich der Kram irgendwie ins gehege kommt usw.

Dann brauchst noch die ganzen Hosts mit CHAP auf dem Controller usw.
Im Software HBA musst dann unter dynamischen Targets die ganzen IP's der Controller eingeben. Dann werden die Festplatten gefunden.

Member
Beiträge: 8
Registriert: 24.01.2018, 10:32

Re: alte DX60 ISCSI in vmWare

Beitragvon chhadm » 25.01.2018, 12:20

Hi,

danke für die Antwort.

Ich versuche mal nach deinen Angaben. -> zu den Virtuellen Switchen. Ich brauche dann 4 vSwitche so wie ich das verstanden habe :idea: .
Mus ich bei der VLAN_ID die ID eintragen, die ich im physikalischem Switch konfiguriert habe, muss ich da auch noch die welche Dienste aktivieren? Und die IP Adressen vergebe ich die gleichen die ich den Controllern vergeben habe.
Noch ne Frage. Kann ich alles im selben C-Netz laufen lassen oder soll ich das trennen, vor allem da der Switch auch für die andere Anbindungen verwendet wird und ich keinen eigenen iSCSI-Switch habe.
Die CHAP-Authentifizierung ist zwingend notwendig? Was das HBA betrifft soll ich dann eher auf dynamisch oder statisch gehen?

Sorry für die vielen Fragen.

Gruß

King of the Hill
Beiträge: 12940
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Re: alte DX60 ISCSI in vmWare

Beitragvon irix » 25.01.2018, 17:32

Nein,
einen vSwitch mit 2 Uplinks. Da drauf 2 Portgruppen vom Typ VMK welche jeder genau eine aktive vNIC hat und die anderen auf Deaktiviert.

Gruss
Joerg

Member
Beiträge: 8
Registriert: 24.01.2018, 10:32

Re: alte DX60 ISCSI in vmWare

Beitragvon chhadm » 01.02.2018, 17:08

Hallo irix,

ist zwar jetzt schon ein paar Tage her, aber nun bin ich ein wenig dazu gekommen. Nun zu meiner Frage, den nach deinem Post bin ich ein wenig verwirrt. Lt. UrsDerBär müsste ich insgesamt jeweils 2 vSwitche anlegen und jeweils 4 VMkernel(iSCSI) Adapter anlegen. Ich habe aber nur jeweils physische NICS zur Verfügung.
Das heißt ja dann für mich, dass ich jeweils zwei IP SUb-Bereiche anlege
Controller:
Controller 0 Port 0: IP 192.168.151.1
Controller 0 Port 1: IP 192.168.151.2
Controller 1 Port 0: IP 192.168.152.1
Controller 1 Port 1: IP 192.168.152.2

und was die ESXI-Host betrifft
ESXi 1 - vmk0: 192.168.151.10 - physische NIC 1 auf physischen Switch 1
ESXi 1 - vmk1: 192.168.152.10 - physische NIC 2 auf physischen Switch 2
vswitch31.PNG

vswitch3.PNG

Das erste Bild ist dann für einen vSwitch mit zwei vmk-Kernel.

Analog dazu muss ich dann den 2ten Host konfigurieren.
ESXi 2 - vmk0: 192.168.151.20 - physische NIC 1 auf physischen Switch 1
ESXi 2 - vmk1: 192.168.152.20 - physische NIC 2 auf physischen Switch 2

Habe ich etwas übersehen? Im physischen Switch würde ich dann alle iSCSI-Ports über eine eigene vlan anbinden.
Auf der DX brauche ich ja die Host Affinity nicht einrichten, wenn ich nur eine LUN habe!? Was ist mit dem Host Response, kann ich bei einem belassen oder muss ich zwei Stück einrichten?

Vielen Dank schon mal für die Antwort(en).

Gruß chhadm

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Re: alte DX60 ISCSI in vmWare

Beitragvon UrsDerBär » 02.02.2018, 07:47

Hallo, nein ein vSwitch mit 4 konfigurierten VMK, mit jeweils einem aktiven physischen LAN-Port der dem vSwitch zugeteilt ist, die anderen deaktiviert. separate VLAN's brauchst Du nicht nicht. Nur separate IP-Adressbereiche

King of the Hill
Beiträge: 12940
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Re: alte DX60 ISCSI in vmWare

Beitragvon irix » 02.02.2018, 07:57

UrsDerBär hat geschrieben:Hallo, nein ein vSwitch mit 4 konfigurierten VMK, mit jeweils einem aktiven physischen LAN-Port der dem vSwitch zugeteilt ist, die anderen deaktiviert. separate VLAN's brauchst Du nicht nicht. Nur separate IP-Adressbereiche


Entweder das oder aber
- Der erste Host spricht die Ports 1+3 auf dem Storage an
- Der zweite Host spricht die Ports 2+4 auf dem Storage an

Dann brauchts nicht mehr als die 2VMKs und es passt gut zu 2 pNICs welche man hat.

Auf ESXi Seite ist es wichtig nicht ein Portbinding zukonfigurieren bei solch einem Fall wenn man ein Storage hat welches die Ports in verschiedenen Subnetzen hat. Das Bindung nur wenn alles aus einem Subnet kommt. Was ich nicht mehr weiss ob es in diesem Falle nicht doch eine Empfehlung gab seperate vSwitche zu machen.

- Auf dem vSwitch die MTU 9000 setzen
- Auf dem pSwitch die MTU auf >= 9000 setzen
- Ueberlegen ob man die Jumboframes auch nutzen will. Wenn ja nun auf den VMK Portgruppen die MTU auf 9000 setzen und mittels vmkping -d -s 8972 <IP> -I vmkX testen!

Gruss
Joerg

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Re: alte DX60 ISCSI in vmWare

Beitragvon UrsDerBär » 02.02.2018, 08:08

Kleine Korrektur.

irix hat geschrieben:
UrsDerBär hat geschrieben:Hallo, nein ein vSwitch mit 4 konfigurierten VMK, mit jeweils einem aktiven physischen LAN-Port pro VMK der dem vSwitch zugeteilt ist, die anderen deaktiviert. separate VLAN's brauchst Du nicht nicht. Nur separate IP-Adressbereiche


Entweder das oder aber
- Der erste Host spricht die Ports 1+3 auf dem Storage an
- Der zweite Host spricht die Ports 2+4 auf dem Storage an

Dann brauchts nicht mehr als die 2VMKs und es passt gut zu 2 pNICs welche man hat.

Für Path-Failover würde ich alle VMK's definieren. Die Storage hat pro Controller zwei separate Nics die jeweils eine separate IP haben. Du kannst das nicht auf Controller oder gar Storage-Ebene definieren. Wie das bei den neueren Modellen aussieht weiss ich nicht, aber bei den alten muss man es so machen. Diese liegen optimalerweise - wie weiter oben beschrieben - in eigenen IP-Subbereichen. Die können aber gut in einer VLAN liegen.
posting.php?mode=quote&f=31&p=181868#pr181771

Aber eben aus deinen Bildern sieht man mehr als einen aktiven Adapter (noch einen Standby). Das ist nicht gut.
Es sollte 1 Aktiver und KEIN Standby-Adapter pro VMK definiert sein. Also manuell die zugewiesenen physischen NIC's setzen. Bei zwei physischen Ports also jeweils zwei VMK's mit dem gleichen zugewiesenen physischen Port. Klingt jetzt etwas kryptisch aber in meinem ersten Port habe ich die Zuweisung ja genau aufgeschrieben.

King of the Hill
Beiträge: 12940
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Re: alte DX60 ISCSI in vmWare

Beitragvon irix » 02.02.2018, 08:24

Nun hast du mich mit deinem Vorschlag nach 4 VMKs durch einander gebracht und ich musste an meine MD3, DS3500 usw. denken welche alle 4 Ports pro Kontroller haben. Wenn ich den OP aber da richtigen verstanden habe hat die DX60 aber nur 2.

Wenn er auf Storage Seite nur 2 Ports pro Kontroller und somit nur 2 Subnetze hat dann brauchts auf ESXi Seite auch nicht mehr als genau diese 2 um sicherzustellen das der ESXi jedes dieser Netze erreichen kann.

Aber.... ihr habt beide eine "komische" Subnetzzuordnung gemacht auf Storageseite. Frage: Ist das bei der DX wirklich so? Bei all den Entry Level Systemen welche mir so unterkommen sind war es eher so
Ctrl1 Port 1 = 192.168.100.1
Ctrl1 Port 2 = 192.168.101.1

Ctrl2 Port 1 = 192.168.100.2
Ctrl2 Port 2 = 192.168.101.2

Spaetestens jetzt sollte man einen Blick in die Doku werfen und mit dem rumraten aufhoeren. Wenn ich Zeit finde dann guck ich mal :)

Gruss
Joerg

Member
Beiträge: 8
Registriert: 24.01.2018, 10:32

Re: alte DX60 ISCSI in vmWare

Beitragvon chhadm » 02.02.2018, 15:43

Hallo zusammen,

danke an alle. IRIX thx!!! Nach dem letzten Post von UrsDerBär war ich noch verwirrter, da er in seinem 1 Post von 2 Switche schreibt und das wurde mir nicht klar wie ich das dann mit meinen 2 Port anstellen soll.
Die komische Subnetzzuordnung ist einfach aus der Historie gewachsen und war auch vorher so angelegt.
IP.PNG


Man kann aber problemlos dann die 100ter vergeben (Mache ich jetzt auch mal so). Wie gesagt, die Tatsache mit den 2 switches hat mich voll verwirrt. Ich probiere dass nun so aus, wie du bereits geschrieben hast.

Was mache ich nun mit diesem Hostresponse? Bei mir sind dann alle Ports nur 1nem zugewiesen.
HOST IF.PNG
HOST IF.PNG (9.01 KiB) 7574 mal betrachtet


Und die Resetgroup sieht folgendermaßen aus:
reset.PNG
reset.PNG (9.18 KiB) 7574 mal betrachtet


So langsam sollte das nun klar.... :shock:

Gruß chhadm

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Re: alte DX60 ISCSI in vmWare

Beitragvon UrsDerBär » 05.02.2018, 15:17

Also ich kann nirgends erkennen, dass ich von zwei vSwitches geredet habe. Im Gegenteil. Wenn dann spreche ich von 2 physischen Switchen die man unbedingt haben sollte --> Single Point of Failure. Und wie gesagt, du solltest KEIN Failover einrichten, also kein Standby, sondern dedizierte Nics pro VMK nehmen. Du kannst - bzw. musst bei zwei physischen Ports - zwei VMK's jeweils die gleiche physische Nic zuweisen.

Dann habe ich noch gesagt, dass Du pro Port der Storage-Einheit einen eigenen IP-range nehmen und jeweils für jeden dieser Ports eine eigene VMK auf den Hosts erstellen sollst. Siehe Tabelle in meinem ersten Post.

Am Ende musst Du es aber selber wissen. Meines erachtens ist die Konfig so kaum supported und Du wirst ziemlich sicher Probleme bekommen mit Latenzen oder Path-Downs beim Ausfall eines Ports. Dann hast vielleicht noch jeden Pfad doppelt im System. Zumindest hatte ich das beobachten können als mir ein Controller abgeraucht ist.

Profi
Beiträge: 993
Registriert: 31.03.2008, 17:26
Wohnort: Einzugsbereich des FC Schalke 04
Kontaktdaten:

Re: alte DX60 ISCSI in vmWare

Beitragvon kastlr » 05.02.2018, 19:00

Hallo zusammen,

wäre es nicht einfacher den iSCSI Storage an eine VM durch zu reichen und den beiden Kollegen darauf Zugriff zu gewähren?
Denn die wollen doch nur Ihre Daten sichern und keine eigenen VMs aufsetzen.

Da spart ihr euch den ganzen Blues mit den Änderungen an der VMware Netzwerkkonfiguration.

Just my 2 Cents.

Gruß
Ralf

King of the Hill
Beiträge: 12940
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Re: alte DX60 ISCSI in vmWare

Beitragvon irix » 05.02.2018, 19:15

Dann waere das Thema "Backup" aber evtl. ein anderes.

Gruss
Joerg

Profi
Beiträge: 993
Registriert: 31.03.2008, 17:26
Wohnort: Einzugsbereich des FC Schalke 04
Kontaktdaten:

Re: alte DX60 ISCSI in vmWare

Beitragvon kastlr » 05.02.2018, 20:25

Hallo Jörg,

stimmt, aber wenn es hier um User Daten geht ist das dann auch wieder simpel.
Im Grunde genommen sind beide Wege möglich, da hier aber nie von VMs sondern immer von Daten gesprochen worden ist denke ich ist mein Ansatz durchaus eine Überlegung wert.

Einfach der VM nen iSCSI Interface gönnen, die Platten mounten und das gewünschte Filesystem drauf anlegen.
Bei Windows in weniger als 10 Minuten erledigt.

Kein Vergleich zu dem Aufwand der auf der VMware Seite betrieben werden muss.

Gruß
Ralf

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Re: alte DX60 ISCSI in vmWare

Beitragvon UrsDerBär » 06.02.2018, 11:39

Also etwas einfacheres und unproblematischeres als Software iSCSI per ESXi kenne ich nicht. Das ist doch ratz fatz und easy eingerichtet und er kann die Eternus auch für was anderes benutzen. Backupziel für Windows/Backup da die Virtual Disc als blockstorage angesehen wird, gemeinsam genutze VM's oder so.
Windows würde ich nur nehmen falls man explizit kein VMFS haben möchte. --> Crashsicherheit

Betreffend Windows würde ich die Doku lesen. Soweit ich mich erinnere - lang ist es her - musste man für aktives Failover und Teaming einen speziellen Treiber von Fujitsu hernehmen. Der war nicht ganz straight forward in der Konfiguration und meines erachtens Super unübersichtlich. Auf alle Fälle bei weitem nicht so easy wie beim ESXi.

Anbei nochmals aufgeteilt auf physische und virtuelle Ebene. Und hab auch mal auf meine Storage geschaut wie ich das konfiguriert habe.
Verkabelung des Controllers
- CM 0 Port 0 auf Switch 1
- CM 0 Port 1 auf Switch 2
- CM 1 Port 0 auf Switch 1
- CM 1 Port 1 auf Switch 2

Einstellungen auf dem Controller:
--> Menü Host I/F Parameters>Set iSCSI Parameters> Per Drop Down jeden Port auswählen und durchkonfigurieren.
TCP/IP Settings
CM 0 Port 0: IP 192.168.100.1 / Subnet 255.255.255.0 / iSNS wirst kaum brauchen, also auf disabled
CM 0 Port 1: IP 192.168.101.1 / Subnet 255.255.255.0 / iSNS wirst kaum brauchen, also auf disabled
CM 1 Port 0: IP 192.168.102.1 / Subnet 255.255.255.0 / iSNS wirst kaum brauchen, also auf disabled
CM 1 Port 1: IP 192.168.103.1 / Subnet 255.255.255.0 / iSNS wirst kaum brauchen, also auf disabled
--> Wichtig ist hier, dass Du separate IP-Ranges nimmst. Also das was hier als 100/101/102/103 dargestellt ist. Dann kommen sich die Dinger nie in die Quere. Würde hier irgendwas logisches nehmen, kann aber beliebig sein, hauptsache unterschiedlich.

iSCSI Settings
iSCSI-Name:
CM 0 Port 0: iqn.2000-09.com.fujitsu:storage-system.eternus-dxl:st0cm0p0
CM 0 Port 1: iqn.2000-09.com.fujitsu:storage-system.eternus-dxl:st0cm0p1
CM 1 Port 0: iqn.2000-09.com.fujitsu:storage-system.eternus-dxl:st0cm1p0
CM 1 Port 1: iqn.2000-09.com.fujitsu:storage-system.eternus-dxl:st0cm1p1
--> Namenschema mal Beispielhaft. st0 = StorageEinheit 0, cm0 = Controller 0, P0 = Port 0. Kann man machen wie man möchte. iqn.datum dürfte Herstelldatum sein, kannst deines drinnlassen.

iSCSI-Alias: auch grundsätzlich frei wählbar
ST0_CM0_P0
ST0_CM0_P1
ST0_CM1_P0
ST0_CM1_P1

General Settings :
Host Affinity: Enabled
Host Response: Default
Jumbo Frame: Enabled
TransferRate: 1Gbit
ResetScope: I_T_L (Standard)
Release Reservation if Chip is Reset: Disabled
CmdSN Count: Ulimited

Chap
Würde ich persönlich konfigurieren. Dann kannst dich nicht aus versehen mit irgendwas auf die LUN's verbinden. Sicherheitstechnisch bringts wohl nur beschränkt was aber immerhin. Unbedingt aufschreiben und aufbewahren, sonst wirds später hässlich. Ich spreche aus Erfahrung. =)

Host Response Group --> Menü Host I/F Parameters>Setup Host Response
Neuen Eintrag erstellen VmWare oder bestehenden überschreiben. Es gibt vorgefertigte Presets für VmWare die du laden kannst.

iSCSI Hosts --> Menü Host I/F Parameters>iSCSI Hosts
Alle Einträge erstellen:

Code: Alles auswählen

Name       iSCSI Name                          IP Address           Host Response    CHAP-UserID            
0:ESX-1.0  iqn.2010-01.com.DeineFirma:esx1     192.168.100.10       1:VmWare   
1:ESX-1.1  iqn.2010-01.com.DeineFirma:esx1     192.168.101.10       1:VmWare   
2:ESX-1.2  iqn.2010-01.com.DeineFirma:esx1     192.168.102.10       1:VmWare   
3:ESX-1.3  iqn.2010-01.com.DeineFirma:esx1     192.168.103.10       1:VmWare
4:ESX-2.0  iqn.2010-01.com.DeineFirma:esx2     192.168.100.20       1:VmWare      
5:ESX-2.1  iqn.2010-01.com.DeineFirma:esx2     192.168.101.20       1:VmWare   
6:ESX-2.2  iqn.2010-01.com.DeineFirma:esx2     192.168.102.20       1:VmWare      
7:ESX-2.3  iqn.2010-01.com.DeineFirma:esx2     192.168.103.20       1:VmWare

--> Chap halt eingeben wenn dus möchtest. UserName und Key.


Dann noch unter Volume Settings>Volume Management Das Lun-Mapping auf die gewünschten Volumes einstellen. Aber das dürftest Du ja bereits kennen. Ansonsten melden.

So ist eigentlich der mühsame Teil - die Config der Storage - erledigt.

Verkabelung des ESXi
Du verkabelst von Deinen Hosts jeweils einen oder wenn möglich zwei physische Ports auf einen physischen Switch.

Einstellungen auf dem ESXi:
1. Du erstellst einen vSwitch und teilst ihm die zwei physische nic's zu
2. Du gehst in die Einstellungen des vSwitches und setzt alle Adapter auf Nicht zugeteilt. --> So wird jede neue Portgruppe die Du erstellst erstmal keiner Nic zugeteilt. Beugt etwas Fehlkonfigurationen vor. JumboFrames (MTU) kannst auch gleich miteinstellen auf 9000
3. Du erstellst 4 VMK's innerhalb des vSwitches. Jeweils einen pro IP-Range (siehe oben, 100, 101, 102, 103). Du hebst die standard-Nic-Zuteilung im Register NIC-Gruppierung auf (standard = alle nicht zugeteilt, siehe 2.) und teilst jeweils eine physische Nic als aktiven Adapter und keinen als Standby zu. Bei zwei Nics ist also eine nicht verwendet und einer aktiv. MTU kannst auch auf 9000 stellen.

ESXi 1 - vmk0: 192.168.100.10 - physische NIC 1 als aktiven Adapter
ESXi 1 - vmk1: 192.168.101.10 - physische NIC 2 als aktiven Adapter
ESXi 1 - vmk2: 192.168.102.10 - physische NIC 1 als aktiven Adapter
ESXi 1 - vmk3: 192.168.103.10 - physische NIC 2 als aktiven Adapter

ESXi 2 - vmk0: 192.168.100.20 - physische NIC 1 als aktiven Adapter
ESXi 2 - vmk1: 192.168.101.20 - physische NIC 2 als aktiven Adapter
ESXi 2 - vmk2: 192.168.102.20 - physische NIC 1 als aktiven Adapter
ESXi 2 - vmk3: 192.168.103.20 - physische NIC 2 als aktiven Adapter


Einstellungen iSCSI Software Adapter Unter Konfiguration>Speicheradapter
- Unter Allgemein den Namen definieren den Du in der Storage-Einheit unter Hosts angegeben hast. Also z.B. "iqn.2010-01.com.DeineFirma:esx1"
- Unter Dynamische Erkennung die IP-Adressen aller Controller eingeben dann erkennt er den iSCSI-Name selber oder als Statische inkl. dem Namen eingeben
- Allfällige Chap-Angaben nicht vergessen
- Anschliessend sollte alle Luns erscheinen und exakt 4 Pfade zu jeder LUN anzeigen

Unter den Eigenschaften der Luns könntest noch RoundRobin einstellen, war soweit ich mich erinnere auf den Eternus nicht supported. Also die Standardvariante "zuletzt verwendet".

Hoffe das war nun verständlicher. So gibt es keine Probleme auch wenn mal ein Controller bzw. dessen Netzwerk-Ports Pseudo-Abrauchen (wohl das gängige Problem bei diesen Geräten und auch den SX Vorgängern in einer Dual-Controller-Config). Interessant ist, wenn einer Ausfällt und dieser nicht getauscht wird dann fällt der andere nie aus und macht keinerlei zicken. Wenn dann aber der Defekte erst nach z.B. einem Jahr getauscht wird (nicht das man das so machen sollte), ist beim Controller-Reboot der andere kaputt mit exakt dem gleichen Fehlerbild. Ein sonstiger Reboot macht übrigens nix aus. Ein Schelm wer böses dabei denkt. ;)

King of the Hill
Beiträge: 13560
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Re: alte DX60 ISCSI in vmWare

Beitragvon Dayworker » 10.02.2018, 12:45

@UrsDerBär
Das klingt bei dir so einfach...

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Re: alte DX60 ISCSI in vmWare

Beitragvon UrsDerBär » 12.02.2018, 16:49

hmmm kompliziert? dabei habe ich extra die Bezeichnungen/Register der GUI kopiert für die Eingaben...

Member
Beiträge: 8
Registriert: 24.01.2018, 10:32

Re: alte DX60 ISCSI in vmWare

Beitragvon chhadm » 15.02.2018, 16:00

@ Dayworker
Da muss ich dir recht geben :shock: - aber danke an alle für die Geduld.

War jetzt ein paar Tage nicht mehr hier-egal.

Danke an UrsDerBär. Ich habe aber nur einen physischen SWITCH dafür, keine zwei -> ich reduziere also nach deiner Anleitung jeweils um zwei physische NIC's bei den ESXi-Steps sowie auch die Hälfte bei iSCSI Hosts (nur 4 Einstellungen dann)
Verkabelung des Controllers
- CM 0 Port 0 auf Switch 1
- CM 0 Port 1 auf Switch 1
- CM 1 Port 0 auf Switch 1
- CM 1 Port 1 auf Switch 1
so würde das dann bei mir aussehen. Alle Post unter einer getrennten VLann z.b 100, da ich hier noch meine andere Geschichte angehängt habe.

Noch ein paar Fragen zu "Einstellungen auf dem ESXi"
1. Du erstellst einen vSwitch und teilst ihm die zwei physische nic's zu
pys Nics.PNG
so wie hier?
2. Du gehst in die Einstellungen des vSwitches und setzt alle Adapter auf Nicht zugeteilt. --> So wird jede neue Portgruppe die Du erstellst erstmal keiner Nic zugeteilt. Beugt etwas Fehlkonfigurationen vor. JumboFrames (MTU) kannst auch gleich miteinstellen auf 9000
#2.PNG

3. Du erstellst 4 VMK's innerhalb des vSwitches. Jeweils einen pro IP-Range (siehe oben, 100, 101, 102, 103). Du hebst die standard-Nic-Zuteilung im Register NIC-Gruppierung auf (standard = alle nicht zugeteilt, siehe 2.) und teilst jeweils eine physische Nic als aktiven Adapter und keinen als Standby zu. Bei zwei Nics ist also eine nicht verwendet und einer aktiv. MTU kannst auch auf 9000 stellen.
#3.PNG

wo finde ich das Ding mit den NIC-Gruppierungen?

- Und was das Lun Mapping betrifft, da habe ich nun das eine LUN 0. Dann muss ich ja nichts beachten!?

Entweder habe ich ein grundsätzlichen Verständnisproblem oder nur Tomaten auf den Augen? :x

Gruß chhadm

King of the Hill
Beiträge: 12940
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Re: alte DX60 ISCSI in vmWare

Beitragvon irix » 15.02.2018, 16:11

chhadm hat geschrieben:wo finde ich das Ding mit den NIC-Gruppierungen?


Ich meine mich zu erinnern das bei einem Plain 6.5.0 diese Option im Web Client gefehlt hat. Auf der CLI des ESXi koennte es moeglich sein aber ich meine ich habe mir beholfen in dem ich mit dem alten vSphere Client 6.0 direkt auf den ESXi 6.5 mich verbunden habe und die die NIC Teaming des VMK/Portgruppe geaendert habe.


In einem aktuellen 6.5u1 WebClient:
Host->Configure->vSwitch-> vSwitchX - Unten in der Topologie Ansicht die PG auswaehlen und dann Edit. Im Popup/Overlay dann "Teaming und Failover" die Vererbung aufbrechen.

Gruss
Joerg

Member
Beiträge: 8
Registriert: 24.01.2018, 10:32

Re: alte DX60 ISCSI in vmWare

Beitragvon chhadm » 16.02.2018, 10:28

Guten Morgen zusammen,

dann würde das so aussehen
vsphere.PNG


Wenn ich mir aber nun die Einstellungen im WebClient und vSphereCLient angucke, dann könnte ich "kot.." :evil:
webclient.PNG

webclient2.PNG

Die teile sind aktiv werden aber nicht als aktiv angezeigt.

Wie soll man da noch zurecht kommen.

Gruß chhadm

King of the Hill
Beiträge: 12940
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Re: alte DX60 ISCSI in vmWare

Beitragvon irix » 16.02.2018, 11:38

Ich glaube das du da Aepfel und Birnen anguckst. Der vSwitch gibt eine Konfig vor und auf Portgruppen Ebene kannst du diese dann "ueberschreiben". Dein 2. Screenshot zeigt da du auf vSwitch Ebene bist... das 1. und 3. dann auf PG Ebene oder?

Ja man kann auf vSwitch Ebene die NICs auf Nicht zugeordnet stellen und dann auf der Portgruppe diese dann auf Aktiv. Halte ich auch fuer Sinnvoll wenn ich einen vSwitch habe welcher dedizierte fuer iSCSI verwendet und ich das SWISCSI Binding verwende, weil dann bei Aenderungen bzw. hinzufuegen von NICs die nicht ausversehen Aktiv/Standby werden. Aber.... unser Monitoring stoert sich an vSwitchen welche keine aktiven NICs haben und wenn man den aktuellen WebClient nimmt dann wird beim Hinzufugen von NICs im Workflow darauf eingegangen was den Status angeht.

Gruss
Joerg

Member
Beiträge: 8
Registriert: 24.01.2018, 10:32

Re: alte DX60 ISCSI in vmWare

Beitragvon chhadm » 16.02.2018, 13:11

Hi,

wird auch so sein.

Muss man erst wissen, dass die Kernel-Einstellungen hier zu finden sind:
kernel-einstellungen.PNG


Ist noch ein lange weg :lol:

Gruß chhadm

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Re: alte DX60 ISCSI in vmWare

Beitragvon UrsDerBär » 16.02.2018, 16:56

Jo die Storage-Büchsen kannst halt für allerhand konfigurieren und eben auch für viele Computer-Gruppen und Lun-Zuteilungen etc. Deshalb wirkt halt die Menge an Einstellungen die getroffen werden müssen mitunter "überladen" wenn man sich an Festplatte reinstecken und gut ist gewöhnt ist. =)

Betreffend Lun-Mapping: Da kannst Du noch die Affinity-Group's unter Volume-Management definieren also definiern wer was (LUN) wie (Volume ID) im Endeffekt zu Gesicht bekommt. Wenn Du da Hilfe brauchst, melde Dich. Sollte auf alle Fäle auch korrekt konfiguriert werden.

Ansonsten wurde Dir bezüglich vSwitches ja bereits geholfen. :)

Betreffend nur einem physischen Switch: Also das halte ich persönlich für relativ gewagt. Insbesondere wenn es nicht ein wirklich vernünftiger mit zwei Netzteilen ist. VMFS mags nicht so wenn man ihm den Boden unter den Füssen wegzieht. Wenn dafür ein simpler Switch Schuld ist, dann ist es doppelt schade. ;)


Zurück zu „Hardware“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast