Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

benutzt jemand DELL equalogic iSCSI mit DELL-Server M610 ?

ESX(i)-taugliche Hardware, HCL .....

Moderatoren: irix, continuum, Dayworker

Member
Beiträge: 247
Registriert: 01.10.2007, 17:09

benutzt jemand DELL equalogic iSCSI mit DELL-Server M610 ?

Beitragvon zacker » 06.10.2011, 15:42

wenn ja würd ich mich gerne mal über die Konfiguration unterhalten und die Anbindung der
ESXi an die iSCSI PC6010E

Danke

King of the Hill
Beiträge: 12187
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 06.10.2011, 15:50

Ich habe 4 PS6010XV|X, allerdings an normalen Rackservern (R710) und nicht an Blades. Solltest du meinen ich koennte helfen dann sag ruhig bescheid. Wir koennten auch telefonieren. Nur zu deinen Blade besonderheiten kann ich garnichts sagen.

Gruss
Joerg

Member
Beiträge: 247
Registriert: 01.10.2007, 17:09

Beitragvon zacker » 07.10.2011, 09:01

hallo,

na vielleicht kannst du mir ja trotzdem helfen.

Es geht eigentlich auch eher um das best practice von Dell:

configure-vsphere-sw-iscsi-with-ps-series-san-v1.2
http://www.equallogic.com/WorkArea/Down ... px?id=8453

Hast du danach deine PS6010 angebunden?
oder auf welche art und Weise läufts bei dir ?

Danke

Member
Beiträge: 247
Registriert: 01.10.2007, 17:09

Beitragvon zacker » 07.10.2011, 10:11

ach noch ne zweite Frage

wie sind die LUNs / Volumes auf dem iSCSI angelegt ?
Ich mach für eine VM ein Volume damit ich die snapshotten kann.
das ergibt natürlich viele Volumes ....

machst du das auch so oder eher grosse Volumes ?
Wieviel VMs können dann auf einem Volume laufen ?

Danke

King of the Hill
Beiträge: 12187
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 07.10.2011, 10:11

Ja wir machten schon immer ein 1:1 Binding was VMK<->vmnic angeht. Ich habe Setups mit einem vSwitch und 2x10Gbe und auch 2x vSwitch mit je 1x10GbE. Letzteres war notwendig weil mit mit dem hinzufuegen eines 2. Arrays die Performance auf einmal in den Keller ging. Der DELL Support wusste hier auch nicht weiter. Hier kam aber erstmal das Dell/EQL MeM zum Einsatz.

Den Guide kenne ich auch.... aber ein paar exakte Fragen von dir waeren mir nun lieber. Ich habe Setups welche manuell entstanden sind als auch unter zuhilfe Name des setup.pl. Bei letzterem muss man mit der Reihenfolge ein bisschen ueben damit die Zuordnung hinterher so sind wie man sie haben will.

Die 10GbE Deployments verwenden immer die vSS hier und kein vDS.

Gruss
Joerg

King of the Hill
Beiträge: 12187
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 07.10.2011, 10:22

zacker hat geschrieben:ach noch ne zweite Frage

wie sind die LUNs / Volumes auf dem iSCSI angelegt ?


Na passend natuerlich ;)

Ich mach für eine VM ein Volume damit ich die snapshotten kann.
das ergibt natürlich viele Volumes ....


Nein so was machen wir nicht. Ich habe auch kein richtiges Beduefnes nach EQL Snapshots sondern das macht VMware. Ja der ASM 3.0 ist aktiv......


machst du das auch so oder eher grosse Volumes ?


Hier sind die Luns 512Gb(Medium), 1TB(Large) und 2TB(eXtra Large). Ich habe ein Namenschema

EQL:

Code: Alles auswählen

<gruppenname>-<ID>-<typ>-<Groesse>
<gruppenname> = grp01 // Das macht Sinn wenn die LUN repliziert werden soll
<typ> = vmfs / virt / phy // Dann weis ich fuer welchen Typ Server die LUN ist
<ID> = fortlaufende ID
<Groesse> = m,l,x // Frueher gabs noch Small


Wieviel VMs können dann auf einem Volume laufen ?


Haben tu ich zwischen 1 und 25. Bei einer Konsolidierung auch schon mal 40 und mehr. Nein wir haben keine Probleme mit SCSI Reservations da kein Thinprov und wenige Snaps.

Gruss
Joerg

Member
Beiträge: 247
Registriert: 01.10.2007, 17:09

Beitragvon zacker » 07.10.2011, 12:05

irix hat geschrieben:Ja wir machten schon immer ein 1:1 Binding was VMK<->vmnic angeht. Ich habe Setups mit einem vSwitch und 2x10Gbe und auch 2x vSwitch mit je 1x10GbE. Letzteres war notwendig weil mit mit dem hinzufuegen eines 2. Arrays die Performance auf einmal in den Keller ging. Der DELL Support wusste hier auch nicht weiter. Hier kam aber erstmal das Dell/EQL MeM zum Einsatz.

Den Guide kenne ich auch.... aber ein paar exakte Fragen von dir waeren mir nun lieber. Ich habe Setups welche manuell entstanden sind als auch unter zuhilfe Name des setup.pl. Bei letzterem muss man mit der Reihenfolge ein bisschen ueben damit die Zuordnung hinterher so sind wie man sie haben will.

Die 10GbE Deployments verwenden immer die vSS hier und kein vDS.

Gruss
Joerg


hi,

ich wollte meine ESXi so umstellen wie es in dem WhitePaper vorgegeben ist ,
da wir auch teilweise Performance probleme bzw. hohe Latenzen auf dem EQL haben.
wir haben auch mehrere: PS 5000 - PS 6000 - PS 6010
Nur leider funktionierte das kaum - schlecht.

- Die Bootdauer der Server beträgt mehrere Stunden (vorher waren es minuten)
- meine LUNs werden teilweise bei Gerät/Pfad korrekt angezeigt aber nicht als Speicher
- beim scannen des vmhba kommt es zu Fehlermeldungen und abbruch aber nach mehreren Stunden erscheinen die LUNs dann doch
- ständiges schliessen und connecten der LUNs (Monitoring des EQL)
- einige VMs haben sich gestern anscheinend aufgehängt weil die Luns nicht erreichbar waren ?
- ab und zu sind server im VC disconnected ... nach längerer Zeit sind sie auf einmal wieder connected.
-anzeige bei diesen Server das DRS ein problem hat.

was meinst du mit vss ?
ich habe wie im Paper einen vSwitch mit je einer vmk für meine beiden 10GbE uplinks

wenn du 2 vSwitch mit je einem Uplink hast wie hast du das konfiguriert ?
selbes Subnetz ? vmotion, fault tolerance, mangement traffic ? redundanz ?

Ich hoffe das sind nicht zuviele Fragen auf einmal :oops:

Danke

King of the Hill
Beiträge: 12187
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 07.10.2011, 12:23

zacker hat geschrieben:..
was meinst du mit vss ?


Ich meine einen Virtual Standard Switch und nicht den Virtual Distributed Switch.

ich habe wie im Paper einen vSwitch mit je einer vmk für meine beiden 10GbE uplinks


Das hatte bei mir nicht so gut funktioniert (Mit einer EQL ok... mit der zweiten knirschte es. Heute hab ich 3xPS6010XV in der Gruppe/Pool.

Code: Alles auswählen

-vSS (vSwitch 1)
   | -- VMK1 -> vmnic1 (10GbE)
-vSS (vSwitch 2)
   | -- VMK2 -> vmni2 (10GbE)


Du hast

Code: Alles auswählen

-vSS (vSwitch 1)
   | -- VMK1 -> vmnic1 (10GbE)
   | -- VMK2 -> vmnic2 (10GbE)


Das binding der VMKs an den swISCSI setze ich mal vorraus.

wenn du 2 vSwitch mit je einem Uplink hast wie hast du das konfiguriert ?
selbes Subnetz ? vmotion, fault tolerance, mangement traffic ? redundanz ?


iSCSI hat ein eigenes Subnetz und VLAN. Alle anderen Typen haben AUCH ihre eigenen Subnetze/VLANs (vMotion, FT) und liegen auf einem vDS bzw. auf einem anderen vSS.

Nur in Setups wo ich nur 2x10GbE haette ich nur einen/wenige vSS bzw. denn 10GbE werden 1GbE als Standby Adapter fuer Failover (nur vMotion/FT/LAN und nicht ISCSI) zugeordnet.

Bei iSCSI kommt die Redundanz ueber das Binding der VMKs.
Wir haben die PC8024f im Einsatz

Zu deinen geschildertem Problem... war das Problem schon immer da oder hat sich das eingeschlichen? Man koennte ja fast meinen an der Switch Konfiguration ist was nicht ganz optimal. Mit dem DELL/EQL Support hast du schon Kontakt gehabt?

Gruss
Joerg

King of the Hill
Beiträge: 12187
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 07.10.2011, 12:25

Zu deinen langen Rebootzeiten. Ja je nach Anzahl der LUNs zieht sich das. Aber von vSphere 4 nach 5 hab ich das Gefuehl sie haben ein "sleep 86400" eingebaut weil das sind Rebootzeiten wo man Unkraut beim Wachsen zuschauen kann.

Gruss
Joerg

King of the Hill
Beiträge: 12187
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 10.10.2011, 10:35

ESXi 5.x boot delays when configured for Software iSCSI
http://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=2007108

Ob es eine Relevanz hat fuer dein Problem vermag ich nicht zusagen... kam mir aber gerade nur unter.

Gruss
Joerg

Member
Beiträge: 247
Registriert: 01.10.2007, 17:09

Beitragvon zacker » 10.10.2011, 13:46

Hallo und vielen Dank schonmal für die Antworten.

Ich hatte vor ein paar Wochen Dell im Haus und der Techniker hat mir das WhitePaper
nahegelegt da wir uns auch wegen Latenzzeiten des iSCSI beschwert hatten.

Ich habe dann in den letzten zwei Wochen 6 meiner 9 Clusterserver soweit umgebaut das es wie in der Anleitung war. Aber dann fingen die Probleme an ...

So jetzt werd ich mich mal mit dem geschriebenen auseinandersetzen

CU

Member
Beiträge: 247
Registriert: 01.10.2007, 17:09

Beitragvon zacker » 12.10.2011, 09:35

Hallo,

also mein Problem triit auf wenn ich

esxcfg-vmknic -m 9000 eingebe.

der Vswitch läuft poblemlos mit MTU 9000 aber die pnic? macht anscheinend das Problem bei einer MTU von 9000.
wenn ich zurückstelle auf MTU 1500 klappt wieder alles .

mal sehen ob ich nochwas rausfinden kann.

King of the Hill
Beiträge: 12187
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 12.10.2011, 09:46

Jumboframes waren auch hier ein Problem und haben die PS5000 PS4000 gehoerig aus dem tritt gebracht und die Packeterrror Zaehler sind explodiert und ein arbeiten war nur teilweise moeglich. Bei einer MTU1500 gabs an der Ecke weniger Probleme.

Die PS6010er zeigten sich an den 8024f da aber unbeeindruckt aber trotzdem hab ich global auf 1500 umgestellt was die VMKs an geht. Die vSS/vDS und die pNIC,pSwitche sind noch "fuer" 9000 konfiguriert.

Die aktuelle 5.0.8 Firmware adressiert das Packeterror Problem und hat es deutlich minimiert.

Gruss
Joerg

Member
Beiträge: 13
Registriert: 22.07.2010, 15:09

Beitragvon yoda333 » 13.10.2011, 11:50

Hallo zusammen,

ich werde mich nächste Woche auch mit dem Thema befassen müssen.
In wie weit kann ich das WhitePaper auf die vSphere 5 anwenden?

Gibt es noch ein paar Tips und Tricks auf die man gleich achten sollte?

Gruß
Yoda333

King of the Hill
Beiträge: 12187
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 13.10.2011, 12:48

Im Grundsatz ist es garantiert noch gueltig, allerdings kann man ja in vSphere 5 mehr ueber die GUI machen und esxcli hat sich extrem gewandelt.

Hinzu kommt das MeM 1.0.1 nur fuer vSphere 4.1 supportet ist und gleichen gilt fuer HIT/VME 3.01. Fuer letzteres gibts aber ein EPA Kit fuer die mutigen unter den Admins. Allerdings kann man auf die Funktionalitaet ja noch eine weile verzichten meiner Meinung nach.

Gruss
Joerg

Member
Beiträge: 13
Registriert: 22.07.2010, 15:09

Beitragvon yoda333 » 13.10.2011, 13:14

Hi,

dank für die Antwort.
Den erst Satz habe ich so weit verstanden.
Aber kann du mir die ganzen Abkürzungen im zweiten mal erklären.

Danke
Yoda333

King of the Hill
Beiträge: 12187
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 13.10.2011, 13:30

yoda333 hat geschrieben:Hi,

dank für die Antwort.
Den erst Satz habe ich so weit verstanden.
Aber kann du mir die ganzen Abkürzungen im zweiten mal erklären.

Danke
Yoda333


MeM = Multipath Extension Module welches ein Plugin ist ist das dann EQL_Routed als Einstellung ermoeglicht anstelle von RoundRobin. Version 1.01 ist aktuell.
Hit/VME = Host Integration Toolkoot /VMware Edition. Ein PlugIn fuer das vCenter wo du nun LUN Infos, Snapshot und Replikation der EQL Gruppe im vSphere Clienst siehst und steuern kannst. Dazu noch VIEW Deployment Unterstuetzung.
EPA = Early Production Access.... so quasi als Vorabversion. Das Hit/VME 3.1 hat dann vSphere 5 Support

Gruss
Joerg

Member
Beiträge: 247
Registriert: 01.10.2007, 17:09

Beitragvon zacker » 14.10.2011, 10:55

yoda333 hat geschrieben:Hallo zusammen,

ich werde mich nächste Woche auch mit dem Thema befassen müssen.


Hallo,
was heisst denn das genau ?
dein Aufbau würde mich auch interessieren.
gerade in Bezug auf Blades und die Switch im Blade.

Benutzt du was davon ?

CU

Member
Beiträge: 13
Registriert: 22.07.2010, 15:09

Beitragvon yoda333 » 14.10.2011, 10:58

Hi,

wir haben zwei PS6000XV gekauft. Als Server kommen erst mal jeweils zwei 2850 und R300 von Dell zum Einsatz. Das ganze darf ich dann zwei Wochen als Spielwiese benutzen, bevor ein Exchangecluster drauf kommt.

Wenn dann noch Ressourcen übrig sind, sollen auch ESXi Server an die PS angeschlossen werden.

Gruß
Yoda333

Member
Beiträge: 13
Registriert: 22.07.2010, 15:09

Beitragvon yoda333 » 21.10.2011, 11:10

Hallo zusammen,

wir hatten gestern eine Telco mit einem Techniker von Dell und dabei ist folgendes zu Tage gekommen.

Sollte einer unserer Equalogic ausfallen, dann wird kein automatisches Failover gemacht.
Die LUNS werden zwar auf die zweite alle 5 Minuten repliziert, aber man müsste das LUN mapping nach einem Ausfall händisch vollziehen.

Er meinte das man das evtl. auf der SAN scripten kann.
Habt ihr evtl. so etwas schon im Einsatz oder macht ihr ein händisches Failover?

Gruß
Yoda333

King of the Hill
Beiträge: 12187
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 21.10.2011, 11:16

yoda333 hat geschrieben:Hallo zusammen,

wir hatten gestern eine Telco mit einem Techniker von Dell und dabei ist folgendes zu Tage gekommen.

Sollte einer unserer Equalogic ausfallen, dann wird kein automatisches Failover gemacht.


Das ist bekannt.

Die LUNS werden zwar auf die zweite alle 5 Minuten repliziert, aber man müsste das LUN mapping nach einem Ausfall händisch vollziehen.


Sind in deinen 5min auch die Herstellung der Konsistenz der VMs enthalten? Wuerde ich als zuviel Stress empfinden alle 5min.

Er meinte das man das evtl. auf der SAN scripten kann.


Das gibts fertig von VMware und heist dann SRM.

Habt ihr evtl. so etwas schon im Einsatz oder macht ihr ein händisches Failover?

Gruß
Yoda333


Ja das passiert dann haendisch. Weil vorher klar sein muss was eigentlich passiert ist, wie hoch ist die Wahrscheinlichkeit das ein Failback durchgefuehrt werden soll usw.

Edit:
Die Spiegelung in Echtzeit soll in Q1/2012 dann kommen. Soll/ist dann Quasi so ein Netzwerk RAID.

Gruss
Joerg


Zurück zu „Hardware“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast