Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!
benutzt jemand DELL equalogic iSCSI mit DELL-Server M610 ?
benutzt jemand DELL equalogic iSCSI mit DELL-Server M610 ?
wenn ja würd ich mich gerne mal über die Konfiguration unterhalten und die Anbindung der
ESXi an die iSCSI PC6010E
Danke
ESXi an die iSCSI PC6010E
Danke
hallo,
na vielleicht kannst du mir ja trotzdem helfen.
Es geht eigentlich auch eher um das best practice von Dell:
configure-vsphere-sw-iscsi-with-ps-series-san-v1.2
http://www.equallogic.com/WorkArea/Down ... px?id=8453
Hast du danach deine PS6010 angebunden?
oder auf welche art und Weise läufts bei dir ?
Danke
na vielleicht kannst du mir ja trotzdem helfen.
Es geht eigentlich auch eher um das best practice von Dell:
configure-vsphere-sw-iscsi-with-ps-series-san-v1.2
http://www.equallogic.com/WorkArea/Down ... px?id=8453
Hast du danach deine PS6010 angebunden?
oder auf welche art und Weise läufts bei dir ?
Danke
-
- King of the Hill
- Beiträge: 12942
- Registriert: 02.08.2008, 15:06
- Wohnort: Hannover/Wuerzburg
- Kontaktdaten:
Ja wir machten schon immer ein 1:1 Binding was VMK<->vmnic angeht. Ich habe Setups mit einem vSwitch und 2x10Gbe und auch 2x vSwitch mit je 1x10GbE. Letzteres war notwendig weil mit mit dem hinzufuegen eines 2. Arrays die Performance auf einmal in den Keller ging. Der DELL Support wusste hier auch nicht weiter. Hier kam aber erstmal das Dell/EQL MeM zum Einsatz.
Den Guide kenne ich auch.... aber ein paar exakte Fragen von dir waeren mir nun lieber. Ich habe Setups welche manuell entstanden sind als auch unter zuhilfe Name des setup.pl. Bei letzterem muss man mit der Reihenfolge ein bisschen ueben damit die Zuordnung hinterher so sind wie man sie haben will.
Die 10GbE Deployments verwenden immer die vSS hier und kein vDS.
Gruss
Joerg
Den Guide kenne ich auch.... aber ein paar exakte Fragen von dir waeren mir nun lieber. Ich habe Setups welche manuell entstanden sind als auch unter zuhilfe Name des setup.pl. Bei letzterem muss man mit der Reihenfolge ein bisschen ueben damit die Zuordnung hinterher so sind wie man sie haben will.
Die 10GbE Deployments verwenden immer die vSS hier und kein vDS.
Gruss
Joerg
-
- King of the Hill
- Beiträge: 12942
- Registriert: 02.08.2008, 15:06
- Wohnort: Hannover/Wuerzburg
- Kontaktdaten:
zacker hat geschrieben:ach noch ne zweite Frage
wie sind die LUNs / Volumes auf dem iSCSI angelegt ?
Na passend natuerlich
Ich mach für eine VM ein Volume damit ich die snapshotten kann.
das ergibt natürlich viele Volumes ....
Nein so was machen wir nicht. Ich habe auch kein richtiges Beduefnes nach EQL Snapshots sondern das macht VMware. Ja der ASM 3.0 ist aktiv......
machst du das auch so oder eher grosse Volumes ?
Hier sind die Luns 512Gb(Medium), 1TB(Large) und 2TB(eXtra Large). Ich habe ein Namenschema
EQL:
Code: Alles auswählen
<gruppenname>-<ID>-<typ>-<Groesse>
<gruppenname> = grp01 // Das macht Sinn wenn die LUN repliziert werden soll
<typ> = vmfs / virt / phy // Dann weis ich fuer welchen Typ Server die LUN ist
<ID> = fortlaufende ID
<Groesse> = m,l,x // Frueher gabs noch Small
Wieviel VMs können dann auf einem Volume laufen ?
Haben tu ich zwischen 1 und 25. Bei einer Konsolidierung auch schon mal 40 und mehr. Nein wir haben keine Probleme mit SCSI Reservations da kein Thinprov und wenige Snaps.
Gruss
Joerg
irix hat geschrieben:Ja wir machten schon immer ein 1:1 Binding was VMK<->vmnic angeht. Ich habe Setups mit einem vSwitch und 2x10Gbe und auch 2x vSwitch mit je 1x10GbE. Letzteres war notwendig weil mit mit dem hinzufuegen eines 2. Arrays die Performance auf einmal in den Keller ging. Der DELL Support wusste hier auch nicht weiter. Hier kam aber erstmal das Dell/EQL MeM zum Einsatz.
Den Guide kenne ich auch.... aber ein paar exakte Fragen von dir waeren mir nun lieber. Ich habe Setups welche manuell entstanden sind als auch unter zuhilfe Name des setup.pl. Bei letzterem muss man mit der Reihenfolge ein bisschen ueben damit die Zuordnung hinterher so sind wie man sie haben will.
Die 10GbE Deployments verwenden immer die vSS hier und kein vDS.
Gruss
Joerg
hi,
ich wollte meine ESXi so umstellen wie es in dem WhitePaper vorgegeben ist ,
da wir auch teilweise Performance probleme bzw. hohe Latenzen auf dem EQL haben.
wir haben auch mehrere: PS 5000 - PS 6000 - PS 6010
Nur leider funktionierte das kaum - schlecht.
- Die Bootdauer der Server beträgt mehrere Stunden (vorher waren es minuten)
- meine LUNs werden teilweise bei Gerät/Pfad korrekt angezeigt aber nicht als Speicher
- beim scannen des vmhba kommt es zu Fehlermeldungen und abbruch aber nach mehreren Stunden erscheinen die LUNs dann doch
- ständiges schliessen und connecten der LUNs (Monitoring des EQL)
- einige VMs haben sich gestern anscheinend aufgehängt weil die Luns nicht erreichbar waren ?
- ab und zu sind server im VC disconnected ... nach längerer Zeit sind sie auf einmal wieder connected.
-anzeige bei diesen Server das DRS ein problem hat.
was meinst du mit vss ?
ich habe wie im Paper einen vSwitch mit je einer vmk für meine beiden 10GbE uplinks
wenn du 2 vSwitch mit je einem Uplink hast wie hast du das konfiguriert ?
selbes Subnetz ? vmotion, fault tolerance, mangement traffic ? redundanz ?
Ich hoffe das sind nicht zuviele Fragen auf einmal
Danke
-
- King of the Hill
- Beiträge: 12942
- Registriert: 02.08.2008, 15:06
- Wohnort: Hannover/Wuerzburg
- Kontaktdaten:
zacker hat geschrieben:..
was meinst du mit vss ?
Ich meine einen Virtual Standard Switch und nicht den Virtual Distributed Switch.
ich habe wie im Paper einen vSwitch mit je einer vmk für meine beiden 10GbE uplinks
Das hatte bei mir nicht so gut funktioniert (Mit einer EQL ok... mit der zweiten knirschte es. Heute hab ich 3xPS6010XV in der Gruppe/Pool.
Code: Alles auswählen
-vSS (vSwitch 1)
| -- VMK1 -> vmnic1 (10GbE)
-vSS (vSwitch 2)
| -- VMK2 -> vmni2 (10GbE)
Du hast
Code: Alles auswählen
-vSS (vSwitch 1)
| -- VMK1 -> vmnic1 (10GbE)
| -- VMK2 -> vmnic2 (10GbE)
Das binding der VMKs an den swISCSI setze ich mal vorraus.
wenn du 2 vSwitch mit je einem Uplink hast wie hast du das konfiguriert ?
selbes Subnetz ? vmotion, fault tolerance, mangement traffic ? redundanz ?
iSCSI hat ein eigenes Subnetz und VLAN. Alle anderen Typen haben AUCH ihre eigenen Subnetze/VLANs (vMotion, FT) und liegen auf einem vDS bzw. auf einem anderen vSS.
Nur in Setups wo ich nur 2x10GbE haette ich nur einen/wenige vSS bzw. denn 10GbE werden 1GbE als Standby Adapter fuer Failover (nur vMotion/FT/LAN und nicht ISCSI) zugeordnet.
Bei iSCSI kommt die Redundanz ueber das Binding der VMKs.
Wir haben die PC8024f im Einsatz
Zu deinen geschildertem Problem... war das Problem schon immer da oder hat sich das eingeschlichen? Man koennte ja fast meinen an der Switch Konfiguration ist was nicht ganz optimal. Mit dem DELL/EQL Support hast du schon Kontakt gehabt?
Gruss
Joerg
-
- King of the Hill
- Beiträge: 12942
- Registriert: 02.08.2008, 15:06
- Wohnort: Hannover/Wuerzburg
- Kontaktdaten:
ESXi 5.x boot delays when configured for Software iSCSI
http://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=2007108
Ob es eine Relevanz hat fuer dein Problem vermag ich nicht zusagen... kam mir aber gerade nur unter.
Gruss
Joerg
http://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=2007108
Ob es eine Relevanz hat fuer dein Problem vermag ich nicht zusagen... kam mir aber gerade nur unter.
Gruss
Joerg
Hallo und vielen Dank schonmal für die Antworten.
Ich hatte vor ein paar Wochen Dell im Haus und der Techniker hat mir das WhitePaper
nahegelegt da wir uns auch wegen Latenzzeiten des iSCSI beschwert hatten.
Ich habe dann in den letzten zwei Wochen 6 meiner 9 Clusterserver soweit umgebaut das es wie in der Anleitung war. Aber dann fingen die Probleme an ...
So jetzt werd ich mich mal mit dem geschriebenen auseinandersetzen
CU
Ich hatte vor ein paar Wochen Dell im Haus und der Techniker hat mir das WhitePaper
nahegelegt da wir uns auch wegen Latenzzeiten des iSCSI beschwert hatten.
Ich habe dann in den letzten zwei Wochen 6 meiner 9 Clusterserver soweit umgebaut das es wie in der Anleitung war. Aber dann fingen die Probleme an ...
So jetzt werd ich mich mal mit dem geschriebenen auseinandersetzen
CU
-
- King of the Hill
- Beiträge: 12942
- Registriert: 02.08.2008, 15:06
- Wohnort: Hannover/Wuerzburg
- Kontaktdaten:
Jumboframes waren auch hier ein Problem und haben die PS5000 PS4000 gehoerig aus dem tritt gebracht und die Packeterrror Zaehler sind explodiert und ein arbeiten war nur teilweise moeglich. Bei einer MTU1500 gabs an der Ecke weniger Probleme.
Die PS6010er zeigten sich an den 8024f da aber unbeeindruckt aber trotzdem hab ich global auf 1500 umgestellt was die VMKs an geht. Die vSS/vDS und die pNIC,pSwitche sind noch "fuer" 9000 konfiguriert.
Die aktuelle 5.0.8 Firmware adressiert das Packeterror Problem und hat es deutlich minimiert.
Gruss
Joerg
Die PS6010er zeigten sich an den 8024f da aber unbeeindruckt aber trotzdem hab ich global auf 1500 umgestellt was die VMKs an geht. Die vSS/vDS und die pNIC,pSwitche sind noch "fuer" 9000 konfiguriert.
Die aktuelle 5.0.8 Firmware adressiert das Packeterror Problem und hat es deutlich minimiert.
Gruss
Joerg
-
- King of the Hill
- Beiträge: 12942
- Registriert: 02.08.2008, 15:06
- Wohnort: Hannover/Wuerzburg
- Kontaktdaten:
Im Grundsatz ist es garantiert noch gueltig, allerdings kann man ja in vSphere 5 mehr ueber die GUI machen und esxcli hat sich extrem gewandelt.
Hinzu kommt das MeM 1.0.1 nur fuer vSphere 4.1 supportet ist und gleichen gilt fuer HIT/VME 3.01. Fuer letzteres gibts aber ein EPA Kit fuer die mutigen unter den Admins. Allerdings kann man auf die Funktionalitaet ja noch eine weile verzichten meiner Meinung nach.
Gruss
Joerg
Hinzu kommt das MeM 1.0.1 nur fuer vSphere 4.1 supportet ist und gleichen gilt fuer HIT/VME 3.01. Fuer letzteres gibts aber ein EPA Kit fuer die mutigen unter den Admins. Allerdings kann man auf die Funktionalitaet ja noch eine weile verzichten meiner Meinung nach.
Gruss
Joerg
-
- King of the Hill
- Beiträge: 12942
- Registriert: 02.08.2008, 15:06
- Wohnort: Hannover/Wuerzburg
- Kontaktdaten:
yoda333 hat geschrieben:Hi,
dank für die Antwort.
Den erst Satz habe ich so weit verstanden.
Aber kann du mir die ganzen Abkürzungen im zweiten mal erklären.
Danke
Yoda333
MeM = Multipath Extension Module welches ein Plugin ist ist das dann EQL_Routed als Einstellung ermoeglicht anstelle von RoundRobin. Version 1.01 ist aktuell.
Hit/VME = Host Integration Toolkoot /VMware Edition. Ein PlugIn fuer das vCenter wo du nun LUN Infos, Snapshot und Replikation der EQL Gruppe im vSphere Clienst siehst und steuern kannst. Dazu noch VIEW Deployment Unterstuetzung.
EPA = Early Production Access.... so quasi als Vorabversion. Das Hit/VME 3.1 hat dann vSphere 5 Support
Gruss
Joerg
Hi,
wir haben zwei PS6000XV gekauft. Als Server kommen erst mal jeweils zwei 2850 und R300 von Dell zum Einsatz. Das ganze darf ich dann zwei Wochen als Spielwiese benutzen, bevor ein Exchangecluster drauf kommt.
Wenn dann noch Ressourcen übrig sind, sollen auch ESXi Server an die PS angeschlossen werden.
Gruß
Yoda333
wir haben zwei PS6000XV gekauft. Als Server kommen erst mal jeweils zwei 2850 und R300 von Dell zum Einsatz. Das ganze darf ich dann zwei Wochen als Spielwiese benutzen, bevor ein Exchangecluster drauf kommt.
Wenn dann noch Ressourcen übrig sind, sollen auch ESXi Server an die PS angeschlossen werden.
Gruß
Yoda333
Hallo zusammen,
wir hatten gestern eine Telco mit einem Techniker von Dell und dabei ist folgendes zu Tage gekommen.
Sollte einer unserer Equalogic ausfallen, dann wird kein automatisches Failover gemacht.
Die LUNS werden zwar auf die zweite alle 5 Minuten repliziert, aber man müsste das LUN mapping nach einem Ausfall händisch vollziehen.
Er meinte das man das evtl. auf der SAN scripten kann.
Habt ihr evtl. so etwas schon im Einsatz oder macht ihr ein händisches Failover?
Gruß
Yoda333
wir hatten gestern eine Telco mit einem Techniker von Dell und dabei ist folgendes zu Tage gekommen.
Sollte einer unserer Equalogic ausfallen, dann wird kein automatisches Failover gemacht.
Die LUNS werden zwar auf die zweite alle 5 Minuten repliziert, aber man müsste das LUN mapping nach einem Ausfall händisch vollziehen.
Er meinte das man das evtl. auf der SAN scripten kann.
Habt ihr evtl. so etwas schon im Einsatz oder macht ihr ein händisches Failover?
Gruß
Yoda333
-
- King of the Hill
- Beiträge: 12942
- Registriert: 02.08.2008, 15:06
- Wohnort: Hannover/Wuerzburg
- Kontaktdaten:
yoda333 hat geschrieben:Hallo zusammen,
wir hatten gestern eine Telco mit einem Techniker von Dell und dabei ist folgendes zu Tage gekommen.
Sollte einer unserer Equalogic ausfallen, dann wird kein automatisches Failover gemacht.
Das ist bekannt.
Die LUNS werden zwar auf die zweite alle 5 Minuten repliziert, aber man müsste das LUN mapping nach einem Ausfall händisch vollziehen.
Sind in deinen 5min auch die Herstellung der Konsistenz der VMs enthalten? Wuerde ich als zuviel Stress empfinden alle 5min.
Er meinte das man das evtl. auf der SAN scripten kann.
Das gibts fertig von VMware und heist dann SRM.
Habt ihr evtl. so etwas schon im Einsatz oder macht ihr ein händisches Failover?
Gruß
Yoda333
Ja das passiert dann haendisch. Weil vorher klar sein muss was eigentlich passiert ist, wie hoch ist die Wahrscheinlichkeit das ein Failback durchgefuehrt werden soll usw.
Edit:
Die Spiegelung in Echtzeit soll in Q1/2012 dann kommen. Soll/ist dann Quasi so ein Netzwerk RAID.
Gruss
Joerg
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 10 Gäste