Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

Best Practice MSA2000

Hilfe bei Problemen mit Installation & Benutzung des VMware ESX Server 4/VMware vSphere 4.0.

Moderatoren: Dayworker, irix

Member
Beiträge: 7
Registriert: 16.10.2008, 15:31

Best Practice MSA2000

Beitragvon schneis » 25.12.2009, 19:06

Hallo,

ich bin gerade dabei unsere neues Vmware Cluster in Betrieb zu nehmen.
Leider bin ich mir über die Storage Konfiguration (Aufteilung, RAID Level) unschlüssig. Daher suche ich
noch ein Best Practice für die MSA2324FC

So hier die Ausgangslage:
- MSA 2324FC (zwei Controller; 4GBit Anbindung).
- 12x 300GB Festplatten
- 20-25 VMs (alle möglichen Servertypen[DC, Exchange, WSUS,etc],
- 1TB Daten vom Fileserver


Meine bisherigen Ideen:
1. Eine große Spindel (Virtuelle Datenträger - RAID6) mit allen Festplatten um möglichst
eine große Performance zu erhalten. Da jedoch die MSA im gegensatz zur EVA kein
echtes Active-Active unterstützt, läg die ganze Last auf einem Controller. Außerdem
wäre bei einem Festplattendefekt direkt der ganze RAID Verbund betroffen.

2. 2 Spindeln mit 5 bzw. 6 Platten (RAID6) und auf beiden Conrollern verteilen. Ein Nachteil wäre hierbei das ich mehr Platz verliere.

Ich tendiere eher zu einem RAID 6 da mir dort 2 Festplatten ausfallen können. Außerdem hat die MSA bei Schreib- /Lesetests bei RAID5 und RAID6 annähernd
die gleichen Messwerte geliefert (240MB lesen / 140MB schreiben)


Was mein ihr?

MfG
schneis

Experte
Beiträge: 1337
Registriert: 25.04.2009, 11:17
Wohnort: Thüringen

Beitragvon Supi » 25.12.2009, 19:11

Was hälst du von 6x im Raid-10 und 5x im Raid-5 und die letzte HDD als Global Hot-Spare?
Das Raid-10 für I/O Intensive Sachen wie Exchange oder DB, das Raid-5 für den Fileserver und sonstige Sachen.

Member
Beiträge: 7
Registriert: 16.10.2008, 15:31

Beitragvon schneis » 25.12.2009, 20:23

Hallo supi,

ich sehe halt das Problem bei RAID5 und RAID1/0, dass wenn mir bei einem Rebuild
eine zweite Platte abraucht das RAID beschädigt ist und somit einige Server ausfallen.

Hast du selber ne MSA2000?

MfG
schneis

Experte
Beiträge: 1337
Registriert: 25.04.2009, 11:17
Wohnort: Thüringen

Beitragvon Supi » 25.12.2009, 23:45

Hallo Schneis,

verwende kene MSA2000, aber eine MD3000i.
Die MSA2000 wird sich aber ähnlich verhalten. Sprich z.b. dein großes raid-6 teilst du in mehere luns (quasi partitionen auf dem raid) ein und diese werden dann einem der Controller zugeordnet und damit auch die Last verteilt.
Fällt einer der Controller aus, übernimmt der andere.

Raid-10 kann im optimalen Fall auch mehr als einen Plattenausfall verkraften.
http://www.tecchannel.de/storage/extra/ ... dex19.html

Member
Beiträge: 7
Registriert: 16.10.2008, 15:31

Beitragvon schneis » 26.12.2009, 20:17

Hallo supi,

Problem ist bei der MSA, das du einem Array einen Eigentümer zuweisen musst,
über den dann immer die Daten laufen. Wenn ich z.B dem Array als Eigentümer
den Controller A zuweise und eine LUN über den Controller B "präsentiere"
laufen die Daten zuerst über den Controller A. Dise hat bei Schreib/Lesetests zu
ziemlichen Performanceeinbußen geführt.

Die logische Verwaltung ist leider bei der MSA schlecht gelöst worden.
Bei einer EVA habe ich diese Probleme nicht. Ist jedoch auch eine andere Preisklasse.
Wie ist denn bei deinem bzw. anderen Entry/Midsize Storage Sytemen?

MfG
schneis

Experte
Beiträge: 1337
Registriert: 25.04.2009, 11:17
Wohnort: Thüringen

Beitragvon Supi » 26.12.2009, 20:33

@ Schneis:

hm, gute Frage. Möglich das dies bei der MD3000(i) von Dell ähnlich ist. Da bei mir jedoch die 12 Platten als 6x R-10 und 5-R5 und eine Hotspare laufen, habe ich diese "Problem" damit wohl halbwegs umgangen, da ich die Luns jeweils einem der Controller zugewiesen habe und dabei die Pro Raid-Level auf einem eigenen Controller.
Auf beiden Raids habe ich je 2 Luns, damit ich die 4 1Gbit Leitungen des MD3000i Optimal auslasten kann.
Bei dieser ISCSI hat man sonst eher ein Bandbreitenproblem wenn man nur eine Lun "präsentiert". Jede Lun ist bei der MD3000i ein einzelnes ISCSI Target, wo maximal nur 1GBit rauskommen.
Aber eventuell gibts ja nach Weihnachten noch ein paar Leute, die sich mit deiner HP MSA besser auskennen.

Guru
Beiträge: 2082
Registriert: 21.10.2006, 08:24

Beitragvon bla!zilla » 27.12.2009, 19:49

Die MSA2000 G2 beherrscht, wie die EVA, ALUA, daher ist das ziemlich egal mit dem owning controller. Was hier im Thread genannt wurde, gilt für die MSA2000 G1. Die MSA2000 ist mit der MD3000i nicht vergleichbar. Ich würde in jedem Fall alle Platten in ein Array packen, der Performance wegen. RAID 6 würde ich nicht machen. RAID 6 macht nur Sinn, wenn man eine große Anzahl von SATA Platten einsetzt, wo man wirklich Angst haben muss, dass während des Rebuilds eine zweite Platte ausfällt.

Bei mehr Fragen, einfach hier stellen. Ich kenne die MSA2000 sehr gut.

Member
Beiträge: 209
Registriert: 06.01.2008, 21:17

msa2012i

Beitragvon parkesel » 27.12.2009, 20:41

Hallo Leute

Frohes Fest @ all.


Kennt jemand dieses Problem?

Habe bei einer MSA2012i das Problem das in gewissen Zeitabständen folgende Meldung kommt:
EVENT:
Vdisk verification failed, error code 1. 8 error(s) found (Vdisk: CA_SAS, SN: 00c0ffd818400000d0095b4a00000000)
EVENT ID:#A3691
EVENT CODE:21
EVENT SEVERITY:Error
EVENT TIME:2009-12-26 14:08:06

konfiguration:

2 vdisks mit je 3x300gb sas disk Raid 5

Habe einen Call bei Hp aufgemacht, er sagte das die parität zu 90 % nicht stimmt.

Er sagte mir es gibt 2 Möglichkeiten:
- mit Seriellen Kabel Vdisk check zu machen (er meinte das dauert 2 Tage und klappt nie)
- 2 te möglichkeit was er mir raten würde Daten weg kopieren vdisk neu erstellen.

Naja das werde ich nun machen, habe einen Usb Platte als Storage repositority in den Xen gehängt.

Nun mache ich am 01.01.2010 eine Full Copy der vm (100gb server 2008 400gb Daten disk) mit Ziel Usb platte, dann lösche ich die Vdisk und binde sie neu ein.

Naja sowas sollte aber nicht passieren, was währe wenn auf dieser MSA x virtuelle Server laufen würden??

Naja so ne San glaub ich ist auch nicht für X Server gedacht oder?

Danke Leute

Guru
Beiträge: 2082
Registriert: 21.10.2006, 08:24

Beitragvon bla!zilla » 27.12.2009, 20:48

Das kapern von Threads zum Zwecke eigene Probleme zu besprechen, wird nicht gerne gesehen.

Zu deinem Problem: Der Fehler kann z.B. vorkommen, wenn eine Platte rumzickt oder Fehler produziert.

Ich habe den Fehler auch schon bei EMC² CLARiiONs und anderen Systemen mal gesehen... nur sagen die dir teilweise nicht mal, dass es da ein Problem gibt.

Member
Beiträge: 209
Registriert: 06.01.2008, 21:17

MSa2012i

Beitragvon parkesel » 27.12.2009, 21:04

Hallo Bla!Zilla

Sorry @ all dachte der Thread passt da gut rein, wenn er stört einfach löschen oder wenn möglich verschiebn.

Übrigens danke für deine Antwort, hoffe es passiert nach der erstellung der Vdisk nicht mehr.

Guten Rutsch @ all

Member
Beiträge: 7
Registriert: 16.10.2008, 15:31

Beitragvon schneis » 29.12.2009, 14:37

@bla!zilla

wir haben ja die 2 Generation der MSA. AULA bedeutet doch, das immer der optimale
Pfad gewählt wird?

Ich hatte jedoch wesentlich schlechtere Schreib/Lesewerte wenn die LUN nicht über
den Owner Controller präsentiert wurde. HP hat mir in einem Case geraten die LUN
über den Owner Controller zu präsentieren.

Du hattest mir ja geraten immer eine große Spindel zu erstellen. Ich hatte jedoch
bei Schreib/Lesetests immer die gleichen Werte, egal ob ich 6 oder 12 Platten in eine Spindel gepackt habe.Normalerweise sollten die Werte ja bei mehr Platten höher sein?

Es ist ja auch nicht ausgeschlossen, das wir bei SAS innerhalt eines Rebuilds die zweite
Platte ausfällt. Zumal der Rebuild bei der Größe einige Zeit in Anspruch nehmen wird. In diesem Fall würden mir auf einen Schlag ca. 20 Server wegbrechen. Und so etwas möchte ich auf jeden Fall vermeiden. Von den Schreib/Lestewerten hatte ich bei RAID5/6 und 1/0 immer die gleichen Ergebnisse (h2bench). Oder ist die Betrachtung
der reinen Schreib/Lesewerte nicht tiefgehend genug?

MfG
schneis

Guru
Beiträge: 2082
Registriert: 21.10.2006, 08:24

Beitragvon bla!zilla » 29.12.2009, 19:17

schneis hat geschrieben:wir haben ja die 2 Generation der MSA. AULA bedeutet doch, das immer der optimale Pfad gewählt wird?


Das ist nur dann der Fall, wenn Speichersystem UND Betriebssystem mit ALUA umgehen können.

schneis hat geschrieben:Ich hatte jedoch wesentlich schlechtere Schreib/Lesewerte wenn die LUN nicht über
den Owner Controller präsentiert wurde. HP hat mir in einem Case geraten die LUN
über den Owner Controller zu präsentieren.


Was auch völlig korrekt ist. Schreibvorgänge über non non-owning Controller sind immer doof, egal ob ALUA oder nicht. Noch schlimmer sind Lesevorgänge. Du musst mal die Pfade überprüfen und ggfls. auf VWM_SATP_ALUA wechseln. Das sollte mit ALUA ja vermieden werden. Der Grund für die schlechte Performance sind die gespiegelten Write I/Os. Statt dem Host direkt bei Ankunft im Cache den I/O zu bestätigen, muss der ja noch rüber zum zum anderen Controller in den Cache und von da aus auf die Platte. Beim Lesen ist das pommes.

schneis hat geschrieben:Von den Schreib/Lestewerten hatte ich bei RAID5/6 und 1/0 immer die gleichen Ergebnisse (h2bench). Oder ist die Betrachtung der reinen Schreib/Lesewerte nicht tiefgehend genug?


Sorry, aber h2bench zum testen eines Storagesystems zu nutzen, ist wie einen Porsche in einer Zone 30 zu fahren und dann zu sagen, dass der Golf V genau so schnell war. ;) IOmeter ist da besser.

Benutzeravatar
Member
Beiträge: 302
Registriert: 20.03.2009, 15:00
Wohnort: Sofia / BG

Beitragvon Saturnous » 30.12.2009, 00:37

Öhöm - andersrum machts Sinn - Schreibzugriffe müssen IMMER durch den Interconnect zur Absegnung in beide Caches während Lesezugriffe nur über einen Pfad/Cache rausmüssen die Daten sind ja schon auf den Disks. Da Interconnects duplex sind stehen sich die Daten nicht im Weg. Also Lesespeed über den falschen Pfad stresst beide Controller und kann beschissen sein - beim Schreiben ist es buggy. Soweit die Theorie für 1-tier Storage (EVA HSV200+, CX ab 3. Generation).

Die MSA2kG1 ist NICHT active/passive sie ist nur "transparent" ähnlich einer Hitachi / XP Box (2-tier Storage) sind auch Interconnects VOR dem Cache also per LUN ownership wird ein loop zum verwaltenden SP geschaltet der dann die IO verarbeitet.

Wenn man EVA und MSA2k vergleicht - vergleicht man Kässbohrer Bus und Golf GTI. Mit was bekommst du schneller 40 Leute transportiert ?

Für I/O Benchmarking in VMs gibs kein Standardrezept - man dreht solange an Treiberparametern rum bis der jeweilige Test irgendwie eine beeindruckendes Ergebnis ausspuckt. W2k3 PSCSI 2 freie CPUs (Affinität letzter Sockel) dedizierter SP auf der Storage 3 Worker 128kb Blöcke Messung auf LUN ohne filesystem. Und die Anzeige im IOmeter selbst ignorieren - esxtop zeigt die echten Daten.

Natürlich kann man einen "Deppen" (Excelzellenschubser) erzählen Stress sei gut, lass 4 worker auf nacktes W2k3 laufen damit er sich über die zuckende Tachonadel freut - ohne Plan merkt er nicht das der Test die CPU auf 100% schraubt und die lost ticks die Zeitmessung des IOmeters zu irreal hohen Durchsätzen korrupiert.

Guru
Beiträge: 2082
Registriert: 21.10.2006, 08:24

Beitragvon bla!zilla » 30.12.2009, 08:41

Saturnous hat geschrieben:Öhöm - andersrum machts Sinn - Schreibzugriffe müssen IMMER durch den Interconnect zur Absegnung in beide Caches während Lesezugriffe nur über einen Pfad/Cache rausmüssen die Daten sind ja schon auf den Disks. Da Interconnects duplex sind stehen sich die Daten nicht im Weg. Also Lesespeed über den falschen Pfad stresst beide Controller und kann beschissen sein - beim Schreiben ist es buggy. Soweit die Theorie für 1-tier Storage (EVA HSV200+, CX ab 3. Generation).


Jo, hast ja recht, schlecht formuliert. Fällt mir so beim zweiten, dritten, vierten Lesen auch auf. Danke für die Richtigstellung.

Die MSA2kG1 ist NICHT active/passive sie ist nur "transparent" ähnlich einer Hitachi / XP Box (2-tier Storage) sind auch Interconnects VOR dem Cache also per LUN ownership wird ein loop zum verwaltenden SP geschaltet der dann die IO verarbeitet.


Wie war das noch? Asymetric Active/ Active, aber nicht ALUA compliant? ;)

Member
Beiträge: 7
Registriert: 16.10.2008, 15:31

Beitragvon schneis » 30.12.2009, 15:24

Hallo,

habe die Test mal mit iometer durchgeführt. Die Ergbnisse (Schreib/Lesewerte)
sind jedoch identisch.

Trotzdem Danke für deine Tipps.

Gehört dir zufälligerweise die Seite http://www.blazilla.de/ ? :)

MfG
schneis

Guru
Beiträge: 2082
Registriert: 21.10.2006, 08:24

Beitragvon bla!zilla » 30.12.2009, 19:03

Nein.


Zurück zu „vSphere 4 / ESX 4“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 31 Gäste