Seite 1 von 1

Dell MD 3220i SSDs

Verfasst: 26.10.2015, 08:33
von alwin1993
Hallo,

Wir haben hier eine Dell Powervault MD3220i mit 12 SAS Platten. Diese kommt mittlerweile ans Speicher Limit und wir möchten auf nur SSD Speicher erweitern. Da Dell einen Preis von 4€ pro Gb verlangt soll ich nach alternativen suchen. Es sollen erstmal 4 SSDs zu jeweils 800GB werden, diese dann im Laufe der Zeit immer erweitern. Deswegen habe ich ein Paar fragen.

1. Welche SSDs würdet ihr empfehlen bei 70% Lese betrieb 30% Schreiben?
2. Kann die Powervault eventuell Enterprise SATA Festplatten ansteuern? Die Intel sehen für mich viel versprechend aus.
3. Welches RAID ist für SSDs am besten?

Kurz zur Umgebung. Es sind 3 ESXi mit der Powervault über 1Gb Switch verbunden. Ca. 15 Server und 10 Clients sind virtualisiert.

Mit freundlichen Grüßen
Alwin

Verfasst: 26.10.2015, 09:21
von irix
Du kannst keine Non Dell SSDs/HDDs in die MD stecken. Des weiteren brauchts fuer SSDs den HPK (High Performance Key) in Form eines Lizenzschluessels. Letzter wird an die Seriennummer der MD gekoppelt und ist auch nicht uebertragbar.

Die Premiumfeatures wie den HPK kann man 90 Tage zwecks Test nutzen.

Gruss
Joerg

Verfasst: 26.10.2015, 09:26
von Supi
Hallo Alwin,

soweit mir bekannt ist, kannst du in die MD3 nur Original Dell Platten/SSD einbauen. Bei anderen wird die Überwachung wegen nicht kompatibler HDD-FW nicht funktionieren.

Aber denke doch mal über die SSD Cache Funktion der aktuelle Firmware nach. (Nennt sich Premium Features)
Sicher kostet die Option auch noch 3-4T €euro. Aber dann reichen z.B. 2 Cache SSD und den Rest kannst du mit 15K Platten ausrüsten.
http://en.community.dell.com/support-fo ... t/19531390

Ob die MD3 Serie generell die Performance eines reinen SSD Betriebs auch so bewerkstelligt, ist eh die Frage. Ist ja EOL bei Dell und gibt es schon ein paar Tage.

Verfasst: 26.10.2015, 09:26
von alwin1993
Hallo,

also auch normale SAS SSDs mit dem Originalen Rahmen sollen nicht funktionieren? Wie unterscheidet Dell das? Die haben doch OEM SAS SSDs von Seagate die einfach umgelabelt werden? SAS ist doch ein Standard das heißt egal welche muss doch funktionieren?

Ich finde das einfach eine Frechheit solche horenden Summen zu verlangen

Verfasst: 26.10.2015, 09:53
von Supi
Ich/wir können deinen Unmut verstehen. Aber das machen alle Storage-Anbieter so. Bei Dell bekommst du zumindest auch über Jahre noch FW Updates für die Platten der Storage System als auch der Platten in Server/PCs.

Versuche das mal bei einer OEM/Einzelhandel HDD zu finden.
Dazu gibts bei Platten, die du für dein Storage System kaufst, die gleiche Garantie wie für das Storage.
Sprich hat dein Storage noch 2 Jahre 24/4h Service, so werden auch die neuen Platten bei Defekt in 4h getauscht.

Verfasst: 26.10.2015, 10:38
von kastlr
Hallo Alwin,

warum wollt Ihr denn bei einer 1 GBit Anbindung komplett auf SSD's umstellen?
Deinen Post verstehe ich auch eher so dass ihr ein Kapazitäts und kein Performance Problem habt.

Gruß,
Ralf

Verfasst: 26.10.2015, 11:04
von irix
Die Platten haben eine "Dell" Firmware und das Storage hat eine Whitelist welche Platten sie verwenden mag. Das ist eigentlich bei allen $Vendor Storage Anbieterns so.

Des weiteren frage dich was bei "Problemen" passiert wenn die Schuldzuweisung von einem Hersteller zum anderen geht.

Wem das nicht gefaellt der mag halt Supermicro kaufen und puzzelt sich seine Loesung zusammen.

Zum thema SSD Read Cache.. auch der braucht den HPK. In der aktuellen MD3 Serie brauchts "nur" eine SSD und bei deiner MD, zumind. aus der Anfangsphase brauchts minium eine pro Controller. Da wo wir das Einsetzen waren es also immer 2,4 SSDs. Muesste man nochmal nachfragen sofern ihr diesen Weg gehen wollt. Die SSDs FUER den ReadCache werden nicht in einem RAID konfiguriert.

Wie schon angedeutet scheint euch primaer die Kapazitaet auszugehen und die Frage ob da nicht Standard 10K SAS HDDs (600,900,1200GB) die geschicktere Loesung sind. Zumal bei 1GbE iSCSI eher das Netzwerk die Latenz erhoeht als das Storage. Ohne mal genau zuwissen was da an IOPS und Latenz anliegt kann man da nichts pauschal sagen. ReadCache macht auch nur Sinn wenn man ueberwiegenden lesenden Zugriff hat (haben aber die meisten).

Wenn das Storage keinen Support mehr hat dann schau mal was die Wiederverkaeufer so im Angebot haben was passende HDDs angeht.

Gruss
Joerg

Verfasst: 26.10.2015, 11:38
von alwin1993
Hallo,

danke für die Antworten.
Es werden demnächst ein Paar Systeme aufgesetzt die IOs brauchen deswegen war die Idee gleich auf SSDs.
So wie es ausschaut wird auf 15k oder 10k platten aufgerüstet in einem eigenen RAID.

Wenn ich Konfigurations Probleme habe kann ich die auch hier stellen oder einen eigenen Thread aufmachen?
Der Durchsatz müsste doch auf mehr als 1Gb gesteigert werden können wenn alle 4 Netzwerkkarten geteamt werden? Es sind 3 ESXi mit jeweils 4 Netzwerkkarten für das Storagenetzwerk. Es wird jetzt ein eigener Layer 3 Switch für das Storage Netzwerk geplant.

Verfasst: 26.10.2015, 12:08
von kastlr
Hallo Alwin,

was braucht ihr denn, Durchsatz (IO/sec) oder Bandbreite (MB/sec)?
Kleine IO's können nun mal schneller als große IO's bedient werden, allerdings geht das üblicherweise zu Lasten des Durchsatzes.
Wenn ich die Bandbreite eines Systemes ausreizen möchte erfordert das große IO's, das geht dann aber wieder zu Lasten der IOPS.

Hängt halt immer von der Applikation/Anwendung ab.
Datenbanken profitieren im allgemeinen von einer niedrigen IO Responsetime, nur so kriegen sie ihre IO Anforderungen in einer vertretbaren Zeit bedient.
Dem nächtlichem Backup ist egal wie lange ein einzelner IO benötigt, Hauptsache der Durchsatz ist hoch genug.

Durch Teaming/Trunking kannst du eventuell etwas mehr rauskitzeln, aber da würde ich keine großen "Gewinne" erwarten.
Denn am Ende laufen die TCP/IP Requests eh wieder bei einem Storage Controller zusammen, und der muß sie dann wieder sortieren.

Weiterhin müssen auch alle beteiligten Komponenten (HW und SW) das Teaming/Trunking voll unterstützen, sonst werden z. B. einzelne IP Sessions statisch auf die Mitglieder des Teams/Trunks verteilt.
Somit stünde einer solchen Session immer noch nur die maximale Bandbreite von 1 GBit zur Verfügung.

Gruß,
Ralf

Verfasst: 26.10.2015, 12:09
von irix
Layer3?
Ich bezweifle das ihr euren Storagetraffic routen wollt aber die Anforderungen an so einen Switch sind Grosse Buffer, niedrige Latenz, Non Blocking, FlowControl, PortFast, JumboFrames, VLANDs, evtl. DCB und das auch alles gleichzeitig bzw. granular fuer die entsprechenden Ports. Das am Ende so ein Switch auch L3 koennte mag dann sein aber auf keinen Fall bedeutet das ein L3 Switch auch ein guter Storageswitch ist.

Ob man eine neue Diskgroup auf macht oder eine neue beginnt muss man im Detail anschauen.

Gruss
Joerg

Verfasst: 26.10.2015, 12:43
von alwin1993
Hallo,

ich weiß nicht ob es zwingend Layer 3 sein muss. Wurde uns so vorgeschlagen seitens Dell. Was wäre denn ein Sinnvoller Switch für 3 ESXi und die Powervault? Oder sollten es zwei Switche sein?
Die Powervault hat noch 4 Jahre Support.

Die neuen Systeme werden SharePoint, TFS und Project Server sein. Die denke ich von höheren IOs profitieren.

Gruß
Alwin

Verfasst: 26.10.2015, 15:28
von Supi
Ohne Userzahlen und weitere Angaben zu den VM's kann man hier keine Aussagen zu treffen.
Ich würde hier nicht sofort nach SSD's für diese Anwendungen schreiben.
In Sachen Switch mein Tipp:
Zumindest ein 5524 oder 5548. Idealerweise 2, damit es kein SPOF gibt. Und damit es ganz redundant wird noch eine RPS-720 dazu, damit man auch je 2 USV's pro Switch anschließen kann.
Habe bei mir "leider" nur 1x5424 für ISCSI, dafür aber mit RPS-600.

EDIT: die 5500 Serie ist wohl auch schon "old-School"...bei den neueren Dell kann icht nix zu sagen.

Verfasst: 27.10.2015, 07:30
von alwin1993
Hallo,

Userzahl: 100
Server kommen einige in der nächsten Zeit dazu SharePoint, TFS, Project Server. Die Aktuellen sind eher langweilig. 2 MSSQL, Drucker, die ganzen Shares, ERP.

Wir haben noch eine PowerConnect 6248 die wir als Speicherswitch nutzen würden ist die tauglich? Oder viel zu Overpowered?

Verfasst: 27.10.2015, 10:32
von Supi
Also der Switch wird wohl funktionieren.
Und auch bei 100 User würde ich die MD eher mit 10/15K Platten erweitern. Ideal so viele Spindeln wie möglich.

Bei der Nutzeranzahl würde ich mir aber eher einen Partner suchen, der das implemetiert. Denn wenn 100 User nicht arbeiten können, kostet das mehr als die paar Euros die du anderweitig sparst.
Für Dell wäre hier irix der richtige Ansprechpartner.