Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

Dell MD 3220i SSDs

ESX(i)-taugliche Hardware, HCL .....

Moderatoren: irix, Dayworker

Member
Beiträge: 5
Registriert: 12.10.2015, 14:10

Dell MD 3220i SSDs

Beitragvon alwin1993 » 26.10.2015, 08:33

Hallo,

Wir haben hier eine Dell Powervault MD3220i mit 12 SAS Platten. Diese kommt mittlerweile ans Speicher Limit und wir möchten auf nur SSD Speicher erweitern. Da Dell einen Preis von 4€ pro Gb verlangt soll ich nach alternativen suchen. Es sollen erstmal 4 SSDs zu jeweils 800GB werden, diese dann im Laufe der Zeit immer erweitern. Deswegen habe ich ein Paar fragen.

1. Welche SSDs würdet ihr empfehlen bei 70% Lese betrieb 30% Schreiben?
2. Kann die Powervault eventuell Enterprise SATA Festplatten ansteuern? Die Intel sehen für mich viel versprechend aus.
3. Welches RAID ist für SSDs am besten?

Kurz zur Umgebung. Es sind 3 ESXi mit der Powervault über 1Gb Switch verbunden. Ca. 15 Server und 10 Clients sind virtualisiert.

Mit freundlichen Grüßen
Alwin

King of the Hill
Beiträge: 12942
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 26.10.2015, 09:21

Du kannst keine Non Dell SSDs/HDDs in die MD stecken. Des weiteren brauchts fuer SSDs den HPK (High Performance Key) in Form eines Lizenzschluessels. Letzter wird an die Seriennummer der MD gekoppelt und ist auch nicht uebertragbar.

Die Premiumfeatures wie den HPK kann man 90 Tage zwecks Test nutzen.

Gruss
Joerg

Experte
Beiträge: 1337
Registriert: 25.04.2009, 11:17
Wohnort: Thüringen

Beitragvon Supi » 26.10.2015, 09:26

Hallo Alwin,

soweit mir bekannt ist, kannst du in die MD3 nur Original Dell Platten/SSD einbauen. Bei anderen wird die Überwachung wegen nicht kompatibler HDD-FW nicht funktionieren.

Aber denke doch mal über die SSD Cache Funktion der aktuelle Firmware nach. (Nennt sich Premium Features)
Sicher kostet die Option auch noch 3-4T €euro. Aber dann reichen z.B. 2 Cache SSD und den Rest kannst du mit 15K Platten ausrüsten.
http://en.community.dell.com/support-fo ... t/19531390

Ob die MD3 Serie generell die Performance eines reinen SSD Betriebs auch so bewerkstelligt, ist eh die Frage. Ist ja EOL bei Dell und gibt es schon ein paar Tage.

Member
Beiträge: 5
Registriert: 12.10.2015, 14:10

Beitragvon alwin1993 » 26.10.2015, 09:26

Hallo,

also auch normale SAS SSDs mit dem Originalen Rahmen sollen nicht funktionieren? Wie unterscheidet Dell das? Die haben doch OEM SAS SSDs von Seagate die einfach umgelabelt werden? SAS ist doch ein Standard das heißt egal welche muss doch funktionieren?

Ich finde das einfach eine Frechheit solche horenden Summen zu verlangen

Experte
Beiträge: 1337
Registriert: 25.04.2009, 11:17
Wohnort: Thüringen

Beitragvon Supi » 26.10.2015, 09:53

Ich/wir können deinen Unmut verstehen. Aber das machen alle Storage-Anbieter so. Bei Dell bekommst du zumindest auch über Jahre noch FW Updates für die Platten der Storage System als auch der Platten in Server/PCs.

Versuche das mal bei einer OEM/Einzelhandel HDD zu finden.
Dazu gibts bei Platten, die du für dein Storage System kaufst, die gleiche Garantie wie für das Storage.
Sprich hat dein Storage noch 2 Jahre 24/4h Service, so werden auch die neuen Platten bei Defekt in 4h getauscht.

Profi
Beiträge: 993
Registriert: 31.03.2008, 17:26
Wohnort: Einzugsbereich des FC Schalke 04
Kontaktdaten:

Beitragvon kastlr » 26.10.2015, 10:38

Hallo Alwin,

warum wollt Ihr denn bei einer 1 GBit Anbindung komplett auf SSD's umstellen?
Deinen Post verstehe ich auch eher so dass ihr ein Kapazitäts und kein Performance Problem habt.

Gruß,
Ralf

King of the Hill
Beiträge: 12942
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 26.10.2015, 11:04

Die Platten haben eine "Dell" Firmware und das Storage hat eine Whitelist welche Platten sie verwenden mag. Das ist eigentlich bei allen $Vendor Storage Anbieterns so.

Des weiteren frage dich was bei "Problemen" passiert wenn die Schuldzuweisung von einem Hersteller zum anderen geht.

Wem das nicht gefaellt der mag halt Supermicro kaufen und puzzelt sich seine Loesung zusammen.

Zum thema SSD Read Cache.. auch der braucht den HPK. In der aktuellen MD3 Serie brauchts "nur" eine SSD und bei deiner MD, zumind. aus der Anfangsphase brauchts minium eine pro Controller. Da wo wir das Einsetzen waren es also immer 2,4 SSDs. Muesste man nochmal nachfragen sofern ihr diesen Weg gehen wollt. Die SSDs FUER den ReadCache werden nicht in einem RAID konfiguriert.

Wie schon angedeutet scheint euch primaer die Kapazitaet auszugehen und die Frage ob da nicht Standard 10K SAS HDDs (600,900,1200GB) die geschicktere Loesung sind. Zumal bei 1GbE iSCSI eher das Netzwerk die Latenz erhoeht als das Storage. Ohne mal genau zuwissen was da an IOPS und Latenz anliegt kann man da nichts pauschal sagen. ReadCache macht auch nur Sinn wenn man ueberwiegenden lesenden Zugriff hat (haben aber die meisten).

Wenn das Storage keinen Support mehr hat dann schau mal was die Wiederverkaeufer so im Angebot haben was passende HDDs angeht.

Gruss
Joerg

Member
Beiträge: 5
Registriert: 12.10.2015, 14:10

Beitragvon alwin1993 » 26.10.2015, 11:38

Hallo,

danke für die Antworten.
Es werden demnächst ein Paar Systeme aufgesetzt die IOs brauchen deswegen war die Idee gleich auf SSDs.
So wie es ausschaut wird auf 15k oder 10k platten aufgerüstet in einem eigenen RAID.

Wenn ich Konfigurations Probleme habe kann ich die auch hier stellen oder einen eigenen Thread aufmachen?
Der Durchsatz müsste doch auf mehr als 1Gb gesteigert werden können wenn alle 4 Netzwerkkarten geteamt werden? Es sind 3 ESXi mit jeweils 4 Netzwerkkarten für das Storagenetzwerk. Es wird jetzt ein eigener Layer 3 Switch für das Storage Netzwerk geplant.

Profi
Beiträge: 993
Registriert: 31.03.2008, 17:26
Wohnort: Einzugsbereich des FC Schalke 04
Kontaktdaten:

Beitragvon kastlr » 26.10.2015, 12:08

Hallo Alwin,

was braucht ihr denn, Durchsatz (IO/sec) oder Bandbreite (MB/sec)?
Kleine IO's können nun mal schneller als große IO's bedient werden, allerdings geht das üblicherweise zu Lasten des Durchsatzes.
Wenn ich die Bandbreite eines Systemes ausreizen möchte erfordert das große IO's, das geht dann aber wieder zu Lasten der IOPS.

Hängt halt immer von der Applikation/Anwendung ab.
Datenbanken profitieren im allgemeinen von einer niedrigen IO Responsetime, nur so kriegen sie ihre IO Anforderungen in einer vertretbaren Zeit bedient.
Dem nächtlichem Backup ist egal wie lange ein einzelner IO benötigt, Hauptsache der Durchsatz ist hoch genug.

Durch Teaming/Trunking kannst du eventuell etwas mehr rauskitzeln, aber da würde ich keine großen "Gewinne" erwarten.
Denn am Ende laufen die TCP/IP Requests eh wieder bei einem Storage Controller zusammen, und der muß sie dann wieder sortieren.

Weiterhin müssen auch alle beteiligten Komponenten (HW und SW) das Teaming/Trunking voll unterstützen, sonst werden z. B. einzelne IP Sessions statisch auf die Mitglieder des Teams/Trunks verteilt.
Somit stünde einer solchen Session immer noch nur die maximale Bandbreite von 1 GBit zur Verfügung.

Gruß,
Ralf

King of the Hill
Beiträge: 12942
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 26.10.2015, 12:09

Layer3?
Ich bezweifle das ihr euren Storagetraffic routen wollt aber die Anforderungen an so einen Switch sind Grosse Buffer, niedrige Latenz, Non Blocking, FlowControl, PortFast, JumboFrames, VLANDs, evtl. DCB und das auch alles gleichzeitig bzw. granular fuer die entsprechenden Ports. Das am Ende so ein Switch auch L3 koennte mag dann sein aber auf keinen Fall bedeutet das ein L3 Switch auch ein guter Storageswitch ist.

Ob man eine neue Diskgroup auf macht oder eine neue beginnt muss man im Detail anschauen.

Gruss
Joerg

Member
Beiträge: 5
Registriert: 12.10.2015, 14:10

Beitragvon alwin1993 » 26.10.2015, 12:43

Hallo,

ich weiß nicht ob es zwingend Layer 3 sein muss. Wurde uns so vorgeschlagen seitens Dell. Was wäre denn ein Sinnvoller Switch für 3 ESXi und die Powervault? Oder sollten es zwei Switche sein?
Die Powervault hat noch 4 Jahre Support.

Die neuen Systeme werden SharePoint, TFS und Project Server sein. Die denke ich von höheren IOs profitieren.

Gruß
Alwin

Experte
Beiträge: 1337
Registriert: 25.04.2009, 11:17
Wohnort: Thüringen

Beitragvon Supi » 26.10.2015, 15:28

Ohne Userzahlen und weitere Angaben zu den VM's kann man hier keine Aussagen zu treffen.
Ich würde hier nicht sofort nach SSD's für diese Anwendungen schreiben.
In Sachen Switch mein Tipp:
Zumindest ein 5524 oder 5548. Idealerweise 2, damit es kein SPOF gibt. Und damit es ganz redundant wird noch eine RPS-720 dazu, damit man auch je 2 USV's pro Switch anschließen kann.
Habe bei mir "leider" nur 1x5424 für ISCSI, dafür aber mit RPS-600.

EDIT: die 5500 Serie ist wohl auch schon "old-School"...bei den neueren Dell kann icht nix zu sagen.

Member
Beiträge: 5
Registriert: 12.10.2015, 14:10

Beitragvon alwin1993 » 27.10.2015, 07:30

Hallo,

Userzahl: 100
Server kommen einige in der nächsten Zeit dazu SharePoint, TFS, Project Server. Die Aktuellen sind eher langweilig. 2 MSSQL, Drucker, die ganzen Shares, ERP.

Wir haben noch eine PowerConnect 6248 die wir als Speicherswitch nutzen würden ist die tauglich? Oder viel zu Overpowered?

Experte
Beiträge: 1337
Registriert: 25.04.2009, 11:17
Wohnort: Thüringen

Beitragvon Supi » 27.10.2015, 10:32

Also der Switch wird wohl funktionieren.
Und auch bei 100 User würde ich die MD eher mit 10/15K Platten erweitern. Ideal so viele Spindeln wie möglich.

Bei der Nutzeranzahl würde ich mir aber eher einen Partner suchen, der das implemetiert. Denn wenn 100 User nicht arbeiten können, kostet das mehr als die paar Euros die du anderweitig sparst.
Für Dell wäre hier irix der richtige Ansprechpartner.


Zurück zu „Hardware“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 12 Gäste