Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

3Par Hardware Konfiguration für Test

ESX(i)-taugliche Hardware, HCL .....

Moderatoren: irix, continuum, Dayworker

Member
Beiträge: 475
Registriert: 08.08.2008, 10:45

3Par Hardware Konfiguration für Test

Beitragvon pirx » 03.04.2014, 13:45

Hallo,

wegen unseren aktuellen Performance Problemen im Storage überlegen wir uns temp. bis eine endgültige Lösung gefunden wurde, eine 3Par Lösung zu mieten.

Die Anforderung wurde vom Verantwortlichen recht rudimentär gestellt (40.000 avg. IOPS,100TB nutzbare Kapa), darauf kam ein Angebot für eine 3Par 7400 und 432 x 450GB SAS 10K Disks, ohne Flash/SSD (172 TB Raw Capacity, 132 TB Useable Capacity, Max Front End IOPS 39.000 @9,6 ms). Das ganze wird wegen dem sync. Spiegel über die EMC VPLEX 2x benötigt. Der Preis ist mir noch nicht bekannt.

Die IOPS Anforderung halte ich persönlich für übertrieben. Aktuell haben wir 2 EVAs (HSV360), die bei rund 6000 IOPS an die Grenze kommen. Mir kommt das Angebot etwas komisch vor, alles über Spindeln und ohne Flash umsetzen zu wollen.

Was wäre denn aus den Erfahrungen der werten Forumsmitglieder eine sinnvolle 3Par Konfiguration bei einer Anforderung von 15.000 IOPS avg. und 75 TB nutzbarer Kapazität (mit thin in HW haben wird noch keine Erfahrung und es soll konservativ angegangen werden). Würdet ihr dafür Flash/SSDs verwenden, oder wie die uns vorliegende Konfiguration ausschließlich über SAS Disks und die Anzahl der Spindeln? Da wir die Lösung mieten, könnte uns die Umsetzung eigentlich egal sein, aber 432 Disks x 2 kommt mir nicht wie eine günstige Lösung vor.

Für konkrete Konfigurationsvorschläge wäre ich dankbar.

Edit: auf dem Storage werden ~300 VMs liegen, aktuell mit thin VMDKs. Die VMs sind bunt gemischt. Vom Webserver über Datenbanken bis zu Fileservern.

Guru
Beiträge: 2082
Registriert: 21.10.2006, 08:24

Beitragvon bla!zilla » 03.04.2014, 14:47

Oh Gott! Die 7400er ist allein deswegen notwendig, da aufgrund der Plattenanzahl so viele Enclosures benötigt werden. Nimmt man eine 2-Tier Lösung, als SSD und SAS, dann kommt man mit weniger hin. Weniger Strom, weniger Wärme, weniger Platz. Sorry, aber die Config erscheint mir totaler Humbug.

Mal ein einfaches Beispiel: Eine 7200 in einer 2-Tier Config, 130 TB netto (1% SSD, 99% SAS, 100 GB SSD RAID 1, 900 GB SAS als RAID 5 7+1) macht realistisch 30.000 IOPS bei 10ms (setzt sich aus IOPS und Latenz über SSD und SAS zusammen). In dem Setup werkeln 32 100 GB SSDs und 192 900 GB SAS Platten.

In dem Setup würde ich in jedem Fall SSDs mit einbinden. Auf jeden Fall die Optimization Suite dazunehmen.

Ich würde mit einer 7400-2 Node ins Rennen gehen. 3 Tiers. 5% SSD, 75% SAS, 20% NL. Macht ca. 25k IOPS bei ca. 7ms (über alle drei Tiers gemittelt) und 80 TB netto. DIe 7400er, weil ihr dann ausbaufähig auf vier Controller und mehr Enclosures seid. Denkbar ist auch eine 5% SSD, 50% SAS, 45% NL Aufteilung denkbar. Dann sind es ca. 15k IOPS bei 6ms und 75 TB netto.

Das ist nur aus der Hüfte geschossen. Bei Interesse bitte PN. Dann können wir mal telefonieren.

Member
Beiträge: 475
Registriert: 08.08.2008, 10:45

Beitragvon pirx » 03.04.2014, 14:56

Die Ausbaufähigkeit ist bei uns erst mal nicht so kritisch. Das System soll mit einer fixen Konfiguration für einen definierten Zeitraum gemietet werden, um den Engpass bis ein neues Storage Konzept steht, zu überbrücken. Das kann aber durchaus 1 Jahr sein.

Die Lösung soll daher nicht das Optimum sein, aber preislich die günstigste Lösung sein um die Anforderungen zu erfüllen.

Ich frage mich nur, ob HP das sizing mit den vielen Spindeln so gemacht hat, damit es günstig ist, oder möglichst teuer. Ich gehe davon aus, deine Lösung wäre nicht nur performant, sondern auch im Vergleich zur Lösung ohne SSDs auch preislich attraktiver.

Danke für das Angebot zu telefonieren, ist auch eine Mietlösung von euch denkbar?

Guru
Beiträge: 2082
Registriert: 21.10.2006, 08:24

Beitragvon bla!zilla » 03.04.2014, 15:47

Das Setup hat doch nicht HP gemacht, oder?!

Member
Beiträge: 475
Registriert: 08.08.2008, 10:45

Beitragvon pirx » 03.04.2014, 17:10

Du hast eine PM

Member
Beiträge: 20
Registriert: 18.08.2008, 11:49

Beitragvon osu » 05.04.2014, 07:39

Warum eine HP 3Par 7400 hinter der VPLEX? Aus Kostengründen wäre eine VNX² bestimmt durch Bündelung Hard- und Software Produkten EMC günstiger bei gleicher Leistung!
Habt ihr schon eine VPLEX, wenn nicht schau dir doch die bessere Storage Virtualisierung mal an (IBM SVC seit 10 Jahren auf dem Markt). Wir betreiben damit ca. 10PT (5 Tiers) mit 4 Cluster (a 8x 2145-cg8 node) .

Guru
Beiträge: 2082
Registriert: 21.10.2006, 08:24

Beitragvon bla!zilla » 05.04.2014, 08:49

Du vergleichst jetzt nicht allen ernstes eine VNX2 mit einer StoreServ, oder? Das VPLEX und de StoreServ redundant ist, dürfte klar sein. Da kann man die VPLEX auch gleich loswerden und Peer Persistence nutzen. Aber das geht beim TE leider nicht. Alles etwas kompliziert.

btw: Der SVC ist besser als die VPLEX? Du kennst die spezifischen use-cases von beiden??

Member
Beiträge: 459
Registriert: 03.08.2010, 11:13
Wohnort: Sauerland

Beitragvon stahly » 05.04.2014, 10:30

bla!zilla hat geschrieben:...
Du kennst die spezifischen use-cases von beiden??


Ist zwar etwas offtopic....:
Ich kenn nur den SVC. Kannst Du mir die Vor- und Nachteile, oder den use-case erklären?
Danke 8)

Guru
Beiträge: 2082
Registriert: 21.10.2006, 08:24

Beitragvon bla!zilla » 05.04.2014, 11:03

Die VPLEX war von Anfang an auf Metro-Setups ausgelegt. Die nonuniform Konfiguration der VPLEX ist schon ziemlich cool. Die HP StoreServ ist auch vMSC zertifiziert, macht aber "nur" uniform. Da muss man dann halt mit DRS Gruppen arbeiten um unnötigen Verkehr über die ISLs zu vermeiden. Wenn man also IO immer lokal ausliefern möchte, dann kann die VPLEX das.

Den SVC kannst du zwar auch streched installieren, aber schön ist das nicht unbedingt. Da tun sich aber auch DataCore, HP etc. nicht viel. Du hast immer das Problem, dass du, um Traffic lokal zu halten, mit DRS Gruppen arbeiten musst.

PS: Ich bin weder IBMler, noch EMCler. Aber ich habe beides bei Kunden (nicht von mir implementiert) und die VPLEX ist schon irgendwie nett. Wer das mal ausprobieren will:

http://virtualgeek.typepad.com/virtual_ ... ow-ga.html


Zurück zu „Hardware“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 2 Gäste