Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

EMC vs Netapp

ESX(i)-taugliche Hardware, HCL .....

Moderatoren: irix, continuum, Dayworker

Member
Beiträge: 80
Registriert: 15.03.2010, 14:40

EMC vs Netapp

Beitragvon sam36 » 25.02.2014, 09:16

Hallo zusammen,

es ist mal wieder an der Zeit Entscheidungen zu treffen und so werden wir ein neues Storage bekommen in Kürze. Wir setzten zur Zeit eine Netapp 2040 ein, haben 5 ESX Server im Einsatz mit ca. 80 VMs. Die Anzahl der VMs wird aber noch steigen nach der Übernahme des neuen Storages auf ca.100.
Wir nutzen alle Protokolle die die Netapp hergibt, CIFS, NFS, SCSI und die Performence ist durchweg sehr zufriedenstellend.
Beim Update der Netapp (2240) käme dann auch SSD zur Geltung, wovon ich mir natürlich auch noch den ein oder anderen Leistungsschub verspreche.
Nun habe ich mir von EMC ein Vergleichsangebot erstellen lassen, eigentlich hatte ich mit einer VNX 5300 gerechnet, aber die EMC Leute meinen das eine VNXe 3150 ohne SSD ausreichen würde. Nach den technischen Spezifikationen tut sie das vielleicht auch, aber ich bin mir nicht sicher, ob ich die Performence der Netapp erreichen kann mit diesem System, auch gerade im Hinblick darauf, das noch ca. weitere 20 VMs auf das System kommen werden.
Wir haben mehre MS SQL und einen Oracle Server im Einsatz, Exchange, Citrixserver zum Teil mit Speicherintensiven Anwendungen wie der Adobe CS.

Leider kenne ich niemanden persönlich der eine EMC im Hause hat, von daher würde ich mich freuen hier ein Feedback zu erhalten.

Grüße
Stefan

King of the Hill
Beiträge: 12189
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 25.02.2014, 12:06

Lastmonitoring machen und Storage danach auslegen und vergleichen. Jenach dem was an Daten vorliegt ist es sonst Pi*Daumen und das Verdoppelt damit es passt. Die VNXe kommt bestimmt guenstiger als die 2240 und Flashpool.

Bei beiden gilt das SSD nicht so eingesetz wird wie man sich das erstmal vorstellt bzw. wie man es gerne haette wobei die 2240 sich hier positiv absetzt um vergleich zu den anderen Netapps.
Also GENAU Fragen und es sich erklaeren lassen. Dann wieder holt man die Frage "und wie ist es bei Block... und wie ist es bei NFS ... usw.". Ansonsten gibt es hinterher Traenen.

Hab einen Kunden welcher von Netapp/HP EVA auf ein halbes Dutzend VNX5300 und 5700 gewechselt ist. Kann aber noch keine Aussage treffen und bin auch nur involviert was Anbindung vSphere angeht. Ich kann nur sagen man erkennt Hersteller welche schon laenger dabei sind und traditionell "behaftet" sind. Ich meine das jetzt nicht zum Vorteil aber evtl. waren auch die Dienstleister mit schuld. PreSales hat nen super Job gemacht "geht alles"....... ach naja. egal.

Was die VNX5300 angeht so bilde ich mir ein das der Nachfolger schon da ist oder vor der Tuer steht.

Gruss
Joerg

Member
Beiträge: 80
Registriert: 15.03.2010, 14:40

Beitragvon sam36 » 25.02.2014, 14:41

Vielen Dank für Deine Antwort Jörg.
Die VNXe ist tatsächlich um einiges günstiger zu haben. Performence Messungen wurden gemacht und die Netapp hätte somit noch gut Luft nach oben. Allerdings soll berücksichtigt werden, das auch noch aussreichend Puffer nach "oben" vorhanden ist. Es ist einfacher ein zweites Shelf an die Kiste zu hängen als komplett neu planen zu müssen. Die VNXe entspräche eher dem "IST" Zustand.

Schaun wir mal....
Gruss
Stefan

King of the Hill
Beiträge: 12189
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 25.02.2014, 15:10

Dann haben die EMC euch nicht richtig zugehoert bzw. nicht die passenden Fragen gestellt was an Wachstum geplant ist bzw. wie weit das Storage in Vorleistung gehen soll. Weil auch die VNX kann mehr leisten wenn man halt SPAETER wenn die IOPS GEBRAUCHT werden einfach ein Shelf kauft.

Pay WHEN you grow hat ja auch seinen Charm nur muss man vorher drueber sprechen. Gibt ja Projekte wo man nur einmalig die Chance hat um das Budget zu kaempfen und wo es nicht gerne gesehen ist wenn man 12 Monate spaeter nachschiessen muss.

Gruss
Joerg

Member
Beiträge: 100
Registriert: 07.11.2011, 15:18
Wohnort: Salzburg

Beitragvon blue_focus » 25.03.2014, 08:38

Guten Morgen,

Also zu EMC kann ich leider nichts sagen. Aber pauschal würde ich mal meinen, da das aus dem selben Haus kommt wie vmware gehe ich mal von aus, dass das für vSphere sicherlich nicht verkehrt sein sollte. Wie es sich mit der NAS-Funktionalität verhält kann ich nicht beurteilen.

Ich kann jedoch einiges zur NetApp berichten, da wir solche selbst zu genüge im Einsatz hatten.

PRO:
- Fileservices funktionieren wirklich super.
- Verhältnismäßig leicht zu bedienen.

CON:
Die NetApp (egal welche) ist und bleibt ein Fileserver. Auch wenn sie es noch so propagieren und verkaufen wollen. Es ist KEIN Blockstorage (und so neben bei, auch wenn sie's gerne wären, Enterprisestorage sind so schon gar nicht).
Was dazu führt dass:
- Jede LUN ist in Wirklichkeit nur ein großes File im WAFL Filesystem.
- Wie es mit FS nun mal so ist, je voller desto langsamer und desto CPU-Intensiver wird jeder IO für den Filer.
- Bei uns waren nie die Disken der Flaschenhals, sondern immer das bescheuerte OS-Layout. Soll heißen: Jetzt hast du ne 6080er mit 8 CPU-Cores und der scheinbar alles managende "kahuna" Prozess ist singlethreaded und läuft stur NUR auf CPU0, welche bei etwas Last gerne mal bei 100% am Plafon ansteht :evil:
- Die NetApp kann auch VAAI was durch offloading von FS-Operationen (zB.: Snapshotting, svmotion, Cloning, etc.) den esxhost entlasten und die Operation beschleunigen sollte... Alles gut und schön. Leider beschäftigt das auch nur zusätzlich die ohne hin sehr überforderte CPU des Filerheads und es wird 1. eher langsamer als schneller und bremst sogar noch alles andere am Storage massiv aus. Ein einzelner svmotion Prozess hat auf unserer 6080er gerne mal 10-15% CPU gekostet.
Super wenn du schon 85-90% Grundrauschen drauf hast und das trotz. ca. 500 Disken/Head und PEMs in Maximalausführung :?

Konklusio:

Für kleine/nicht IO-Starke Umgebungen ist die NetApp nicht schlecht. Vorallem weil sie einen super Fileservice bietet. Für größere Anforderungen ist sie für Blockstorageanforderungen einfach zum vergessen.
Und sind wir mal ehrlich, für das was sie leisten sind sie einfach unverschämt teuer.

Member
Beiträge: 459
Registriert: 03.08.2010, 11:13
Wohnort: Sauerland

Beitragvon stahly » 25.03.2014, 08:52

blue_focus hat geschrieben:...
Für größere Anforderungen ist sie für Blockstorageanforderungen einfach zum vergessen.
Und sind wir mal ehrlich, für das was sie leisten sind sie einfach unverschämt teuer.


Interessantes Statement! :)

Ab wann fängt denn für Dich eine "große Anforderung" an?

Member
Beiträge: 100
Registriert: 07.11.2011, 15:18
Wohnort: Salzburg

Beitragvon blue_focus » 25.03.2014, 09:30

:)

ich kann natürlich nur "gefärbt" für unsere Umgebung sprechen:

Wir haben 3 Hauptabnehmer für unserer Storagelandschaft:

OracleDBs laufend unter AIX (die hauen schonmal ordentlich rein)
vmware (Größenordnung derzeit ca. 1000VMs) + ein paar MSCS (Windows Cluster)
Fileservices (überschaubar mit ca. 15TB)

Das Ganze war aufgeteilt auf 3 MetroCluster FAS6080, 6040 u. 3270 mit insgesamt über 1500 Spindeln und es war grottenlangsam zu Spitzenzeiten. (Disklatenzen gerne mal im höheren 3 Stelligen ms Bereich)

Jetzt haben wir auf nen echten Blockstorage umgestellt letztes Jahr (3xVSP von HITACHI) mit einer vieeel geringeren Anzahl an Disken (dafür größere) und das teil langweilt sich zwar jetzt auch nicht, aber in das ding kann man reinschaufeln was man will, kleingekriegt haben wir sie bislang nicht.

(Unser IO Profil ist auf Grund der DB u. vSphere-Umgebung sehr Random lastig)

Pro VSP haben wir initial auf 50.000 IOPS gesized.

Ich sage nicht, dass die NetApp die IOPS nicht schafft, nur schafft sie es nur unter den Umständen, dass der Latenz enorm nach oben schießt, was unsere VSP nicht aufweißt.

Also um auf deine Frage zu antworten:

Ich würde mal sagen 10.000 - 15.000 müssten die größeren NetApp-Modelle problemlos schaffen. Alles darüber ist meines Erachtens nur noch mit enormen HW-Einsatz möglich. Habe einen Freund die verwenden eine so ziemlich vollausgebaute (über 1000 Spindeln/Head) FAS6280 für View (ca. 800 Desktops). Da ist jeder Recompose ein mittleres Drama.
Das Teil schafft mit den wie gesagt über 1000 Spindeln grade mal ca. 1GB/s Durchsatz. Das ist doch wohl ein schlechter Witz in Anbedracht der großen Anzahl an Disken.

Member
Beiträge: 459
Registriert: 03.08.2010, 11:13
Wohnort: Sauerland

Beitragvon stahly » 25.03.2014, 09:44

Danke für die Info! Sehr aufschlussreich. 8)

Da bin ja froh, dass wir bei unserem FC-IBM-SAN geblieben sind. (Netapp war mal im Gespräch...) Da wir jetzt dabei sind, SAP einzuführen, und dadurch die IO-Anforderungen doch etwas gesteiegen sind, haben wir jetzt noch ein Flash-System davorgeschaltet. Dadurch sin die Latenzen jetzt im 1-stelligen Bereich gelandet. Kann ich nur jedem empfehlen.

Member
Beiträge: 100
Registriert: 07.11.2011, 15:18
Wohnort: Salzburg

Beitragvon blue_focus » 25.03.2014, 10:21

stahly hat geschrieben:Da bin ja froh, dass wir bei unserem FC-IBM-SAN geblieben sind. (Netapp war mal im Gespräch...) Da wir jetzt dabei sind, SAP einzuführen, und dadurch die IO-Anforderungen doch etwas gesteiegen sind, haben wir jetzt noch ein Flash-System davorgeschaltet. Dadurch sin die Latenzen jetzt im 1-stelligen Bereich gelandet. Kann ich nur jedem empfehlen.


Das kann ich dir voll und ganz unterschreiben. ;)

Jeder der sich ein FC-SAN leisten kann und will sollte dazu tendieren. Wir hatten unsere NetAppen auch mit Flashmodulen (PEM) vollgestopft soweit es möglich war (ich glaube 128GB für die großen FAS). Aber was bringt das schon wenn eh die CPU der Flaschenhals ist und die Disks selten über 30% Last sehen.

Ich sehe NetApp immer als Bose unter den Storageherstellern. Beide haben ein hervorragendes Marketing und Presales. Aber die eingesetzte Technik ist einfach ihr Geld nicht wert und versuchen in einer Klasse mitzuspielen in der sie nicht sind.


Im Gegensatz zu den anderen Storagelösungen kann ich für vSphere nur empfehlen bei NetApp auf die NFS-Funktionalität zurückzugreifen. FC hat kaum (wenn überhaupt) Performancevorteile weil da ja noch eine virtualisierungschicht mehr dazuwischen liegt. NFS-Exports auf der NetApp lassen sich aber auf Grund des vom Filer verwaltetem Filesystems hervoragend deduplizieren. Wir hatten da teilweise ein Ersparnis von bis zu 40%.

Member
Beiträge: 475
Registriert: 08.08.2008, 10:45

Beitragvon pirx » 25.03.2014, 14:24

blue_focus hat geschrieben:Guten Morgen,
CON:
Die NetApp (egal welche) ist und bleibt ein Fileserver. Auch wenn sie es noch so propagieren und verkaufen wollen. Es ist KEIN Blockstorage (und so neben bei, auch wenn sie's gerne wären, Enterprisestorage sind so schon gar nicht). .



Die Aussage mit Enterprisestorage halte ich für gewagt. Ich kenne mehrere Firmen in der Größe > 100.000 Mitarbeiter bei denen Netapp mit MetroCluster immer noch der Standardspeicher ist. Bei einer Firma ist es Pflicht Angebote von EMC und Netapp für neue Projekte einzuholen und in 90% der Fälle geht die Bestellung an Netapp. So wenig Enterprise kann das nicht sein.

Profi
Beiträge: 991
Registriert: 31.03.2008, 17:26
Wohnort: Einzugsbereich des FC Schalke 04
Kontaktdaten:

Beitragvon kastlr » 25.03.2014, 14:58

Hallo,

hier mal ein Link zu dem Thema Storage Vendors und Ihrer Marktstellung.

Market Share Analysis: Network-Attached Storage and Unified Storage, Worldwide, 2012

NetApp scheint also schon noch eine größere Hausnummer in diesem Bereich zu sein.
;-)

Gruß,
Ralf

Member
Beiträge: 100
Registriert: 07.11.2011, 15:18
Wohnort: Salzburg

Beitragvon blue_focus » 25.03.2014, 16:26

Ich sage nicht, dass sie nicht gerne Enterprisestorage wären und wohl auch als solcher verkauft werden. (Ja das Marketing machts möglich, und alle glaubens, bis sie davon geheilt wurden)

Wiedermal nehme ich den Beschallungshersteller BOSE zum Vergleich. Auch die meinen sie wären eine Premiumhersteller nur weil sie ihre Produkte in dieser Preisklasse verkaufen.

Ich kann jetzt nicht genau die Liste an Punkten runterbeten welche eine "eche Enterpriselösung" ausmachen. Diese Aussage kommt aus unserem Storageteam welche ich jetzt mal nachgeplappert habe.

Aber da solls wohl schon mal um solche Dinge gehen wie Hardwaretausch am Head/Controller (RAM, CPU etc) ohne einen Failover (welcher leider nicht immer glatt geht) manuell einleiten zu müssen. Unser derzeitiger Storage kann das.
Oft höre ich auch die Aussage: NetApp sei doch eigentlich nur ein Softwarehersteller, der Standardserverhardware zukauft und eine Softwarelösung drumrumstrickt.

Ich habe Kontakt zu einige größeren Rechenzentrumbetrieben hier und irgendwie schimpft jeder auf die NetApp. Nicht weil sie zwangsläufig schlecht ist. Mehr weil sie leider in den meisten Fällen für Einsatzzwecke "missbraucht" wird, für die sie einfach konzeptionell unbrauchbar ist (auch wenn das Marketing und der Verkäuft noch soviel verspricht, was die nicht alles kann). Das hatten wir hier bei uns auch.

Aber wie wir ja alle wissen, die Eierlegendewollmilchsau gibts nun mal nicht. Alles was verspricht sowas zu sein kann alles nur ein wenig und nix genau...

Auf das fallen auch wir immer wieder herein, nicht weil wirs nicht besser wissen, aber bei unserem Einkauf ist leider eine Multivendorstrategie nicht durchzusetzen.

Unsere VSP als Blockstorage ist einfach nur geil. Aber die NAS-Lösung hat massive Defizite wo wir uns die NetApp nur so herbeiwünschen würden.

Member
Beiträge: 475
Registriert: 08.08.2008, 10:45

Beitragvon pirx » 25.03.2014, 18:06

blue_focus hat geschrieben:Ich sage nicht, dass sie nicht gerne Enterprisestorage wären und wohl auch als solcher verkauft werden. (Ja das Marketing machts möglich, und alle glaubens, bis sie davon geheilt wurden)

Wiedermal nehme ich den Beschallungshersteller BOSE zum Vergleich. Auch die meinen sie wären eine Premiumhersteller nur weil sie ihre Produkte in dieser Preisklasse verkaufen.

Ich kann jetzt nicht genau die Liste an Punkten runterbeten welche eine "eche Enterpriselösung" ausmachen. Diese Aussage kommt aus unserem Storageteam welche ich jetzt mal nachgeplappert habe.



Ich würde mir bei einigen anderen Enterprise Storages eine Integration in OS/Applikation wünschen, wie sie Netapp schon seit Jahren hat. Auch bei uns waren/sind Netapps bei den Storage Kollegen ein rotes Tuch. Genauso wie iSCSI, NFS usw. Das einzig Wahre ist FC. Und das allerbeste sind HP EVAs. Tja, und jetzt kämpfen wir seit 6 Monaten mit Performance Problemen in dem Bereich und Latenzen >500ms.

Aber zu behauten Netapp wäre keine Enterprise Lösung finde ich extrem mutig. Mit einer Hitachi P9500 würde ich es nicht vergleichen, aber die typischen anderen Verdächtigen in dem Bereich VNX, 3PAR usw. sind dann auch keine Enterprise Lösungen.

Member
Beiträge: 100
Registriert: 07.11.2011, 15:18
Wohnort: Salzburg

Beitragvon blue_focus » 25.03.2014, 19:19

Hmm, ich glaube das ist wohl eine Definitionsfrage und ich will hier jetzt im Offtopic auch keinen "Streit" anfachen ;)

Als Enterprise-Lösung würde ich die absolute Königsklasse definieren. Enterprise heißt für mich NICHT "Business Critical" oder NICHTCONSUMERCLASS

Mir wurde das damals (vereinfacht) folgendermaßen näher gebracht:

Entry-Level Class
Midrange Class
Enterprise Class

Dazwischen gibts sicher noch jede Menge Abstufungen und Schattierungen. Ich könnte jetzt auch nicht zu jeder Klasse viele Beispiele nennen. Bis auf ein paar die ich selbst schon in der Hand hatte.

Das wären im Entrylevel zB.: Fujitsu SX60 SX80 usw.

Im Midrange: EVA (ja, auch die ist kein Enterprise), Hitachi HUS-Systeme etc.


Enterprise: HP XP (OEM Rebrand von Hitachi USPV), VSP ( Nachfolger der USPV), mit Sicherheit auch die größeren IBM oder EMC Lösungen mit denen ich mich leider nicht auskenne. Bitte nicht schlagen wenn ich hier nicht alle nennen kann. Das sind jetzt nur ein paar die mir ad hoc einfallen.

Ich denke ein großes Kriterium für Enterprise Level ist wohl auch eine lineare Skalierbarkeit.
Ich sprech mal wieder unsere VSP an (will nur von dem sprechen was ich auch kenne). Brauche ich mehr Leistung (in Form von Performance), stell ich einfach nen Schrank Disken dazu und es skaliert einfach. Soll heißen der Controller packt das auch. Auch die Anbindung soll nicht das Problem sein, mit 48x 8G FC geht schon was. An eine Einheit (Rack mit den Controllern) kann man soweit ichs noch im Kopf habe bis zu 5 Expansionracks hängen. Ist das erreicht fängt man wieder einen neuen Verbund mit eigenen Controllern an.

Die NetApp kann das zwar auf dem Papier auch. Nur die Architektur skaliert nur bis zu einem bestimmten Punkt und ab da ist Schicht im Schacht. Das Problem hatten wir hier und auch einige Kollegen von mir aus der Branche aus unterschiedlichsten Firmen.
Wie gesagt, ich finde die NetApp nicht schlecht. Vorallem das Featureset ist super. Und der Bedienkomfort sowieso. Da frag ich mich bei unserer VSP des öfteren welcher Autist das designed haben muss.

Aber was ich immer wieder betonen möchte. Genau aus diesen Gründen und da gibts sicher noch andere würde ich die NetApp maximal als HighEnd Midrange Lösung einstufen.

Guru
Beiträge: 2082
Registriert: 21.10.2006, 08:24

Beitragvon bla!zilla » 25.03.2014, 20:53

Die XP/ P9000 ist KEIN OEM der HDS. HDS kauft die System bei Hitachi. Hitachi und HP entwickeln zusammen. HDS ist nicht Hitachi, sondern eine Tochter.

Die Zeit der cache-centric Systeme ist vorbei. Für HDS VSP, HP P9000, EMC DMX und Co. spricht derzeit noch die Mainframe Connectivity. Wenn du Bumms haben willst, dann schaust du dir mal eine XIV an. Oder eine HP StoreServ P10000. Die Systeme zeigen was Skalierbarkeit heißt.

Interessanterweise lieferst du keine Merkmale für eine Enterprise-Lösung. Lineare Skalierbarkeit ist es sicherlich nicht. Das sind eher so Dinge wie cache-zentriertheit, Hochverfügbarkeit etc. Die Einteilung in die unterschiedlichen Klassen macht eh jeder Hersteller selbst.

Ich stimme dir insofern zu, als das Systeme wie die HP EVA, StoreServ 7000, EMC VNX und co. Midrange sind. NetApp sehe ich auch nicht im Enterprise-Umfeld, auch wenn ich die Systeme mag. Das Hardwarekonzept ist altbacken und wirkt an vielen Stellen wie eine getunte Dampflok.

King of the Hill
Beiträge: 13002
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 25.03.2014, 21:14

Ich kann zum Thema zwar nichts beitragen. Aber auch wenn wir hier etwas ins OT abdriften, ist diese Threadentwicklung für mich trotzdem sehr informativ. Dem einen oder anderen vor einer Storage-Entscheidung stehenden Benutzer, wird damit zumindest ein kleiner Überblick über den Markt gegeben.

Member
Beiträge: 220
Registriert: 08.12.2004, 13:54

Beitragvon v-rtc » 25.03.2014, 23:05

Schließe mich Joerg an. Deshalb lese ich hier so gerne, weil man hier auch mal interessante Meinungen und Erfahrungen bekommt. So was ist selten geworden.

Wir selbst nutzen Enterprise Storage und hätten vor Jahren fast NetApp gekauft. Allerdings hat IBM einen Mirror angekündigt. Nun haben wir den IBM SVC im Einsatz mit 2 IBM DS8000er und 2 HDS HUS alles über FC und gespiegelt, dank SVC. Mittlerweile liegt die VMWare auf den HUSsen, wie wir sie nennen und sind bisher überaus zufrieden damit. Da aber die Technik voranschreitet, bin ich gespannt, wann das Thema SSD im SAN zur Sprache kommt.

Freue mich über weitere Off Topic Beträge.

Viele Grüße

Rolf

Member
Beiträge: 459
Registriert: 03.08.2010, 11:13
Wohnort: Sauerland

Beitragvon stahly » 26.03.2014, 08:51

Rolf-Walter.Wolff hat geschrieben:...
Da aber die Technik voranschreitet, bin ich gespannt, wann das Thema SSD im SAN zur Sprache kommt.
...


Only SSD, oder SSD als Beschleuniger? Wenn Zweites, dann:

Da ihr den SVC schon habt, ist das Thema SSD kein Problem: Z.B. 2x Flash 820 mit je 10TB kaufen, EasyTiering einaschalten und man spürt einen deutlichen Schub aus dem Storage-Keller :D
Zum Einen wird das Hauptstorage entlastet (bei uns 2 vollbestückte XIV Gen3) und zum Anderen sind die Daten, die ins Flash verschoben wurden superschnell verfügbar. Z.B. sind nächtliche SAP-Batches 3.5 Stunden schneller durchgelaufen...

Member
Beiträge: 100
Registriert: 07.11.2011, 15:18
Wohnort: Salzburg

Beitragvon blue_focus » 26.03.2014, 08:57

@bla!zilla:

Ich lasse mich immer eines Besseren belehren wenn es um detailtechnische Fragen geht. Da wir ein RZ-Betrieb sind und kein Reseller bekomme ich natürlich nicht die ganze Bandbreite an Herstellern und Modellpaletten mit. Daher berichte ich nur von Dingen die ich auch selbst schon unter meiner Fuchtel hatte. Das beschränkt sich natürlich auf eine Hand voll unterschiedlicher Systeme.

Bei unserer Storageausschreibung vergangenes Jahr, war die HDS wohl der einzige Hersteller welcher
1. unsere IO Anforderungen ernst genommen haben. Wir haben leider das Problem -> wenig Datenvolumen dafür sehr sehr reges IO aufkommen.
2. war HDS der einzige für unsere Begriffe einen "Enterprise" Storage angeboten haben. Was Replikation, Skalierbarkeit und Ausfallsicherheit betroffen haben. Wie ausfallsicher der Metrocluster in der realen Welt wirklich ist haben wir leider öfter schmerzlich miterleben müssen.

IBM hatten wir mit ner XIV ebenfalls dabei. das wäre in meinen Augen auch der einzige ernstzunemende Konkurent zur VSP gewesen. Leider hatten wir mit unseren letzten beiden IBM-Shark Systemen vor einigen Jahren bei IBM ziemlich ins Klo gegriffen. Somit war der IBM Ruf bei uns im Haus und unseren Storageteam schwersten angeschlagen und das Vertrauen einfach nicht mehr da. Auch wenn die Lösung noch so gut gewesen wäre.

Ich bin auch gespannt wie es mit der SSD-(Preis)Entwicklung so weiter geht. In unserem Segment war es vor 2 Jahren (Anfang der Ausschreibung) schlichtweg nicht finanzierbar. Schon das System wie wir es jetzt bekommen haben geht buchstäblich in die Millionen.

Habe aber gehört, dass sich hier wohl endlich ein Umbruch abzeichnet. Mal sehen, in 3Jahren startet die nächste Ausschreibung :)

@ Jörg u. Rolf,

Freut mich, dass wir hier was beitragen konnten. Hoffe das wird mir nicht als "hussen" oder Überheblichkeit angekreidet :oops:

@ Jörg,
Ja die HDS Bezeichnungen sind einfach grandios: Ich has nur HUR (für die Synchron Replikation) HAM (HA Manager) SYNCDR ( Asynchr. Repl) :D

Guru
Beiträge: 2082
Registriert: 21.10.2006, 08:24

Beitragvon bla!zilla » 26.03.2014, 09:40

blue_focus hat geschrieben:Bei unserer Storageausschreibung vergangenes Jahr, war die HDS wohl der einzige Hersteller welcher
1. unsere IO Anforderungen ernst genommen haben. Wir haben leider das Problem -> wenig Datenvolumen dafür sehr sehr reges IO aufkommen.
2. war HDS der einzige für unsere Begriffe einen "Enterprise" Storage angeboten haben. Was Replikation, Skalierbarkeit und Ausfallsicherheit betroffen haben. Wie ausfallsicher der Metrocluster in der realen Welt wirklich ist haben wir leider öfter schmerzlich miterleben müssen.


Das ist leider extrem subjektiv und daher taugt es nicht dazu, andere Systeme objektiv als "Enterprise" und "nicht Enterprise" zu kategorisieren. Wenn ihr zufrieden mit dem System seid, dann ist das doch okay. Andere Unternehmen haben anders entschieden. So setzt die DATEV zwei StoreServ 10800 ein.

Member
Beiträge: 100
Registriert: 07.11.2011, 15:18
Wohnort: Salzburg

Beitragvon blue_focus » 26.03.2014, 16:16

Also ich hab grade beim Kaffee nochmal mit meinem Storagespezi etwas philosophiert über das Thema.

Du hast insofern recht, es gibt keine weltumfassend geltende Klassifiezierungen.

Was hald so Systeme wie VSP oder auch der XIV (und sicher auch noch ein paar andere) von anderen abhebt ist, dass es für diese Geräte sowas wie geplante Downtimes nicht gibt. Hier kann im Betrieb am offen Herzen operiert werden. CPU, Cacheboards, FC-Module,etc... können getauscht, erweitert, ausgebaut werden, ohne einen geplanten Failover auf die Backupseite. Trotzdem merkt das drannhängende Endgerät nichts davon wenn zB. plötzlich und im Vollbetrieb ein CPU-Board weniger vorhanden ist. Ausreichend Spareressourcen vorausgesetzt. Alle relevanten Subsysteme sind weitestgehend in spezialisierte Hardware oder zumindest Firmware gebrannt und das schon wohl doch bestimmte Vorteile zu bringen.

Aber wie gesagt ich will hier keinen Glaubenskrieg anfangen ;)
Ich denke jedes System hat für seinen Einsatzzweck seine Berechtigung. Und um wieder mal auf die NetApp zurückzukommen, das Teil wird hald gerne (schon vom Hersteller) zu Dinge vergewaltigt für die sie nicht die HW-Voraussetzungen mitbringt.

Benutzeravatar
Guru
Beiträge: 3129
Registriert: 22.02.2008, 20:01
Wohnort: Hessen

Beitragvon PeterDA » 22.04.2014, 22:06

Hi,
ich klink mich hier mal ein!

Ich denke das ein NetApp FAS System nicht immer die Waffe der Wahl ist. Wenn man einfach ein "blödes" Blockstorage braucht würde ich kein FAS System nehmen sondern eher eine NetApp E-Serie. Die ist zum einen deutlich günstiger und auch schneller. Hat aber nicht die Features wie ein FAS System.

Wer natürlich Feature wie SnapLock, SnapVault oder SnapMirror, CIFS, NFS und iSCSI bzw FC aus einer Bos nutzen will kommt nur sehr schwer an einer NetApp FAS vorbei.

Die Frage ist einfach welche Funktionen man wirklich haben will.

Gruß Peter

Member
Beiträge: 155
Registriert: 31.01.2007, 17:07

Beitragvon BastiHN » 05.08.2015, 14:44

Hallo zusammen,

ich klinge mich mal in das Thema hier ein.
Wir sind aktuell auf der Suche nach einer neuen Storage um unsere "alte" HP EVA abzulösen.

Die Anforderungen sind halbwegs "Standard"
- 80TB Speicherplatz
- durchschnittliche IO Anforderungen (Standard MS Umgebung für wenige 100 User), große Datenmengen wg. Grafikabteilung was etwa die Hälfte des Speicherplatzes beansprucht.
IO etc. sollte bei <3000-5000 bei normaler Last sein.
R/W geschätzt 70/30%

Angeschrieben wurden "die großen" 5 der Storage Anbieter. Was ich hier an Grobentwurf erhalten habe liesst sich soweit ganz gut, jedoch bin ich bei der Plattenkonfiguration etwas verwundert.

Viele Hersteller haben fast ausschließlich 2-4TB NL HDD in kombination mit 2-5% SSD/Flash angeboten. SAS war dann doch eher die außnahme.


Nun meine Fragen:
Macht man das mittlerweile wirklich so? Die Hersteller versprechen mittlerweile gigantische IO Werte mit Zugriffszeiten von <1ms.
Diese Werte sind doch schöngerechnet wegen Flash/SSD,, oder sehe ich das falsch? Wie realistisch sind Szenarien das viel außerhalb vom "Tier 1 Storage" Zugriff benötigt wird?
Ich kenne es von früher mit möglichst vielen Spindeln noch. Das sich da einiges wg. Tier 1-3 Storage getan hat ist klar, das aber fast alle ohne SAS anbieten verwundert mich doch etwas.

Experte
Beiträge: 1004
Registriert: 30.10.2004, 12:41

Beitragvon mbreidenbach » 05.08.2015, 15:26

Das hängt von der Workload ab.

Oftmals ist es ja so daß man eine große Menge 'historische' Daten hat und mehrheitlich nur auf einen kleinen Prozenzsatz 'aktueller Daten' zugegriffen wird. Wenn dieser 'heiße' Bereich dann in den SSD cache paßt dann ist bringt der was.

Es gibt aber auch Fälle wo ein automatisches Storagetiering 'hinterherhängt'. Z.B. man macht einmal im Monat eine besondere Auswertung und bis das System die Daten in den SSD cache geschaufelt hat werden sie schon nicht mehr benötigt.

Es macht z.B. wenig Sinn große sequentielle Lese/Schreibvorgänge zu cachen da diese nur den cache füllen und danach kommt es sowieso nur auf die Geschwindigkeit der drehenden Platten an.

Man muß also zum einen verstehen wie die eigene Workload aussieht und zum anderen verstehen wie das Storagesystem versucht das zu optimieren. Da gibt es dann durchaus Unterschiede.

Wichtig ist auch wie das Verhalten unter Spitzenlast aussehen soll. Muß das dann auch 'rennen' oder sind dann Latenzen ok ?

Vertriebler machen das Sizing gerne nach Budget... da muß man aufpassen.

Wenn man SSD caches erstmal außen vor läßt kann man mit dem Tool hier mal etwas rumspielen:

http://www.myvmwareblog.com/2012/12/29/ ... culator-2/

King of the Hill
Beiträge: 12189
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 05.08.2015, 16:07

Also der ein oder andere Herstellung definiert Tiering durchaus anders und hier und da kann man eher davon sprechen das da grosszuegig dimensionierte SSD Caches vorhanden sind und weniger ein Tiering.

Guckt man sich sowas wie eine Dell Compellent SC an so kann man an deren Konzept erkennen das es auf Tierung aufbaut und nicht nur angeflanscht oder "obendrueber" ist. Die Verwaltungseinheiten sind hier auch klein bis sehr klein uns somit sehr granular. Gibt da Loesungen wo die Blocke/Slices im Vergleich riesig sind.

Wunsch von Benutzerseite ist da man ein System hat welches Daten sehr granular behandelt und eigentlich automatisch hantiert. Durch zuweisen von Profilen sollte man die Moeglichkeit haben Einfluss zuhaben wenn man die Automatik ueberstimmen will.

In normalen Umgegebungen wuerde ich zustimmen das 70% der Daten nur 1-3 angelangt werden und dann nie wieder.

Systeme wie PureStorage haben kein Tiering... es gibt nur Tier0 und gut ist. Dafuer aber Kompression und Dedup damit Aussagen wie gleicher Preis pro GB wie bei Loesung XY gemacht werden koennen.

Sofern ihr da nicht so Wunesche wie Spiegel und (autom.) transparenter Failover habt haette ich mir glaube ich nicht 5 Hersteller angeschaut sondern 2 bis max. 3. Ich sehe da die Gefahr das man sich verliert und vom 100 in 1000stel kommt.

Hab die Tage meine erste Veeam mit NetApp Integration umgesetzt und muss sagen das ich ein VM Backup von einem Hardware SAN Snapshot eine coole Sache finde :)

@BastiHN
also 5000IOPS sind so nicht die Welt aber 80TB Netto muss man irgendwie ja zusammen bekommen und das geht halt am schnellen mit grossen TB NLSAS Platten. Hier halten jetzt gerade die 6TB Platten Einzug und der Hersteller sagt das zum Ende des Jahres wohl auch 8TB da sein sollten.

Gruss
Joerg


Zurück zu „Hardware“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 2 Gäste