Hallo zusammen,
meines Erachtens ist es völlig falsch, das Thema Storage und Performance am verwendeten Protokoll fest zu machen.
Ob ich nun FC, FCoE, iSCSI oder NFS im ESX Umfeld einsetze, alles muß sich mindestens folgenden Fragen unterwerfen.
- Ist die erforderliche Verfügbarkeit gewährleistet?
- Genügt die Lösung unseren heutigen/zukünftigen Performance Ansprüchen?
- Wie viele Systeme teilen sich den Storage?
- Passt es in meine vohandene Infrastruktur?
- Existieren besondere BuRa (Backup & Restore) Anforderungen?
- Stimmt das Kosten/Nutzen Verhältnis?
....
..
.
Das eigentliche Problem ist aber, das kaum ein Kunde alle diese Fragen wirklich beantworten kann.
Bei Klein- und Mittelstandskunden gibt es kaum Storageadministratoren, bei Großkunden wird die Lösung von einer Vielzahl von Systemen mit den unterschiedlichsten Anforderungen genutzt, die sich im Verlaufe eines Tages massiv ändern können.
Daher ist es aus Sicht des Storage völlig egal, unter Verwendung welchen Protokolls die Hosts darauf zugreifen.
Natürlich hat jedes Protokol Stärken und Schwächen, aber im Grunde genommen spielen Sie bei einem vernünftigen Design keine große Rolle.
Einfach deswegen, weil Sie in der zeitlichen Gesamtbetrachtung kaum Auswirkungen zeigen können.
Moderne Rechner arbeiten intern im Nano Sekunden Bereich, das ist den Faktor 10^6 mal schneller als eine Disk.
Die aktuellen internen Bus Systeme arbeiten im MHz Bereich, dies ist immer noch um den Faktor 10^3 schneller als eine Disk.
Aus Sicht der Storage Performance ist es also vollkommen egal, welches Protokol ihr einsetzt, solange ihr beim Design keine elementaren Fehler einbaut!
Ich bin zwar kein Mitglied der Betonfraktion aus dem FC Bereich, aber einen 1 GigaBit Link zu sättigen ist kein großes Problem.
Das gilt aber auch für 4, 8 oder 10 GBit.
Du solltest nämlich nicht das Host Interface betrachten, sondern dein Storage Interface.
Ist das Host Interface der Engpass, kriegt der Host einfach noch ein weiteres Interface und der Drops ist gelutscht.
Völlig anders liegt der Fall, aber, wenn der Engpass am Storage Array Interface auftritt.
Und aus der Praxis kann ich sagen, das er fast immer hier auftritt!
Solange sich nur ca. 20 Host ein Array teilen ist das alles kein großes Problem, aber in den Rechenzentren von Großkunden teilen sich eine Vielzahl von Hosts ein Storage Array.
Und dann zählt nur noch dein Storage Design, ist das schlecht, ist alles andere nur Kosmetik.
Insofern muß ich dir zustimmen, die Anzahl der Disks muß zur Anforderung passen.
Und da gerade im ESX Umfeld fast ausschließlich Random IO's produziert werden, sollte man diese Art von IO Load auch als Grundlage seiner Berechungen annehmen.
Und beim Thema ESX, VAAI, FAST Cache, Tiered Storage Design und Multiprotokol Unterstützung führt aktuell kein Weg an EMC vorbei!
Ich kenne zwar die Preise von EMC (und EqualLogic) nicht, aber in den aktuellen CX4 & Celerra Arrays sind bereits heute alle Funktionen vorhanden.
Und soweit ich weiß,
garantiert EMC, das kein anderer Hersteller in der Lage ist, bei gleicher Anzahl der verbauten Disks soviel Kapazität bereitzustellen wie EMC.
Bin mal gespannt wie es hier weiter geht.
Gruß
Ralf