Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

Möglichkeiten Gemeinsamen Storage anzubinden

ESX(i)-taugliche Hardware, HCL .....

Moderatoren: irix, continuum, Dayworker

Experte
Beiträge: 1323
Registriert: 30.03.2009, 17:13

Möglichkeiten Gemeinsamen Storage anzubinden

Beitragvon UrsDerBär » 22.10.2009, 20:08

Hier gehts also weiter, habe mal die relevanten Posts kopiert:

Supi hat geschrieben:Dein Wunsch mit allen Daten an 2 Standorten.
Wäre das vielleicht mit den Dell Equalogics machbar ? Stichwort: Auto-Replication? http://www.dell.com/downloads/global/pr ... debook.pdf


@Supi: Nun sowas habe ich schon auch ins Auge gefasst. Aber bei solchen Lösungen ist es sehr schnell viel zu teuer. Ist dann schon eine ganz andere Liga. Sprich von all diesen externen Storage-Lösungen können wir uns maximal eine leisten. ;)


irix hat geschrieben:1. Kaufen sollte man nur das was auf der HCL steht. Aonsten solle mich sich das genu Ueberlegen und auch der Vorgesetzte sollte das akzeptieren. (DIe Konzequenz)
2. Kaufen tust du bei dem VMware Partner deines Vertrauen (Finger heb!) oder beim Server Anbieter
3. iSCSI hat das an Bandbreite was dein Ethernet so hergibt... 10Gbit ist moeglich... aber viele Geraete gibts da noch nicht. Die Aussage meines Anbieters war die "Soviel Spindels wollen sich doch noch garnicht kaufen damit man 10Gbit fuettern kann". Aus diesem Grunde haben die Kisten hier 4x1Gbit. Wenn man im VMware Umfeld sich tummelt dann ist das Random I/O bei kleiner Blocksize.
4. Cache spielt eine Grosse Rolle sofern er Batterie gepuffert ist
5. Shared DAS/SAS kenne ich jetzt so nicht. Auch das Konstrukt ein FC SAN von beiden Kontrollern ueber Kreuz an jeden ESX anzuschliessen finde ich befremdlich und ich weis nicht ob ESX das als SHARED ansieht.... vorstellen koennte ich mir das aber schon.

Neuartige Backupprodukte von VEEAM und Vizioncore benutzen die neue vStorage API und so Dinge wie De-Duplication und *Changed Block Tracking*. Das heist eine Inkrementale Sicherung ist fix gemacht sofern sich nicht soviel geaendert hat. Einige der Produte koennen das Backup auf einem 2. ESX/Datastore ablegen so das man im Falle der Faelle die VM, welche auch schon unter einem anderen Namen angelegt wurde, wieder in Betrieb nehmen kann.


@irix:
Zu 1: Jap HCL ist sicher geplant einzuhalten. Nur verstehe ichs ned so ganz, warum FT speziell sein soll. Ausser Dell-Maschienen gibts ja nicht wirklich viel zur Auswahl. Und Dell sträuben sich die Chefs, weil Mühe mit deren Politik.

Zu 2: Nun wir haben keinen. Wie auch. :D Unser normaler IT-Verkäufer hat sie jedoch im Angebot, aber Spezi darauf isser nicht.

Zu 4: Ok.

Zu 3: 1 GBit Ethernet (ca. 125 Mb) ist ja mit zwei 15k SAS Platten von der Transferrate her schon ausgelastet. 10Gbit bietet mein Vendor für die Holzklasse gar nicht an. (Wenn Holzklasse nicht schon fast despektierlich ist). :D

Zu 5 SAS direkt: Nun, möglich, dass es von VmWare als gemeinsamer Speicher + Ausfallsicher nicht unterstützt wird. :-/ Müsste ich mal nachhaken.

Zu 5 FC/iSCSI: Warum sind Direktverbindung problematisch? VmWare bietet doch von haus auf Multipath-Fähigkeiten. *kopfkratz* Irgendwie ist mir das schleierhaft. Also bräuchte ich sicher zwei FC oder iSCSI Switches für den Speicher?

Also gemeinsamer Speicheranschluss gibts demnach schon einige Einschränkungen mehr bei VmWare gegenüber Xen, sei es weil Multipath-Treiber eingespiesen werden können oder weil es von Haus auf unterstützt wird. :cry: :cry:

Grüsse

Experte
Beiträge: 1333
Registriert: 25.04.2009, 11:17
Wohnort: Thüringen

Beitragvon Supi » 22.10.2009, 21:09

Ich würde sagen, schreibe noch mal deine Anforderungen rein. Basis soll ja jetzt eine Shared Storage sein.
Also z.B. ein Dell MD3000i als ISCSI Lösung.
Bzgl. der Auslastung von ISCSI: Zuerst, ist Bandbreite meist das kleinere Problem, eher die Access-Zeit. Mehr (schnelle) Platten, mehr Spindeln, mehr Speed.
Das Bandbreitenproblem bei ISCI wird zum einen bei der MD3000i durch je 2 Ports pro Controller (2 Controller, einer kann ausfallen, der andere übernimmt ohne dein zutun die anderen LUNS) erreicht (also 4 Lan-Ports).
Zum anderen durch Multipathing und RoundRobin wird die Last auf die Pfade verteilt.
Also kommten am Ende 2Gb bei rum.
Bei FC hast du halt gleiche dein 4Gbit Bandbreite, brauchst aber die Fc-Switche.
So, die anderen dürfen auch Senf ablassen. :D

Profi
Beiträge: 900
Registriert: 12.02.2005, 13:57
Wohnort: Süd-Niedersachsen

Beitragvon GTMK » 23.10.2009, 10:20

Zu 5 FC/iSCSI: Warum sind Direktverbindung problematisch?


VMware unterstützt, soweit ich weiß, keinen direkt angeschlossenen FC-Storage, sondern nur die Variante mit FC-Switches. Ich hatte so etwas mal vor 5 Jahren (es funktionierte an sich auch) und habe die FC-Switches damals beschafft, als ich bei einem Support-Fall ein "unsupported" zu hören bekam.

Georg.

Benutzeravatar
Profi
Beiträge: 838
Registriert: 06.04.2006, 14:36
Wohnort: bei Mainz
Kontaktdaten:

Beitragvon Heros » 23.10.2009, 11:01

Jab, das ist der Fall. Steht das nicht explizit in der HCL gibt es dafür keinen Support!

Member
Beiträge: 319
Registriert: 26.04.2009, 15:59
Wohnort: Laatzen

Beitragvon PatrickW » 23.10.2009, 11:19

Ich habe gerade nochmal in die HCL geguckt und da steht es, wenn man unter Storage/SAN Fibre Channel Array auswählt und dann unter den introductory information und dort unter dem Punkt Fibre Channel SANs:
* Direct Connect - In this configuration, the ESX host is directly connected to the array (that is, no switch between HBA and the array). Clustering is not supported in this configuration.

King of the Hill
Beiträge: 12203
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Re: Möglichkeiten Gemeinsamen Storage anzubinden

Beitragvon irix » 23.10.2009, 11:22

UrsDerBär hat geschrieben:@irix:
Zu 1: Jap HCL ist sicher geplant einzuhalten. Nur verstehe ichs ned so ganz, warum FT speziell sein soll. Ausser Dell-Maschienen gibts ja nicht wirklich viel zur Auswahl. Und Dell sträuben sich die Chefs, weil Mühe mit deren Politik.


Hmm... kannst du das naeher erlaeutern?

Zu 3: 1 GBit Ethernet (ca. 125 Mb) ist ja mit zwei 15k SAS Platten von der Transferrate her schon ausgelastet. 10Gbit bietet mein Vendor für die Holzklasse gar nicht an. (Wenn Holzklasse nicht schon fast despektierlich ist). :D


Mb/s = (IOPS x Blocksize) / 1024

Eine Anwendung wie Exchange 2003 arbeitet mit 4KB Blocksize. Ein 2007er und auch ein akt. MS SQL dann mit 8KB. Fuer einer 15er SAS Platte darfst du gerne 200 IOPS einsetzten. Nun rechne bitte nochmal ..... :)

Das was du im Hinterkopf hast ist ein Sequentielles Lesen mit 16MB BLocksize oder so.... <ironie>das ist bestimmt sehr Praxisnah im Virtualsiierungs Umfeld</ironie>.

DataCore sammelt z.B die I/O Anforderungen und verarbeitet sie dann in groesseren Einheiten.

Das was mir noch einfaellt zu deinem Problem ist.... HP VSA Lefthand. Damit laesst sich lokaler Speicher der Host Maschinen als SAN Bereitstellen fuer vCenter/vSphere. Laut Aussage von HP ist dies die einzige Storage Virtualsierung welche in der Form von VMware supportet ist.

Viel mehr kann ich dir dazu nicht sagen aber IIRC haben wir hier einige welche sich mit HP Hardware besser ausskennen als ich. Dafuer antworte ich gerne zu Equallogic und Dell :)

Nochwas.... es gibt die VMware Accelleration Kits. Das "Advanced" bietet nen vCenter Foundation und 3 Hosts a 2 Sockel. Selbst wenn ihr nur mit erstmal 2 Hosts plannt kann das schon guenstiger sein als die Lizenzen einzeln zukaufen da auch das SnS Package hier guenstiger ist. Advanced enthaelt dann HA, vMotion und auch FT.

Gruss
Joerg

Experte
Beiträge: 1323
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 23.10.2009, 19:00

Zu Dell: Nun, gab da ne kleine Geschichte, ist ein paar Jahre her. Er mag sie nicht wegen Lockvogel-Angeboten. Auf alle Fälle wollten wir Hardware kaufen. Genauso wie sie in einem Prospekt war, der Prospekt war ein paar Tage alt. Ging um ein paar Notebooks. Als man bestellen wollte hiess es dann, ne das geht so nicht, das Angebot wäre limitiert gewesen usw. usf. Davon stand aber nix geschrieben. Ausserdem war die Person unfreundlich obwohl wir freundlich waren. Also Vorgesetzten verlangt, dieser war es auch und ebenso uneinsichtig. Nun, seither herrscht grundsätzlich Dell-Einkauf-Verbot. ;)

Zu Transferrate: Stimmt, sind ja per iSCSI-Protokoll verbunden, also kommt eh nur Blocktransfer zum tragen. Habe da etwas gemischelt. :oops:

Zu Lizenzen: Die Acceleration Kits habe ich schon gesehen. Bin schon der Meinung, das es durchaus Sinn machen würde, drei Server einzusetzen, also einen der wiederum Failover ermöglicht, direkt. Aber das ist schon rein Lizenzkostenmässig einfach zu heftig und wohl auch übertrieben. Selbst wenn es preiswert ist. 6 aktuelle CPU's für unsere Serverle ist auch Overkill pur. :D
Ist schade, dass FT nicht in den Essentials Plus enthalten ist bzw. es kein "Super Plus" oder so für kleine Hochverfügbare Umgebungen gibt. :cry:

Zu DirectAttached: Nun da bin ich eben etwas verwirrt. In der HCL steht zbsp. bei der Eternus DX 60 für SAS, iSCSI, FC für ESX 4.0 das gleiche:
ESX 4.0 VMW_SATP_ALUA VMW_PSP_MRU V10 N/A SAS Direct Attach

Für ESX darunter jeweils die verschiedenen, möglichen Konfigurationen. Active/Active usw. usf. (Zumindest für iSCSI/FC Varianten, bei SAS nur obiges)

Habe auch etwas geforscht, mit der Suche bekommt man ein paar wenige Dokumente, zbsp. wird in diesem Guide unter "Verwalten von Speicherpfaden von Multipathing-Plug-Ins" gesprochen. Was auch immer das heisst. Ich vermute mal, irgendwelche Storage-Hersteller-Plug-Ins welche mit VmWare funzen :?:

Fujitsu sind aber nicht die einzigen wo das steht. Gibts auch bei anderen. Weiss da jemand mehr? Evtl. sogar jenes Feature (Pluggable Storage Architecture / vStorage APIs für Multipathing)? Wird das wiederum nur von Enterprise Plus unterstützt? Also wieder unsinnig? Wenn da Direkt-Verbindung unterstützt wird, wäre das ja wohl goldig.

--> Sprich ich habe den überlick über die 100 Features von VmWare verloren und wo sie dabei sind und wo nicht... :D

Wie sieht es mit iSCSI aus? Da brauche ich für Teaming/Failover Funktionen ja normal auch spezielle Switches oder? Direct-Connect geht ja scheinbar auch ned. Wie sieht da ein Controller-Failover aus? VM's auch nur als Snapshot? Oder eben mit diesem neuen Feature trotzdem?

Grüsse und Dankeschön

Experte
Beiträge: 1333
Registriert: 25.04.2009, 11:17
Wohnort: Thüringen

Beitragvon Supi » 23.10.2009, 20:00

UrsDerBär hat geschrieben:Wie sieht es mit iSCSI aus? Da brauche ich für Teaming/Failover Funktionen ja normal auch spezielle Switches oder? Direct-Connect geht ja scheinbar auch ned. Wie sieht da ein Controller-Failover aus? VM's auch nur als Snapshot? Oder eben mit diesem neuen Feature trotzdem?

Grüsse und Dankeschön


Fürs Failover bei ISCSI bedarf es keiner speziellen Switche, nur manch preiswerte Switche machen bei ISCSI Probleme.
Wie das Controller-Failover z.b. bei einem 2-Controller ISCSI Storage abläuft, habe ich ja oben schon am Beispiel der MD3000i erläutert.
Bei dieser kann man die Targets/Luns je einem der 2 Controller zuordnen. Beim Ausfall eines Controllers übernimmt der andere die Targets, ohne das diese Ausfallen. Max. ein wenig verzögerung, aber kein Datenverlust oder so. Halt richtiges Failover.
Damit der Switch, der zwischen der Storage und der SAN liegt, nicht der Single-Point of Failure ist, sollte dieser redundant sein. Also über kreuz zwischen der San und den z.B. 2 Switchen verkabeln.
Unabhängig von der Dell-Antipati ist das hier ganz gut dargestellt: http://www.delltechcenter.com/page/VMwa ... lt+MD3000i

Wenn du wirklich nur 2 Server haben willst, würde es bei der MD3000i auch funktionieren, die SAN über kreuz direkt an die 2 Server anzuschließen. Somit hättest du auch den Failoverfall abgedeckt, sowohl was SAN als auch den Host angeht. Jeder Server ist dabei zumindest mit einem Kabel mit einem der 2 Controller verbunden. Die Bandbreite ist dabei aber halt wirklich auf die 1Gbit begrenzt.

Experte
Beiträge: 1323
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 24.10.2009, 18:04

Hmm also bei Umweg über Switch hätte ich 2GB Bandbreite... *kopfkratz*
OK, macht Sinn, hier zwei kleine Switches dazwischen zu schalten für doppelte Bandbreite. Überzeugt. :)
Dachte man bräuchte auch managed Switches dafür.

Würde also heissen ich brauche:
- iSCSI SAN, Dual Controller, jeweils Zwei Nics pro Controller
- zbsp. 2x HP ProCurve 1400-8G (simpler unmanaged Switch)
- jeweils zwei NIC's an jedem Server für das Storage

Und das ganze wäre für VmWare tauglich und die Bandbreite würde locker für ein paar VM's reichen. Ein weiterer Host wäre ebenso unproblematisch. Das ganze relativ günstig.

Oder SAS als Shared Storage mit 3Gbit als DAS, fals supported und mir jemand erklären kann was das genannt in der HCL heisst ;) Ohne Erweiterungsmöglichkeit um einen weiteren Host. Günstigste Variante und trotzdem sehr zackig.

Oder FC und 4Gbit mit zwei FC-Switches. Teuerste Variante. Richtiges Controller-Failover ebenso easy wie bei iSCSI. Imho fast schon Overkill für zwei Serverle. Erweiterung problemlos möglich.

Experte
Beiträge: 1333
Registriert: 25.04.2009, 11:17
Wohnort: Thüringen

Beitragvon Supi » 24.10.2009, 19:12

Wichtig wäre : jumbo frames and flow control gleichzeitg, das können nicht alle preiswerten Switche.
Die SAS Variante wäre vom Anschluss ähnlich wie bei ISCSI direkt an der Storage. Kreuzverbindung. Bei der der MD3000 (i mit ISCSI) funktionierte in der Direktverbindung kein HA. Mit einer HP MSA2000 funktioniert das wohl auch bei SAS.

Dein HP 1400 8 Port ist aber von der Switching Kapazität mit 16 Gbit/s recht schmalbrüstig, besser den 16 Port mit 48 Gbit nehmen.

Aber gerade was preiswerte HP Switche angeht, habe in der VMWare Commuity eher negatives gelesen. Da ist es besser etwas mehr zu investieren.

Experte
Beiträge: 1323
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 25.10.2009, 16:22

SAS: Nun, ist die Frage ob das Multipathing/Failover ebend von VmWare direkt unterstützt wird oder nicht. Und ob es dazu diese Enterprise Plus braucht oder ob das normale ausreicht. Blicke da irgendwie nicht durch. Bei Windows, Linux etc. gibt es ja immer die entsprechenden Drivers für oder Windows bringt sie mit.

iSCSI-Switch: Was wäre den ein deiner/euer Meinung nach sinnvoller Switch der zwei Server mit dem Storage verbinden muss?
Woran erkenne ich, das FlowControl + Jumbo Frames gleichzeitig unterstützt werden?

Experte
Beiträge: 1333
Registriert: 25.04.2009, 11:17
Wohnort: Thüringen

Beitragvon Supi » 25.10.2009, 18:14

Das ISCSI Multipathing ist unabhängig von der VMWare Version. Geht also auch mit der Essential.
Man legt im VMware einen Vswich an und ordnet diesem 2 oder mehr Nics des Servers für ISCSI zu.
Das Storage richtet ebenso man halt mit den ISCSI Nics im Vcenter ein. Anschließend hast du halt quasi "automatisch" mehrere Pfade zu den Luns.
Hier zu sehen wie es bei meiner MD3000i ausschaut: http://vmware-forum.de/viewtopic.php?t=16940
ISCSI-switch : Dell PC5424 , ca 600€. Erfahrungen mit anderen habe ich jetzt nicht.

Experte
Beiträge: 1323
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 26.10.2009, 11:14

OK, danke. :) --> Muss ich nur noch ein Nicht-Dell-Pendant suchen. :D

Habe auch einen Blog-Eintrag gefunden welcher die Anschluss-Varianten recht guz zu erklären scheint: http://blogs.vmware.com/storage/2009/10 ... phere.html

Ich verstehe das soweit, dass das 'neue' Alua-Protokoll die Multipathing-Fähigkeiten von VmWare vereinfacht.

Soweit so gut, was mir aber immer noch nicht ganz klar ist, es erscheinen bei einigen Storages Einträge, welche FC-Direct Attached zulassen. Heisst dies nun, dass es für alle Konfigurationen supported ist wenn das so in der HCL steht? Erscheint jeweils für ESX 4.0 und manchmal auch für ESX 3.5. In der Regel auch nur für neuere Storage-Einheiten. Gesehen zbsp. bei HP und Fujitsu.


Habe es so verstanden, dass nur mit RoundRobin mehrere Pfade auf eine Lun möglich sind und dadurch eine Bandbreitenverdoppelung ermöglich wird. Sprich wenn nur MRU oder Fixed unterstützt wird, dann habe ich auch mit Switches 'nur' 1 GB Bandbreite oder mache ich hier einen Denkfehler?
Und gilt die Bandbreitenverdoppelung nur bei iSCSI oder auch bei FC?

Allerdings habe ich beim durchforsten der HCL auf die schnelle kein Produkt gefunden welches auch für VMW_PSP_RR zertifiziert wurde. Normalerweise steht da immer VMW_PSP_MRU oder FIXED. Heisst dies nun Round Robin ist zwar manchmal möglich, aber nicht supported, bei Problemen = Pech?

Auch kommt manchmal als Bemerkung folgendes: "Storage partners using ESX 4.0 or later may recommend VMW_PSP_RR for path failover policy for certain storage array models. If desired, contact the storage array manufacturer for recommedation and instruction to set VMW_PSP_RR appropriately."
--> Nun, das klingt für mich zwischen den Zeilen ungefähr so: Du kannst es machen aber bei Problemen ist das nicht unser Problem, weil es nicht dafür zertifiziert ist. Wende dich in jedem Fall an den Storage-Mann. ;)

Experte
Beiträge: 1323
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 27.10.2009, 22:08

Hat noch jemand was für mich?

Habe es auch bei VmWare direkt versucht, die verweisen einem an einen Distributor, sie seien nicht zuständig>dieser sagt: wir haben davon keine Ahnung, wir verkaufen nur weiter>Weitervermittlung an einen Händler>Der weiss es auch nicht so genau, ein anderer auch nicht.
Bei Marathon hörte ich: Wir würden Sie gerne an den Distributor in Ihrem Gebiet weiterleiten. Er würde Sie dann anrufen. Geht das in Ordnung? Rückantwort: Ja. Telefon am nächsten Tag. Fragen geklärt. Ein paar Tage später: Nachfragen, sofort geklärt. :evil:

Nun was also wäre der Händler meines Vertrauens dem ich die Fragen stellen sollte? :roll:
Demjenigen auf die Pelle rücken, von dem ich das meiste einkaufe, die Lizenzen auch verkaufen kann, aber kein offizieller Partner ist? Bin irgendwie bald wieder geneigt Xen einzusetzen.

Vielleicht weiss es ja trotzdem jemand hier, nochmals in kürzerer Form
- RoundRobin bei MRU in der HCL ebenso supported? Was anderes wie MRU hab ich nicht gesehen. Die im letzten Post genannte Bemerkung irritiert mich.
- Brauche ich für iSCSI 2Gbit inkl. Failover und Round Robin 4 Nics pro Host für iSCSI oder 2?
- Wenn in HCL Direct Attached steht, Direct Attached für alles möglich? Auch HA + FP od. nur SingleServer?
- Ist es mit VmWare FP wirklich so kritisch mit zertifzierter Hardware, wenn sie ansonsten in der HCL gelistet ist, aber nicht speziell für FP. Es gibt gerade mal 11 Produkte für die Intel Xeon 5500 Familie. Ist dies wirklich ausgereift oder einfach die Zerti so teuer?

Grüsse und Dankeschön

Benutzeravatar
Profi
Beiträge: 838
Registriert: 06.04.2006, 14:36
Wohnort: bei Mainz
Kontaktdaten:

Beitragvon Heros » 28.10.2009, 09:00

UrsDerBär hat geschrieben:Vielleicht weiss es ja trotzdem jemand hier, nochmals in kürzerer Form
- RoundRobin bei MRU in der HCL ebenso supported? Was anderes wie MRU hab ich nicht gesehen. Die im letzten Post genannte Bemerkung irritiert mich.
- Brauche ich für iSCSI 2Gbit inkl. Failover und Round Robin 4 Nics pro Host für iSCSI oder 2?
- Wenn in HCL Direct Attached steht, Direct Attached für alles möglich? Auch HA + FP od. nur SingleServer?
- Ist es mit VmWare FP wirklich so kritisch mit zertifzierter Hardware, wenn sie ansonsten in der HCL gelistet ist, aber nicht speziell für FP. Es gibt gerade mal 11 Produkte für die Intel Xeon 5500 Familie. Ist dies wirklich ausgereift oder einfach die Zerti so teuer?



So richtig verstehe ich deine Fragen nicht. Habe aber auch keine Zeit hier alles zu lesen.

Was meinste mit Round Robin bei MRU?
Du willst iSCSI machen und Round Robin und willst wissen ob du 4 Ports zum Storage brauchst oder 2?
Direct Attached sollte dann auch für HA und FT gelten. Allerdings wird das natürlich, abhängig der Ports, schwierig.
Die Zertifizierung ist sehr teuer aber die HCL ist absolut wichtig!

Experte
Beiträge: 1323
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 28.10.2009, 15:51

Hi Heros,

Danke für die Antwort. :)

Zu MRU: Nun soweit ich verstanden habe heisst MRU "Most Recently Used" und ist was anderes als "Round Robin" und "Fixed". Ich habe aber kein einziges Produkt gefunden, welches für VMV_PSP_RR zertifziert ist, sondern nur für VMW_PSP_MRU oder VMW_PSP_FIXED.
Meine Frage: Verwechsle ich da was und RR geht bei allen VMW_PSP_MRU? Weil sonst dürfte kein Produkt RR unterstützten gemäss HCL. ;)

Zu RoundRobin: Genau. Verstanden habe ichs so, dass zwei reichen. Aber sicher bin ich eben ned.

DirectAttached: OK. Solange also nur zwei Server mit von Partie sind, kein Prob. Sonst eben zusätzliche Switches. Von FC ausgehend.

HCL: OK, das heisst wenn ich FT benutzen möchte, dann muss ich zwingend einen Server nehmen, welcher nicht nur für normal zertifziert ist, sondern speziell für FT. Sprich einer aus den 11.

Member
Beiträge: 23
Registriert: 18.10.2009, 09:55

Beitragvon hkais » 03.11.2009, 19:40

Hallo UrsDerBär,

hast Du dir das Vizioncore vReplicator mal angeschaut. Ich bin selbst aktuell auf der Suche nach einer bezahlbaren Lösung.
Dass VMware mit EMC im Rücken nur die teueren SAN-Lösungen bevorzugt sollte klar sein.

FT ist meines erachten nicht unbedingt erforderlich, wenn ich sicherstellen kannn, dass ein zweiter Server im anderen RZ sofort einspringen kann (auch manuell)
Und mal Hand aufs Herz wie oft passiert das?
Dafür ein redundanten SAN mit noch teurer Anbindung?
Dann noch die UpgradeLizenzen für die Enterprise VM?
Was oft auch nicht gesagt wird, die SANs sind gekoppelt, wenn nun die SAN ausfällt...
Da sind mir getrennte DAS-Systeme lieber und vor allem viel viel billiger und austauschbarer.

Mein Tipp: Standard ESX + vReplicator und gut ist.

Gruß

Experte
Beiträge: 1323
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 04.11.2009, 22:21

Hi,

Zum FT: Nun, solange mir niemand garantieren kann, dass wenn eine Maschine abkackt, die SQL, Exchange DB und ESX koscher bleibt, solange finde ich FT durchaus sinnig. Ziel ist ja, keine teuren Cluster-Lizenzen zu verwenden. Einspringen ist das eine, aber wenn der Kram mal inkonsistent ist, ist es eben immer mühsam ihn wieder konsistent zu kriegen. Daher nach Möglichkeit gar nicht soweit kommen lassen. ;)
Geschieht der Ausfall während den wichtigen Zeiten, wäre das fürs Geschäft äusserst schlecht. Nur auf Beten zu setzen, dass nach dem Ausfall die DB problemlos wieder hochkommt finde ich etwas naja.

Redundante herkömmliche SAN macht auch nur für DR Sinn, da die meisten ja nicht als "eine" auftreten. Jene Lösungen die das können (Datacore, Lefthand, Falconstore) werden sehr schnell sehr sehr teuer. Auch die Virtual Appliance Lösungen sind nicht gerade billig.

Sprich möchte man richtiges FT, zwei Gebäude, zwei Storages ist es imho für den schmalen Geldbeutel sinnvoller Free Xen/Marathon einzusetzen welches das von Haus auf mitbringt. Sofern nur Windows als FT eingesetzt werden soll. Lizenzkosten liegen für zwei Hosts bei ca. 5'000 Euro. VmWare mit vier (od 6 bei Accelaration Kit) Prozzis, vCenter Foundation, zwei Virtual Appliance Lizenzen von Datacore oder Falconstore kostet schnell einmal 13'000 Euro. Bei Zwei CPU's ca. 9'500 Euro. Immernoch beinahe das doppelte, bei vermutlich schlechterer Disc-Performance und Ausfallsicherheit. So ist man selbst mit einer VirtualAppliance für den Storage - Hardware dazugerechnet - bald nicht mehr so weit von einem VmWare-tauglichen Stratus Server entfernt und somit die billigste VmWare Lizenz verwendet werden könnte. Erst noch mit mehreren CPU-Kernen. Wenn auch im gleichen Raum.

Wir werden wohl uns wohl eine kleine Shared-Storage Lösung + 2 Server anschaffen. Damit ist zwar der Desasterfall (Brand, Storage-Ausfall) nicht abgedeckt, aber der Rest schon. Desaster eben per Backup und Doppelspeicherung wichtiger Datensätze und/oder Replikation des SQL-Servers. Dürfte wohl sicherer sein als die Virtuelle Maschine für den Storage. Preislich schenkt es sich nicht so viel. Von den Discs abgesehen.

Für FT brauchts übrigens kein Enterprise sondern 'nur' Adavanced.

Hardwared darf mittlerweile - wenn nötig - auch Dell sein. :lol:

Würde ich keine Client-Systeme und Unix virtualisieren wollen, wäre die Entscheidung sicher zu gunsten Xen gefallen. ;)

Experte
Beiträge: 1333
Registriert: 25.04.2009, 11:17
Wohnort: Thüringen

Beitragvon Supi » 05.11.2009, 09:24

Willst du zwecks HW Beratung nen neuen Thread aufmachen?

So als Empfehlung bei Dell :

2x R610 mit 24GB Ram, 2x E5540 2,5GHz, 4Port Braodcom intern und 4 Port IntelQuad NIC, Perc 6 und 2x250GB Sata für den ESX (alternativ den ESXi auf SD Card), IDRAC Enterprise
MD 3000i 2 Controller rmit 15x 300GB 15 SAS Platten (die dann vielleicht in 8x Raid10 und 6 Raid-5 und 1 Hotspare einteilen)
2x 5424 ISCSI Switche

1x R210 mit 4/8 GB und Dual Core Xeon, 2x 1TB Raid 1 an SAS 6/ir , 2 Nics, LTO-3/4 LW.
mit SCSI /SAS Controller für LTO-3/4 LW. IDRAC Enterprise
Vorteil, der R210 hat nen E-SATA Anschluss, wo mann einfach eine billige E-SATA Platte dranhängen kann um auf diese die Full-VM Sicherungen zwischenzuspeichen. (da reicht dann auch 2x250GB fürs System)
Sanbased (San > R210(E-Sata) > Band)

So, welche Lizenzen muss du wissen.

@ Irix mit VM Advanced Acceleration Kit und 5 Jahre 4 Stunden auf die HW
kommst du dann mit 30T hin?

King of the Hill
Beiträge: 12203
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 05.11.2009, 12:05

Supi hat geschrieben:@ Irix mit VM Advanced Acceleration Kit und 5 Jahre 4 Stunden auf die HW
kommst du dann mit 30T hin?


Da mein Hintern schon auf der Autobahn ist und Heimwärts fährt nur Kurz. Von einem Budget wie 30k wuerden knapp 1/3 nur fuer das Advanced Acceleration Kit weggehen und da fehlt dann noch SnS.

Mir grade Präsenz weil verkauft ist folgendes:
Dell 710 2x5540 mit Turbo und HT, 2HE, 48GB,2x 146GB 10k HD,Dual PSU,2x Intel QuadPort,iDRAC Enterprise, 3 Jahre Support Next Day On Service
ca. 5300.

Ich bin der Meinung wer eine klassiche 2-3 HA ESX Host Umgebung hat, der kann sich den 4h Mission Critical End User Support sparen und das Geld andersweitig einbringen in seine Backup Software und oder Speicher(-platz).
Die 4h sind nur fuer die SAN Komponente unerlaesslich solange die der SPOF ist.

Fuer die MD3000i hab ich leider nichts parat und muesste nachschauen. Das ganze ist aber wahrscheinlich ueberdimensioniert wenn ich die Anforderungen seitens des OP noch im Kopf habe drum halte ich fuer Zeitverschwendung ausser man wir wollen das mal theoretisch bis zum Ende durchspielen.

Die 54xx Power Connects sind unsere Standardswitches bei iSCSI und normaler Netzinfrastruktur da Managebar, Zugriff per SSH/Seriell und aehnlich zu Handhaben wie eine Cisco (sagt unser Admin :). Die 48 Ports Variante kostet aber nur wenig Aufpreis im Vergleich zur 24er. Bei einem spaeteren max.imal Ausbau von 3 Hosts a' 8 Nics, 4x SAN, 4x1 Trunk werden 32 Ports gebraucht.
Best Practices ist aber fuer sein iSCSI SAN eigene Switche zuhaben und dafuer kann man natuerlich die 5424er nehmen. Die Separation von VLAN sind nur Plan B :)

Gruss
Joerg

Guru
Beiträge: 2082
Registriert: 21.10.2006, 08:24

Beitragvon bla!zilla » 05.11.2009, 12:08

Eigene Switches für iSCSI macht nur dann Sinn, wenn die Switches, die man hat, es nicht packen würden. Gerade größere HP ProCurves oder Ciscos haben genug Bumms, um iSCSI, über VLANs abgetrennt, mit anderen Dingen über den gleichen Switch zu fahren. Und das ist oft besser, als irgendwelche "günstigen" Switches für iSCSI zu nehmen, nur damit man separate Switches hat.

Experte
Beiträge: 1333
Registriert: 25.04.2009, 11:17
Wohnort: Thüringen

Beitragvon Supi » 07.11.2009, 20:48

http://www.xtivate.com/pls/start.pl?landingct&ls=ct

wäre dieses Cluster ein Variante für die 2 Storage an 2 verschieden Orten?
Die einzelnen ESX Host könnten das ja auch.
"Einzig" VMWARE zertifizierung ist nicht vorhanden.

Guru
Beiträge: 2082
Registriert: 21.10.2006, 08:24

Beitragvon bla!zilla » 08.11.2009, 13:02

Tja, und ohne die Zertifizierung von VMware würde ich mir das verkneifen. Was bringt die ein gespiegeltes Storage, wenn VMware damit nicht zertifiziert ist? Es ist ja noch viel mehr: VMware ist ja nicht mal bei den vom Hersteller genannten und unterstützen Betriebssystemen erwähnt. Klar, wird das zu 99% laufen, aber das wäre mir einfach zu unsicher. Zudem steht da was von Replikation, nicht von Spiegelung/ Mirroring. Zentraler Unterschied zwischen Spiegelung und Replikation ist, dass Quelle und Ziel über unterschiedliche Protokolle angesprochen werden. Wenn die lokale Platte via U320 SCSI oder Fibre-Channel angebunden ist, und das Ziel via TCP/IP (egal was dahinter dann kommt), dann spricht man von Replikation.

Experte
Beiträge: 1323
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 11.11.2009, 13:24

Danke für die zahlreichen Antworten.

@Supi: Dein Vorschlag ist zwar gut, aber für unsere Zwecke eigentlich Oversized. Zumindest Platten brauchen wir käumlich so viele.

@All
Die Fujitsu Fragen haben sich nach langer Zeit auch geklärt. Die Server sind ab Q1 2010 zertifziert für FT. Der Storage geht mit FC-Direkt. iSCSI direkt geht auch und SAS geht auch (Auf zwei Hosts, da keine Expander zertifziert und wohl auch noch eine gute weile geht).

Hatte die letzten Tage noch einen Datacore-Spezi im Haus. Erscheint mir aktuell als eine der sinnvolleren Lösungen für eine virtualisierte Umgebung. Zumindest wenn man nicht viel Speicherplatz darüber laufen lassen möchte sehr bezahlbar, da akutell grad Promotion von 2 für 1 für die kleinen Pakete.

Aktuell ein paar sinnvolle Varianten komplett durchgerechnet. Schenkt sich jeweils nicht viel. Warte noch auf Richtpreise mit einem ganz anderen, einfacheren Ansatz, der wohl auf ein paar Jahre gesehen Vorteile bringen könnte.


Zurück zu „Hardware“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast