Hallo zusammen,
ein HA Cluster bestehend aus zwei Hosts an einer vnx soll um noch mal zwei Hosts und ein Shelve erweitert werden. Das alte paar besteht aus Xeon X5blablabla CPUs und die neuen aus der aktuellen Sandy Bridge Serie.
1. Überlegung: HA Cluster aus 4 Hosts machen und EVC entsprechend konfigurieren oder 2 HA Cluster aus jeweils 2 Hosts machen (und EVC auch auf X-Reihe runterbrechen).
Würde es einen Unterschied für vMotion Transfers bedeuten? vMotion (manuell) sollte meiner Meinung nach auch zwischen zwei Clustern uneingeschränkt möglich sein, aber was sagt die Praxis?
Gibt es sonst noch Überlegungen dazu?
Gruß,
Conne
Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!
Designfrage
-
irix
- King of the Hill
- Beiträge: 13066
- Registriert: 02.08.2008, 15:06
- Wohnort: Hannover/Wuerzburg
- Kontaktdaten:
Haeh?
Wenn du gesagt haettest:
- 2 Cluster mit je 2 Nodes ohne EVC
haette ich die Frage verstanden aber so garnicht und ich verstehe auch nicht wenn du dich entschieden hast EVC zu verwenden und deine Sandybridges herunter zustufen warum nicht ein Cluster mit 4 Nodes?
Oder hab ich es falsch verstanden?
Gruss
Joerg
Wenn du gesagt haettest:
- 2 Cluster mit je 2 Nodes ohne EVC
haette ich die Frage verstanden aber so garnicht und ich verstehe auch nicht wenn du dich entschieden hast EVC zu verwenden und deine Sandybridges herunter zustufen warum nicht ein Cluster mit 4 Nodes?
Oder hab ich es falsch verstanden?
Gruss
Joerg
Hi,
meiner Meinung hast du zwei Möglichkeiten, wie Joerg schon gesagt hat:
1. 1 Cluster mit 4 Host und EVC anschalten.
2. 2 Cluster mit je 2 Host und EVC aus.
Machen kann man beides. Es ist meiner Meinung eher eine Strategiefrage. Wenn du die "alten" Server noch lange weiter betreiben willst dann mach ein Cluster das bringt dir mehr Möglichkeiten. Wenn du die kurzfristig bis mittelfristig eh ausserbetrieb nehmen willst würde ich zwei Cluster machen.
Gruß Peter
meiner Meinung hast du zwei Möglichkeiten, wie Joerg schon gesagt hat:
1. 1 Cluster mit 4 Host und EVC anschalten.
2. 2 Cluster mit je 2 Host und EVC aus.
Machen kann man beides. Es ist meiner Meinung eher eine Strategiefrage. Wenn du die "alten" Server noch lange weiter betreiben willst dann mach ein Cluster das bringt dir mehr Möglichkeiten. Wenn du die kurzfristig bis mittelfristig eh ausserbetrieb nehmen willst würde ich zwei Cluster machen.
Gruß Peter
Hallo Joerg, Hallo Peter,
ich hätte nachdenken sollen, dann wäre dieser Thread nicht nötig gewesen.
Was mich schlussendlich dazu geführt hat hier zu posten war die Unklarheit, ob vMotion zwischen zwei HA Clustern ohne EVC uneingeschränkt möglich ist.
Euren Posts entnehme ich aber die Tendenz, daraus ein 4 node cluster zu bauen...
Sry noch mal für meine unklare Formulierung.
Gruß,
Conne
ich hätte nachdenken sollen, dann wäre dieser Thread nicht nötig gewesen.
Was mich schlussendlich dazu geführt hat hier zu posten war die Unklarheit, ob vMotion zwischen zwei HA Clustern ohne EVC uneingeschränkt möglich ist.
Euren Posts entnehme ich aber die Tendenz, daraus ein 4 node cluster zu bauen...
Sry noch mal für meine unklare Formulierung.
Gruß,
Conne
noch kurz zur Raidkonfig auf dem neuen shelve:
es stehen 15x SAS600 15k zur Verfügung. Welche Faktoren bestimmen die optimale Raid und Raidlevel Konfig?
Die Kapazität bei einem Raid60 über 14 Platten würde im Zweifel ausreichen, wobei natürlich nichts verschenkt werden soll.
2x Raid6 wäre unsinnig, weil der Performancegewinn durch die Vielzahl von Spindeln (1x Raid6) verloren gehen würde. (?)
Oder lohnt es sich in er Tat, sich die Gedanken über die VM-Aufteilung zu machen, um mehrere kleine Raids, je nach Anspruch der VMs bauen zu können? z.B. ein kleines 4Platten Raid10 + 2 oder 3 Raid6 aus den restlichen Platten. Evtl. für jede LUN ein eigenes Raid.
Das erste Shelve ist auch mit 15 Platten (10x SAS450 + 5x 2TB NLSAS) bestückt. Wobei das EMC OS 4 SAS Platten beansprucht, dazu gibt es noch ein Raid6 aus den restlichen SAS und ein Raid6 aus 4x NL SAS und eine NL SAS als Global HotSpare.
Die vnx hat zwei SP und ist mit jedem SP an einem 8 Gb FC HBA pro Host, direct attached. Da das Ganze active/active ist, können die Raids auf die beiden SPs verteilt werden.
Gruß,
Conne
es stehen 15x SAS600 15k zur Verfügung. Welche Faktoren bestimmen die optimale Raid und Raidlevel Konfig?
Die Kapazität bei einem Raid60 über 14 Platten würde im Zweifel ausreichen, wobei natürlich nichts verschenkt werden soll.
2x Raid6 wäre unsinnig, weil der Performancegewinn durch die Vielzahl von Spindeln (1x Raid6) verloren gehen würde. (?)
Oder lohnt es sich in er Tat, sich die Gedanken über die VM-Aufteilung zu machen, um mehrere kleine Raids, je nach Anspruch der VMs bauen zu können? z.B. ein kleines 4Platten Raid10 + 2 oder 3 Raid6 aus den restlichen Platten. Evtl. für jede LUN ein eigenes Raid.
Das erste Shelve ist auch mit 15 Platten (10x SAS450 + 5x 2TB NLSAS) bestückt. Wobei das EMC OS 4 SAS Platten beansprucht, dazu gibt es noch ein Raid6 aus den restlichen SAS und ein Raid6 aus 4x NL SAS und eine NL SAS als Global HotSpare.
Die vnx hat zwei SP und ist mit jedem SP an einem 8 Gb FC HBA pro Host, direct attached. Da das Ganze active/active ist, können die Raids auf die beiden SPs verteilt werden.
Gruß,
Conne
-
irix
- King of the Hill
- Beiträge: 13066
- Registriert: 02.08.2008, 15:06
- Wohnort: Hannover/Wuerzburg
- Kontaktdaten:
Virtuozzi hat geschrieben:Die EMC Firmware nutzt gleich 4 SAS-Platten![]()
![]()
Frueher waren es 5. Somit schonmal eine Verbesserung.
Grenzt schon fast an bewusste Verteuerung des Gesamtsystems, wenn man das mit anderen Herstellern vergleicht.
Wer weiss wie/sich traut kann dort auch Volumes drauf legen.
Andere Systeme reservieren sich auf jeder Platte XX GB.Zudem wie gross kann so eine Firmware/OS sein. Ein paar MB bis max. 1GB?
Gruss
Joerg
Wer weiss wie/sich traut kann dort auch Volumes drauf legen.
Da liegt noch eine 1TB LUN drauf (die als Ablage für ISOs dient und ein paar rumpelige VMs hostet)
...eine kleine Schande ist das eigentlich schon.
Zudem wie gross kann so eine Firmware/OS sein. Ein paar MB bis max. 1GB?
FLARE verbraucht ~400GB, ob es das nutz, keine A.
Gruß,
Conne
Zurück zu „vSphere 5 / ESXi 5 und 5.1“
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 2 Gäste