Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

Designfrage

Moderatoren: Dayworker, irix

Member
Beiträge: 328
Registriert: 01.10.2008, 13:46

Designfrage

Beitragvon Login » 22.02.2013, 19:51

Hallo zusammen,

ein HA Cluster bestehend aus zwei Hosts an einer vnx soll um noch mal zwei Hosts und ein Shelve erweitert werden. Das alte paar besteht aus Xeon X5blablabla CPUs und die neuen aus der aktuellen Sandy Bridge Serie.

1. Überlegung: HA Cluster aus 4 Hosts machen und EVC entsprechend konfigurieren oder 2 HA Cluster aus jeweils 2 Hosts machen (und EVC auch auf X-Reihe runterbrechen).

Würde es einen Unterschied für vMotion Transfers bedeuten? vMotion (manuell) sollte meiner Meinung nach auch zwischen zwei Clustern uneingeschränkt möglich sein, aber was sagt die Praxis?

Gibt es sonst noch Überlegungen dazu?

Gruß,
Conne

King of the Hill
Beiträge: 13066
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 22.02.2013, 20:32

Haeh?
Wenn du gesagt haettest:
- 2 Cluster mit je 2 Nodes ohne EVC

haette ich die Frage verstanden aber so garnicht und ich verstehe auch nicht wenn du dich entschieden hast EVC zu verwenden und deine Sandybridges herunter zustufen warum nicht ein Cluster mit 4 Nodes?

Oder hab ich es falsch verstanden?

Gruss
Joerg

Benutzeravatar
Guru
Beiträge: 3138
Registriert: 22.02.2008, 20:01
Wohnort: Hessen

Beitragvon PeterDA » 23.02.2013, 09:32

Hi,
meiner Meinung hast du zwei Möglichkeiten, wie Joerg schon gesagt hat:

1. 1 Cluster mit 4 Host und EVC anschalten.
2. 2 Cluster mit je 2 Host und EVC aus.

Machen kann man beides. Es ist meiner Meinung eher eine Strategiefrage. Wenn du die "alten" Server noch lange weiter betreiben willst dann mach ein Cluster das bringt dir mehr Möglichkeiten. Wenn du die kurzfristig bis mittelfristig eh ausserbetrieb nehmen willst würde ich zwei Cluster machen.

Gruß Peter

Member
Beiträge: 328
Registriert: 01.10.2008, 13:46

Beitragvon Login » 23.02.2013, 16:08

Hallo Joerg, Hallo Peter,

ich hätte nachdenken sollen, dann wäre dieser Thread nicht nötig gewesen.

Was mich schlussendlich dazu geführt hat hier zu posten war die Unklarheit, ob vMotion zwischen zwei HA Clustern ohne EVC uneingeschränkt möglich ist.

Euren Posts entnehme ich aber die Tendenz, daraus ein 4 node cluster zu bauen...

Sry noch mal für meine unklare Formulierung.

Gruß,
Conne

Benutzeravatar
Guru
Beiträge: 3138
Registriert: 22.02.2008, 20:01
Wohnort: Hessen

Beitragvon PeterDA » 23.02.2013, 18:08

Hi,
ist ja kein Problem, wir helfen ja gerne. Frage war nur etwas unglücklich gestellt.

Gruß Peter

Member
Beiträge: 328
Registriert: 01.10.2008, 13:46

Beitragvon Login » 24.02.2013, 15:08

noch kurz zur Raidkonfig auf dem neuen shelve:

es stehen 15x SAS600 15k zur Verfügung. Welche Faktoren bestimmen die optimale Raid und Raidlevel Konfig?

Die Kapazität bei einem Raid60 über 14 Platten würde im Zweifel ausreichen, wobei natürlich nichts verschenkt werden soll.

2x Raid6 wäre unsinnig, weil der Performancegewinn durch die Vielzahl von Spindeln (1x Raid6) verloren gehen würde. (?)

Oder lohnt es sich in er Tat, sich die Gedanken über die VM-Aufteilung zu machen, um mehrere kleine Raids, je nach Anspruch der VMs bauen zu können? z.B. ein kleines 4Platten Raid10 + 2 oder 3 Raid6 aus den restlichen Platten. Evtl. für jede LUN ein eigenes Raid.

Das erste Shelve ist auch mit 15 Platten (10x SAS450 + 5x 2TB NLSAS) bestückt. Wobei das EMC OS 4 SAS Platten beansprucht, dazu gibt es noch ein Raid6 aus den restlichen SAS und ein Raid6 aus 4x NL SAS und eine NL SAS als Global HotSpare.

Die vnx hat zwei SP und ist mit jedem SP an einem 8 Gb FC HBA pro Host, direct attached. Da das Ganze active/active ist, können die Raids auf die beiden SPs verteilt werden.

Gruß,
Conne

Member
Beiträge: 47
Registriert: 12.04.2010, 13:40

Beitragvon Virtuozzi » 24.02.2013, 15:21

Die EMC Firmware nutzt gleich 4 SAS-Platten :?: :!:

Grenzt schon fast an bewusste Verteuerung des Gesamtsystems, wenn man das mit anderen Herstellern vergleicht.

Zudem wie gross kann so eine Firmware/OS sein. Ein paar MB bis max. 1GB?

King of the Hill
Beiträge: 13066
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 24.02.2013, 15:26

Virtuozzi hat geschrieben:Die EMC Firmware nutzt gleich 4 SAS-Platten :?: :!:


Frueher waren es 5. Somit schonmal eine Verbesserung.


Grenzt schon fast an bewusste Verteuerung des Gesamtsystems, wenn man das mit anderen Herstellern vergleicht.


Wer weiss wie/sich traut kann dort auch Volumes drauf legen.

Zudem wie gross kann so eine Firmware/OS sein. Ein paar MB bis max. 1GB?
Andere Systeme reservieren sich auf jeder Platte XX GB.

Gruss
Joerg

Member
Beiträge: 328
Registriert: 01.10.2008, 13:46

Beitragvon Login » 24.02.2013, 16:07

Wer weiss wie/sich traut kann dort auch Volumes drauf legen.


Da liegt noch eine 1TB LUN drauf (die als Ablage für ISOs dient und ein paar rumpelige VMs hostet)
...eine kleine Schande ist das eigentlich schon.

Zudem wie gross kann so eine Firmware/OS sein. Ein paar MB bis max. 1GB?


FLARE verbraucht ~400GB, ob es das nutz, keine A.

Gruß,
Conne


Zurück zu „vSphere 5 / ESXi 5 und 5.1“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 2 Gäste