Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

Sinnvollste Verkabelung zu SAN

ESX(i)-taugliche Hardware, HCL .....

Moderatoren: irix, continuum, Dayworker

Experte
Beiträge: 1323
Registriert: 30.03.2009, 17:13

Sinnvollste Verkabelung zu SAN

Beitragvon UrsDerBär » 17.12.2009, 16:40

Salut zusammen,

Bekomme demnächst:
- 2 Server mit 2 On-Board und 6 zusätzlichen NICs (Also max 8 pro Server)
- 1 kleine SAN mit 4 iSCSI Ports (2 pro Controller)
- Je nach dem auch zwei Switches (gemäss o-Ton hier: sinnvoller)

Wie schliesse ich am besten an?
- iSCSI: Je Controller 2x auf jeden Switch
- iSCSI: Je Server 2x auf jeden Switch
- vMotion: Wenn doch grosse Lizenz (pro Server auf jeden Switch 1 od. 2 Leitung?)
- LAN: Je Server 2x Switch

Sollte ich die ESX besser auf lokalem Speicher (RAID 1) oder via Boot from SAN über zusätzliche Nic's bereitstellen?

Grüsse und Dankeschön

Member
Beiträge: 339
Registriert: 12.04.2009, 20:21

Beitragvon JMcClane » 17.12.2009, 17:50

Eigentlich einfache Antwort: so verteilen das egal was ausfällt, die Maschinen noch laufen.
Sprich: bei nem SAN mit 2 Controllern mit je 2 Anschlüssen: jeder Controller mit einem Kabel auf den jeweils anderen Switch. Somit ist sichergestellt das 1 Controller ausfallen kann, und sogar noch ein Switch.
Die Server dann natürlich auch mit je einem HBA zu jeweils einem Switch. Usw....

Vom SAN booten würde ich nicht. Fällt mir jetzt auch grad irgendwie kein Vorteil ein. Zumal das eh nur mit echten iSCSI HBAs geht. Bzw. nicht mal da bin ich mir sicher. Kann auch sein das es nur mit FC geht.

Experte
Beiträge: 1323
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 17.12.2009, 18:31

OK, dankeschön.

Also machts keinen Sinn pro Server auf jeden Switch (für iSCSI) 2 Leitungen zu legen?

King of the Hill
Beiträge: 12187
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 17.12.2009, 18:59

UrsDerBär hat geschrieben:OK, dankeschön.

Also machts keinen Sinn pro Server auf jeden Switch (für iSCSI) 2 Leitungen zu legen?


Natuerlich macht das Sinn, bei entsprechender Konfiguration der VMKernels und binden dieser an den vmhba.

Gruss
Joerg

Experte
Beiträge: 1323
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 17.12.2009, 20:14

Ok, weil dies dachte ich mir eigentlich auch.

Ich frage mal anders, wie verbrate ich den die 8 Nics pro Maschine am sinnvollsten? :lol:
Priorität: 1. Sicherheit 2. Performance

King of the Hill
Beiträge: 12187
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 17.12.2009, 20:38

UrsDerBär hat geschrieben:Ok, weil dies dachte ich mir eigentlich auch.

Ich frage mal anders, wie verbrate ich den die 8 Nics pro Maschine am sinnvollsten? :lol:


Da fragst du ja den richtigen ... ich habe Hosts mit 20 pNICs :).

Aber im ernst.... haengt ja sehr von den vSphere Features ab welche man eingekauft hat und ob man seine Verkabelung und Anbindung an seine Switche voll redundant haben will.

Wenn du genug Ports hast dann benutzt du 4 Stueck (2 an jeden Switch) fuer die Anbindung an die "SAN" Switche. Am besten so das diese *nicht* an einer Quadport oder "nur" an den Onboard haengen sondern moeglichst verteilt *. Somit verbleiben bei einem Ausfall 2x1GbE fuer Storangeanbindung.

Von den 4 verbleibenen nimmst du 2* fuer die SC(s). Ob du eine zweite SC in einem anderes Subnetz** aufmachen kannst haengt davon ab ob ihr mehr Netze habt als nur eins. Andern falls laufen die 2 pNIC als in der LoadBalacing Konfig am vSwitch welche die SC haelt. Bei einem Switchausfall bleiben die ESX also in Kontakt und HA loest nicht gleich aus.

Bleiben noch 2 ueber. Sofern du nicht gezwungen bist eine phys. Netztrennung zu haben wuerde ich die alle beide einem vSwitch in der normalen LoadBalacing Konfig zuordnen.

* Wer das HA Feature aktivieren will muss die SC redundant auslegen da ansonsten eine nervige Warnung erscheint. Das war zu alten ESX 3.5 Zeiten nicht ganz so schlimm da man fuer die Anbindung von IP basiertem Storage eine SC brauchte und man somit oftmals eine zweite aufgemacht hat.

** Ein zweites Subnet kann Sinn machen wenn man die Gefahr einer Fehlkonfiguration im Netz oder auch auf dem ESX minimieren will. Wer mal die IP/Mask und GW Adresse der SC eines ESX aendern muss, der wird das zuschaetzen wissen (Oder man spart nicht an der Remotekarte :).

Gruss
Joerg

Experte
Beiträge: 1323
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 17.12.2009, 23:53

20 Nics, nicht ich glaube nicht, dass ich das wirklich brauche. :lol:

Nic-Verbraten: Nun das geht ja doch ziemlich zackig. :lol:
2 verbleibende: Du meinst, damit die Server doch noch ans LAN kommen? :lol:

vSphere Features: Nur HA nicht. Entweder pille palle Essentials oder gleich FT.

Betreffend Remotekarte: Meinst du iRMC/IPMI? Die Server sind mit iRMC + eigenem LAN-Port ausgestattet. Zugriff allerdings nur auf BIOS/Textebene (was auch immer das heisst, nocht nicht testen können). Sonst Lizenz benötigt.

Zweites Subnet: Grundsätzlich mache ich das, was man mir eben empfiehlt. :D
Alles was nicht Betriebskritisch im Sinne mit folgenden Serverabstürzen oder Performance-Einbussen ist, muss auch nicht redundant sein und Verfügbarkeit via Käbelchen umstecken reicht völlig aus. Alles was einem Möglichen Absturz entgegenwirken kann und zahlbar ist soll gemacht werden. ;)

@irix: Eigentlich würden so auch 2x24 reichen oder? Nur für iSCSI, Management, vMotion und was es sonst noch für ESX braucht. LAN dann eigener Switch. Wäre so auch gleich physisch getrennt.


Zurück zu „Hardware“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast