Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

Internes RAID o. NAS (iSCSI)? Oder gleich ein neues System?

ESX(i)-taugliche Hardware, HCL .....

Moderatoren: irix, continuum, Dayworker

Member
Beiträge: 106
Registriert: 09.09.2009, 13:44

Internes RAID o. NAS (iSCSI)? Oder gleich ein neues System?

Beitragvon osterhase » 04.07.2010, 10:58

Hallo zusammen,

nach dem Ärger, verursacht durch eine defekte Platte, in den letzten Tagen, suche ich nach einer sichereren Lösung.
Ich nutze den ESXi Privat als Testumgebung bzw. mit VMs als Mailserver usw., Hardware ist "noch" ein Optiplex 755 mit Intel Core 2 Duo E6550 2.33 GHz und 8GB RAM.

Positiv am Optiplex ist die Lautstärke (Gerät steht im Wohnraum) sowie der recht überschaubare Energieverbrauch, von der Leistung her gerade noch so ausreichend für meine Zwecke (aber eigentlich schon nah am Limit). Zur Zeit liegen die VMs einfach verteilt auf 3 Festplatten. (Mehr Platten gehen in das System auch eh nicht rein).

Ich denke, in dem Leistungsbereich wo ich mich mit der Hardware befinde, tut es ein ordentliches RAID1 mit zwei großen Platten oder?
Leider hat der Optiplex nur PCI-Steckplätze bzw. PCIe x1, sodass ich hier Schwierigkeiten habe einen ordentlichen SATA-Controller zu finden. Hat jemand Tipps? (Gerne auch gebraucht / ebay).

Daher habe ich mich nach NAS-Systemen mit iSCSI-Unterstützung umgesehen.
Allerdings bin ich hier unsicher bezgl. der Performance... ist es spürbar langsamer als ein internes RAID? Synology bspw. gibt für das DS210+ 100 bzw. 92 MB/s als Schreib/Lesegeschwindigkeit über iSCSI an. Klar, das sind Laborbedingungen... wie verhält sich der Vergleich zum internen RAID in der Praxis?

Auch wenn es zur Zeit noch nicht direkt geplant ist - falls irgendwann mal ein zweiter ESXi Server kommen sollte, wäre ein externes Storage-System natürlich im Vorteil.

Dritte Alternative: Wenn ihr der Meinung seid, dass beide Lösungen nicht wirklich sinnvoll sind... ggf. käme auch ein "neues" System in Betracht (dann mit der Möglichkeit einen RAID Controller intern zu nutzen).

Bin für eure Einschätzungen und Ideen, wenn hier auch ausnahmsweise im kleineren Rahmen, sehr dankbar!!

King of the Hill
Beiträge: 12998
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 04.07.2010, 13:01

Raid1 ist nur eine Datenspiegelung und daher mit keinem Performancevorteil verbunden. Du verlierst zudem 50% an Plattenplatz, da ist ein Raid5 nicht nur wesentlich performanter sondern auch sicherer und du verlierst auch nur 33% der Plattenkapazität.
Meine Dell-Erfahrung sagt mir, daß bei dir sicher auch die normalen Core2Quads, keine s-Versionen, mit FSB1333 laufen werden. Das mehr von 30W Verlustleistung verkraftete mein E520 problemlos und das Netzteil hat erst vor kurzem nach über 3 Jahren 24/7-Betrieb aufgegeben.

Die Anmerkung ganz unten auf der Synology-Seite hast du aber schon gelesen:
Besondere Anmerkung:
Die Leistungszahlen wurden mit einem sehr leistungsstarken Client-Computer mit extrem optimierten Netzwerkeinstellungen im Synology Labor erreicht und könnten je nach Umgebung abweichen. Ein regulärer Office Desktop oder ein reguläres Notebook erreichen möglicherweise nicht diese hohen Leistungszahlen.
Da sind die ermittelten Werte auch kein Wunder, zumal ein Raid0 mit 2x 300er VelociRaptor-Platten auch nicht gerade die Regel darstellt. Die Werte von 100 bzw 92 MB/s als Schreib-/Leseleistung über iSCSI sollten auch mit Vorsicht betrachtet werden, man legt nicht jeden Tag ein VM an oder kopiert ein 5GB-große Datei umher.

Member
Beiträge: 106
Registriert: 09.09.2009, 13:44

Beitragvon osterhase » 04.07.2010, 13:18

Hallo und Danke für deine Antwort!

Dayworker hat geschrieben:Raid1 ist nur eine Datenspiegelung und daher mit keinem Performancevorteil verbunden. Du verlierst zudem 50% an Plattenplatz, da ist ein Raid5 nicht nur wesentlich performanter sondern auch sicherer und du verlierst auch nur 33% der Plattenkapazität.


Ja, das ist wohl richtig. Ich hab nur in der "preisgünstigen" Klasse schon sehr schlechte Erfahrungen mit RAID(5)-Controllern gemacht... hier hat RAID1 einfach den Vorteil, dass man auch ohne RAID Controller notfalls an die Daten rankommt.

Welchen RAID5-fähigen Controller würdest Du denn empfehlen?

Dayworker hat geschrieben:Meine Dell-Erfahrung sagt mir, daß bei dir sicher auch die normalen Core2Quads, keine s-Versionen, mit FSB1333 laufen werden. Das mehr von 30W Verlustleistung verkraftete mein E520 problemlos und das Netzteil hat erst vor kurzem nach über 3 Jahren 24/7-Betrieb aufgegeben.


Okay, CPU Aufrüstung wäre sicher kein Problem. Schade ist nur, dass das System nur max. 8 GB RAM verkraftet... im Moment betreibe ich darauf 2x DC, 1x Exchange, 1x Sharepoint, 2x WinXP, 2x Linux... da wirds dann schon langsam eng. Aber da max. 2 Leute gleichzeitig darauf zugreifen, sind die VMs die meiste Zeit im Idle-Mode unterwegs...

Das System hat auch noch bis Mitte nächsten Jahre vor Ort Service von Dell... ist ja auch nicht zu verachten-

Dayworker hat geschrieben:Die Anmerkung ganz unten auf der Synology-Seite hast du aber schon gelesen:
Besondere Anmerkung:
Die Leistungszahlen wurden mit einem sehr leistungsstarken Client-Computer mit extrem optimierten Netzwerkeinstellungen im Synology Labor erreicht und könnten je nach Umgebung abweichen. Ein regulärer Office Desktop oder ein reguläres Notebook erreichen möglicherweise nicht diese hohen Leistungszahlen.
Da sind die ermittelten Werte auch kein Wunder, zumal ein Raid0 mit 2x 300er VelociRaptor-Platten auch nicht gerade die Regel darstellt. Die Werte von 100 bzw 92 MB/s als Schreib-/Leseleistung über iSCSI sollten auch mit Vorsicht betrachtet werden, man legt nicht jeden Tag ein VM an oder kopiert ein 5GB-große Datei umher.


Klar, dessen bin ich mir bewusst. Der letzte Satz von Dir beschreibt meine Situation insofern ganz gut, als dass es sich hier ja wirklich nur um privates Test-Vergnügen handelt und nie um performance kritische Anwendungen. Soll heißen, wenn das Aufsetzen einer VM mal ne Viertelstunde länger dauert, ist das auch kein Weltuntergang.
Hat so ein iSCSI-NAS denn wesentliche Nachteile gegenüber der internen RAID-Lösung?

(Ein Vorteil wäre bspw. auch dass die Platten im NAS ordentlich gekühlt werden... das Optiplex-Gehäuse ist einfach nicht für mehr als 1 Platte und erst recht nicht im Dauerbetrieb ausgelegt... gerade an so heißen Tagen wie im Moment geht es nur mit offenem Gehäuse und einem kleinen 80er Lüfter der die HDDs anpustet.)

King of the Hill
Beiträge: 12187
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 04.07.2010, 13:24

Also bislang hatten die VMs jede eine pDISK fuer sich alleine und nun planst du eine pDISK fuer alle und fragst ob das langsamer ist? Ja das ist es natuerlich.... obs fuer dich dann tragbar ist kann dir vorher aber keiner hier sagen.

Ein DAS ist immer fixer als ein SAN, sofern da nicht mehr Hardware reinfliesst und auch ein darauf spezialisiertes Protokoll (FC) zum Einsatz kommt.

Ich habe hier das IOmega 200d verkauft und vorher auch getestet. Funktioniert gut mit ESX und war auch fix eingerichtet. Als es hier auf dem Schreibtisch stand hab ich mich an Geräuschen nicht gestoert und kann mich nicht daran erinnern das es welche gemacht hatte nachdem die iSCSI Volumues initialisiert waren. Im IOmeter kamen IIRC 45MB/s heraus.

Dem welchen ich es hier aus dem Forum verkauft habe setzt es aber primaer als Ablage fuer Replikas ein.

Gruss
Joerg

Member
Beiträge: 106
Registriert: 09.09.2009, 13:44

Beitragvon osterhase » 04.07.2010, 13:44

irix hat geschrieben:Also bislang hatten die VMs jede eine pDISK fuer sich alleine und nun planst du eine pDISK fuer alle und fragst ob das langsamer ist? Ja das ist es natuerlich.... obs fuer dich dann tragbar ist kann dir vorher aber keiner hier sagen.


Bisher waren es ca. 3 VMs pro Platte (5400rpms, also auch hier nicht auf höchstleistung getrimmt). Zukünftig sollen alle 8 VMs auf einem gemeinsamen RAID1/5 mit 2-3 Platten liegen.

irix hat geschrieben:Ein DAS ist immer fixer als ein SAN, sofern da nicht mehr Hardware reinfliesst und auch ein darauf spezialisiertes Protokoll (FC) zum Einsatz kommt.


Soweit klar... Da DAS hier aufgrund der unglücklichen Schnittstellen (nur PCI) etwas schwierig wird, stellt sich für mich eben die Frage ob ein NAS bzw. Umstieg auf ein komplett neues System sinnvoll ist. Und da wäre eine grobe Einschätzung bezgl. der Performanceeinbußen sehr interessant...

irix hat geschrieben:
Ich habe hier das IOmega 200d verkauft und vorher auch getestet. Funktioniert gut mit ESX und war auch fix eingerichtet. Als es hier auf dem Schreibtisch stand hab ich mich an Geräuschen nicht gestoert und kann mich nicht daran erinnern das es welche gemacht hatte nachdem die iSCSI Volumues initialisiert waren. Im IOmeter kamen IIRC 45MB/s heraus.


Danke, das ist eine hilfreiche Größenordnung. Dann kann man ja davon ausgehen, dass das Synology-Gerät (tendenziell eher Consumer-Hardware als das hier angesprochene IOmega) eher noch drunter liegt... Dann wird es aber vermutlich wirklich langsam eng mit der Performance...

Member
Beiträge: 106
Registriert: 09.09.2009, 13:44

Beitragvon osterhase » 04.07.2010, 15:35

Mir ist gerade aufgefallen, dass mein kleines Synology-NAS DS209 (genutzt als Dateiablage) auch bereits iSCSI kann... kurze Geschwindigkeitsmessung mit HD Tune:

Code: Alles auswählen

Transfer Rate Minimum : 16.4 MB/sec
Transfer Rate Maximum : 31.8 MB/sec
Transfer Rate Average : 28.5 MB/sec
Access Time           : 0.7 ms
Burst Rate            : 27.8 MB/sec
CPU Usage             : -1.0%


Mit einem größeren ISO-Image getestet komme ich auf 31 MB/s schreiben und 47MB/s lesen, in dem NAS werkeln zwei 5400er Platten im RAID1.

Aber wenn ich mir die Leistungs-Diagramme im vSphere Client ansehe, dann gibt es dort nur selten mal Peeks die an der 10Mbit/s Marke kratzen...
Bei Bootvorgängen oder Datensicherungen sind es dann mal kurzzeitig 50Mbit/s...

(Stimmt die hier angezeigte Einheit mit Mbit/s bzw Kbit/s wirklich? Das wäre ja quasi nichts und problemlos mit jedem NAS zu realisieren?!)

King of the Hill
Beiträge: 12998
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 04.07.2010, 15:49

Raid1 ist nur selten gleich Raid1. Nach meinen Erfahrungen mit Intel-Chipsätzen trifft dieses "gleich" nur dort zu und die Daten lassen sich recht problemlos zurückgewinnen. Allerdings muß das auf einem richtigen Raid-Controller noch lange nicht zutreffen. Wie das Raid intern aufgebaut ist, interessiert den ESX(i) eigentlich nicht. Er bekommt maximal ein Volume mit 2TB-minus-512Byte vorgesetzt und arbeitet dann damit.

Ich würde an deiner Stelle eine vorhandene PCIe-Graka rausschmeißen, zur Anzeige der ESX(i)-Shell im Textmode oder des 4Farben Standbildes würde prinzipiell schon eine uralte ISA-Karte ausreichen und eine einfache PCI-Karte reicht daher völlig aus. Dann hast du den PCIe_x16-Slot frei und könntest dort einen richtigen Raid-Controller einbauen.

[add]
Die Angaben deines Tests solltest du schon ins richtige Verhältnis setzen. Dort wird von Megabyte und nicht Megabit ausgegangen. Deine 50MBit sind also nur 6.25Megabyte/s. ;)

Member
Beiträge: 106
Registriert: 09.09.2009, 13:44

Beitragvon osterhase » 04.07.2010, 15:58

Dayworker hat geschrieben:Raid1 ist nur selten gleich Raid1. Nach meinen Erfahrungen mit Intel-Chipsätzen trifft dieses "gleich" nur dort zu und die Daten lassen sich recht problemlos zurückgewinnen. Allerdings muß das auf einem richtigen Raid-Controller noch lange nicht zutreffen. Wie das Raid intern aufgebaut ist, interessiert den ESX(i) eigentlich nicht. Er bekommt maximal ein Volume mit 2TB-minus-512Byte vorgesetzt und arbeitet dann damit.

Ich würde an deiner Stelle eine vorhandene PCIe-Graka rausschmeißen, zur Anzeige der ESX(i)-Shell im Textmode oder des 4Farben Standbildes würde prinzipiell schon eine uralte ISA-Karte ausreichen und eine einfache PCI-Karte reicht daher völlig aus. Dann hast du den PCIe_x16-Slot frei und könntest dort einen richtigen Raid-Controller einbauen.

[add]
Die Angaben deines Tests solltest du schon ins richtige Verhältnis setzen. Dort wird von Megabyte und nicht Megabit ausgegangen. Deine 50MBit sind also nur 6.25Megabyte/s. ;)


Klar, die Grafikkarte im PCIe-Slot brauche ich nicht (hat ja auch noch VGA onboard...)
Kann ich in dem PCIe x16 Slot jede beliebige x8-Karte betreiben?

Gibt es hier "Geheimtipps" unter den RAID5-Controllern, welche man besonders im Hinblick auf das begrenzte Budget und die gemäßigten Anforderungen in Betracht ziehen sollte? Und welche, die man nicht nehmen sollte?

(Abgesehen von den verschiedenen Whitelists...)

Die Angaben deines Tests solltest du schon ins richtige Verhältnis setzen. Dort wird von Megabyte und nicht Megabit ausgegangen. Deine 50MBit sind also nur 6.25Megabyte/s. Wink


Ja richtig, das hat mich ja so verwundert, warum der ESX selbst bei großen Kopier-Aktionen nur so wenig Plattenperformance in Anspruch nimmt... Dabei hatte ich bisher immer die Vermutung, dass das bei meinem System der Flaschenhals sei!
Wahrscheinlich lohnt sich dann aus Performancesicht das bereits angesprochene Aufrüsten der CPU doch, immerhin ist diese zur Zeit im Schnitt zu 20-30 % ausgelastet (wenn "nichts" in den VMs passiert)... Bei Backups o.Ä. auch mal gerne an die 70/80%...

King of the Hill
Beiträge: 12998
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 04.07.2010, 16:21

Einen kleinen Haken hätte die CPU-Aufrüstung auf dem ESX(i) laut einem Posting von Jörg (irix) im Thread nach Hostaufrüstung extrem langsam jedoch. Aus mir unbekannten Gründen ist der ESX(i) etwas unwillig die weiteren Kerne performant zu nutzen und entfaltet erst nach einer Re-Inst sein volles Potential.

Der PEG-Slot sollte jeder PCIe-Karte ein Zuhause geben können, solange sie 75W nicht überschreitet und ansonsten brauchst du wie bei fast allen Performance-Graka's zusätzliche Stromanschlüsse.

Experte
Beiträge: 1188
Registriert: 08.11.2005, 13:08
Wohnort: bei Berlin

Beitragvon e-e-e » 04.07.2010, 16:28

Hallo,

PCIe ist auf- und abwärtskompatibel. Ich habe schon einmal eines PCIe8-Slot hinten vorsichtig aufgefräst und eine PCIe16-Karte reingesteckt. Kürzere Karte in längeren Slot klappt auch.

Member
Beiträge: 106
Registriert: 09.09.2009, 13:44

Beitragvon osterhase » 04.07.2010, 16:34

Dayworker hat geschrieben:Einen kleinen Haken hätte die CPU-Aufrüstung auf dem ESX(i) laut einem Posting von Jörg (irix) im Thread nach Hostaufrüstung extrem langsam jedoch. Aus mir unbekannten Gründen ist der ESX(i) etwas unwillig die weiteren Kerne performant zu nutzen und entfaltet erst nach einer Re-Inst sein volles Potential.

Der PEG-Slot sollte jeder PCIe-Karte ein Zuhause geben können, solange sie 75W nicht überschreitet und ansonsten brauchst du wie bei fast allen Performance-Graka's zusätzliche Stromanschlüsse.


Ja, den Thread hatte ich schon gesehen... aber an ner kurzen Neuinstallation soll es nicht scheitern. Danach können alle 4 Kerne voll genutzt werden, oder?

Werde mich dann mal bei den RAID-Controllern umsehen und schauen, wie ich drei Platten halbwegs vernünftig gekühlt in dem Gehäuse unterbringe.
Wahrscheinlich ist das erstmal die sinnvollste Lösung. Wenn es irgendwann mal ein leistungsfähigerer Host werden soll, kann der Controller samt Platten ja mitwandern. Zwei ESX sind zum Herumprobieren zuhause ja dann doch etwas übertrieben ;-)

Danke für eure Beratung. Sobald ich mich bezgl. der Controller informiert habe, melde ich mich dann noch mal. Wenn ihr da Favoriten bzw. gute Erfahrungen mit bestimmten Marken/Modellen gemacht habt, bin ich für Hinweise natürlich dankbar.

PCIe ist auf- und abwärtskompatibel. Ich habe schon einmal eines PCIe8-Slot hinten vorsichtig aufgefräst und eine PCIe16-Karte reingesteckt. Kürzere Karte in längeren Slot klappt auch.


Danke für den Hinweis!

King of the Hill
Beiträge: 12998
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 04.07.2010, 18:56

Kürzere Karte in langem Slot klappt immer, da die Anzahl der nutzbaren Lanes bei jedem Restart neu ausgehandelt wird und die Synchronisation immer bei 1er Lane also PCIe-x1 anfängt. Lange Karte in kurzem Slot klappt nur, wenn dieser hinten offen ist oder man wie Ronny handwerkliches Geschick mitbringt und auf Hersteller-Support/Garantie verzichten kann. Die Synchronisation klappt aus demselben Grund.

Allerdings hatten manche Hersteller unerwartete Hindernisse eingebaut, wenn der PEG-Slot für ein anderes Gerät genutzt werden soll. Das stellt dann jedoch nur eine Beschränkung des Boardherstellers dar und keinesfalls eine Beschränkung der PCIe-Schnittstelle an sich. Bei allen bisher gesehenen Mainboards mit PCIe-Version 2.0 ist mir jedoch keine derartige Einschränkung mehr aufgefallen.


PS: Das Auffräsen eines kurzen PCIe-Slots sollte man sich nicht zu leicht vorstellen. Das Slot-Material ist extrem hart und unvermutet spröde, die Kontakte verbiegen sich sehr leicht oder brechen gleich ab. In diesem Fall hätte man dann fast einen Totalschaden oder hat "nur" noch weniger Lanes zur Verfügung, so einen Slot aus einer 6- oder 8-lagigen Hauptplatine löten nicht mal Profis mit Mikroskop und SMD-Lötkolben so einfach aus. :shock: Mit viel Gefühl und handwerklicher Begabung leistet ein Dremel etc bei den Fräsarbeiten jedoch sehr gute Dienste. :D

Experte
Beiträge: 1188
Registriert: 08.11.2005, 13:08
Wohnort: bei Berlin

Beitragvon e-e-e » 04.07.2010, 19:53

Genau, Dremel ist das richtige Stichwort. Bei mir hat's ohne zusätzlichen Schaden geklappt, natürlich mit der Einschränkung der Leistung bei nur noch 8 Lanes.

Member
Beiträge: 106
Registriert: 09.09.2009, 13:44

Beitragvon osterhase » 25.07.2010, 18:24

Hallo,

ich würde gerne das von Dayworker erwähnte CPU-Upgrade noch mal ansprechen:

Dayworker hat geschrieben:Meine Dell-Erfahrung sagt mir, daß bei dir sicher auch die normalen Core2Quads, keine s-Versionen, mit FSB1333 laufen werden. Das mehr von 30W Verlustleistung verkraftete mein E520 problemlos und das Netzteil hat erst vor kurzem nach über 3 Jahren 24/7-Betrieb aufgegeben.


Den TechSpecs (Seite 10) ist eine Liste der kompatiblen CPUs zu entnehmen... Allerdings hätte ich noch einen Q9550 in einem anderen System "übrig", sodass ich die beiden Tauschen könnte... Sind wirklich nur die gelisteten CPUs kompatibel oder wie stehen die Chancen?

(CPU liegt leider regional weiter weg, daher ist "mal eben ausprobieren" nicht so einfach möglich...)

King of the Hill
Beiträge: 12998
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 25.07.2010, 21:54

Meine Erfahrung beim E520 ist, daß du innerhalb einer CPU-Reihe kompatibel bist. Schau doch einfach mal nach, ob es deinen Dell nicht weltweit auch mit einer Quad-CPU und FSB1333 als Sonderausstattung gab/gibt.
Laut dem Handbuch werden neben den Kensington-Quads mit FSB1066 auch ein Core2Duo E6850 (FSB1333) als kompatibel genannt, also sollten auch Quads mit FSB1333 laufen. Von daher bleiben dir nur vorher die letzte verfügbare Bios-Version einspielen und den CPU-Wechsel wagen oder du suchst zuerst in der Dell Community danach. Dann sollte dir die Antwort von Dell-Chris M weitergelfen. ;)

Member
Beiträge: 106
Registriert: 09.09.2009, 13:44

Beitragvon osterhase » 25.07.2010, 21:58

Das stimmt mich doch optimistisch, werde es in ein paar Wochen mal ausprobieren! Danke :)

Member
Beiträge: 106
Registriert: 09.09.2009, 13:44

Beitragvon osterhase » 10.08.2010, 13:11

Kann mir jemand einen RAID Controller empfehlen?

3-4 Sata-Platten, RAID-Level 5 und 10 sollten supported werden.
Gut wäre eine Benachrichtungsfunktion per Mail (o.Ä.), falls eine Platte defekt ist.
Das das ganze für privaten Einsatz bestimmt ist, spielt der Preis auch eine größere Rolle...

Was ist z.B. vom LSI 3ware Escalade 9650SE-4LPML zu halten?

Habt ihr "Geheimtipps" oder gute/schlechte Erfahrungen mit bestimmten Produkten aus der preisgünstigen Klasse gemacht? Teurer als der o.g. LSI (ca. 250 Euro Straßenpreis) sollte es nicht werden...

(Treiber für den ESX werden von LSI zur Verfügung gestellt, auf der vmware-Kompatibilitätsliste finde ich ihn jedoch nicht... Ist das ein Problem?)

King of the Hill
Beiträge: 12998
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 10.08.2010, 18:27

Treiber für den ESX vielleicht ja, wie siehts beim ESXi aus?
Der ESXi hat leider nur die COS, also eine extrem eingeschränkte Console.

Member
Beiträge: 106
Registriert: 09.09.2009, 13:44

Beitragvon osterhase » 10.08.2010, 18:31

Danke für den Hinweis, so genau hatte ich tatsächlich nicht drauf geschaut. Aber die angebotenen Treiber gelten auch für ESXi.

Alternativvorschläge?

Member
Beiträge: 106
Registriert: 09.09.2009, 13:44

Beitragvon osterhase » 14.08.2010, 10:17

Kann ich die Angabe zu dem Adaptec 3405 so verstehen, dass er out-of-the-box mit allen Features voll vom ESXi 4.1 unterstützt wird?

Von den Controllern in der 300 Euro-Preisklasse war das der einzige, der auch auf der Kompatibilitätsliste von vmware steht, was auf mich ehrlich gesagt einen vertrauenserweckenderen Eindruck macht, als Treiber mit Anleitungen zur Installation der Hersteller (Bsp. LSI)

Gibt es negative Aspekte bezgl. Adaptec, die man berücksichtigen sollte?
Eine wichtige Frage: Wie bekomme ich mit, ob eine Platte defekt ist? In den vmware Communities habe ich Threads gefunden, laut denen ein "Monitoring" beim ESXi nur für LSI Karten unterstützt wird?

King of the Hill
Beiträge: 12998
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 14.08.2010, 12:47

Wie heißt es so schön im KB-Eintrag VMware ESX and ESXi 4.0 Comparison: "VMware ESXi is designed to make the server a computing appliance. Accordingly, VMware ESXi behaves more like firmware than traditional software. To provide hardware-like security and reliability, VMware ESXi does not support a privileged access environment like the Service Console for management of VMware ESXi. To enable interaction with agents, VMware has provisioned CIM Providers through which monitoring and management tasks – traditionally done through Service Console agents – can be performed. VMware has provided remote scripting environments such as vCLI and PowerCLI to allow the remote execution of scripts."
Mit anderen Worten muß der HW-Hersteller die CIM-Provider für seine HW veröffentlichen, damit du die Gesundheit deines Servers überwachen kannst. Bei den Hersteller-spezifischen ESXi-Versionen von Dell, HP, IBM etc wird das hoffentlich für deren HW schon enthalten sein. Das hilft dir bei deinem Selbstbau natürlich nicht weiter, andererseits bräuchten gelistete Hersteller auf der VMware-HCL ihre CIM-Provider nur öffentlich für den ESXi zum Download anbieten. Falls sich dort keine auffinden lassen, bleibt wohl nur die Möglichkeit den Hersteller-Support damit zu beauftragen...


[add]
Ich würd sagen "jein", keine Ahnung ob auch die CIM Provider beiliegen. Laufen tut der Controller jedenfalls immer auch ohne diese, man wird halt nur nicht über den Gesundheitszustand ins Bild gesetzt und daher von einem HW-Ausfall möglicherweise etwas überrascht.

[add2]
Es scheint so, als ob der Adaptec-3405 ein Problem hat. Lies dir mal Unable to create second array on Adaptec 3405? durch. So wie ich das verstehe, kann man auf diesem nicht mehrere Volumes erstellen. Das Posting blieb leider unbeantwortet.

Member
Beiträge: 106
Registriert: 09.09.2009, 13:44

Beitragvon osterhase » 14.08.2010, 13:16

Hallo und Danke mal wieder für deine Antwort.



Über diesen Link bin ich auch schon gestolpert (Alternativ ist auch der Adaptec 5405 interessant - aber gleiche Situation)....

Supported wird demnach immer ESXi 3.5, von 4.x ist keine Rede... Bleibt die Frage, ob Artikel nicht aktualisiert oder tatsächlich keine Unterstützung? Fällt mir ja schwer zu glauben, dass Adaptec kein Interesse daran hat, seine Controller im Zusammenspiel mit ESXi einsatzfähig zu machen...

Dayworker hat geschrieben:[add2]
Es scheint so, als ob der Adaptec-3405 ein Problem hat. Lies dir mal Unable to create second array on Adaptec 3405? durch.


Danke für den Hinweis, Preislich gibt es defakto keinen Unterschied zwischen dem 3405 und 5405, sodass letzerer interessanter wäre...


Diese beiden Links stimmen mich aber positiv, dass LSI eine CLI Unterstützung für den ESXi 4.x anbietet (?):
https://www.3ware.com/3warekb/article.aspx?id=15548
http://kb.lsi.com/KnowledgebaseArticle15753.aspx#vmware

Leider findet man in den ganzen Erfahrungsberichten von Usern selten Hinweise darauf, ob ein Health Status übermittelt wird... Hilft wohl nur bestellen und ausprobieren.

http://blogs.vmware.com/esxi/2010/07/ha ... art-5.html
Starting in version 3.5, VMware developed a rudimentary CIM provider for LSI MegaRAID and IR cards that implements a small portion of the SNIA SMI-S Host Hardware RAID Controller Profile. The intention of this implementation was simply to report the health of the RAID volumes on the system and very basic configuration information, so users can take preventative action should a drive or component fail, before actual data loss occurs.


http://arstechnica.com/civis/viewtopic. ... 7#p1992691
What I see as problematic is monitoring of array on the server. As I searched some LSI and perhaps some HP controllers support support monitoring of drives through CIM. I checked our work's ESXi's and none of them show any info on arrays in VI clients.


Fazit: Oft wenig konkrete Angaben.... Ich denke, mit dem LSI habe ich bessere Karten? (Performance steht ja nicht im Vordergrund...)

Einschränkung beim LSI ist, dass man es nur als secondary Storage nutzen kann - damit habe ich aber kein Problem, kann den ESXi Server ja auch auf einen USB Stick installieren (hatte ich ohnehin vor).

King of the Hill
Beiträge: 12998
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 14.08.2010, 13:40

osterhase hat geschrieben:Hallo und Danke mal wieder für deine Antwort.



Über diesen Link bin ich auch schon gestolpert (Alternativ ist auch der Adaptec 5405 interessant - aber gleiche Situation)....

Supported wird demnach immer ESXi 3.5, von 4.x ist keine Rede... Bleibt die Frage, ob Artikel nicht aktualisiert oder tatsächlich keine Unterstützung? Fällt mir ja schwer zu glauben, dass Adaptec kein Interesse daran hat, seine Controller im Zusammenspiel mit ESXi einsatzfähig zu machen...

In der OS-Liste wird der 4er doch genannt, ganz unten steht:
Drivers listed below are included with the operating system:
Microsoft Windows 7
Microsoft Windows Server 2008 R2
VMware vSphere 4.0 :D
VMware ESXi Server 3.5
VMware ESX Server 3.5
VMware ESX Server 3.0.2
VMware ESX Server 3.0.1
VMware ESX Server 3.0

Member
Beiträge: 106
Registriert: 09.09.2009, 13:44

Beitragvon osterhase » 14.08.2010, 16:44

Wer lesen kann.... 8)

Hättest Du bei Adaptec 5405 oder beim LSI 9560SE das bessere Bauchgefühl?
(bezgl. Performance/Stabilität und der Hoffnung auf ein Monitoring)

King of the Hill
Beiträge: 12998
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 14.08.2010, 23:05

Gute Frage.
Ich würde eher zum LSI tendieren, der läßt sich ohne Verrenkungen zwar nur als Zweitkontroller einsetzen, aber laut Hardware Health Monitoring via CIM, part 5 gibt es anscheinend einen rudimentären CIM Provider direkt von VMware. Ohne eine Gesundheitsmeldung der HW wären mir die darauf lagernden Daten in jedem Fall zu wertvoll. Selbst wenn es nur Testdaten sind, wäre mir der darin investierte Zeitaufwand immer noch zu kostbar. Außerdem möchte ich einmal genutzte Features nur selten wiederhergeben, selbst mein Chipsatz-Fake-Raid bietet da einen entsprechenden Agenten. Also erwarte ich das erst recht von einer in meinen Augen teuer bezahlten Zusatzkarte. Falls die Controller-Hersteller da nicht aufpassen und entsprechende Agenten programmieren, werden sie über lang oder kurz wohl vom Markt verschwinden. Die Berechnung von Redundanzinformationen oder Paritäten schütteln aktuelle CPUs fast nebenbei aus dem Ärmel (HW-Kontroller sind daher auch nicht unbedingt mehr schneller), die zugehörigen Chipsatzkontroller bieten neben sinnlosem Raid0 immer auch Raid1, manchmal auch Raid5 oder sogar Raid10 an und für weiterführenden ESX(i)-Features braucht es eh ein SAN.

Von Adaptec bin ich aufgrund der Treibersituation nur wenig begeistert. Der Thread ESXi 4 und Adaptec Controller Änderungen? ist da nur ein Beispiel. Den problemlosen Wechsel vom 32bittigen ESX3.5 auf den 64bittigen vSphere4 kann man somit eigentlich vergessen. Trotz der Preisklasse werden deren Kontroller bei den Treibern nur Stiefmütterlich behandelt. Adaptec scheut anscheinend den Aufwand für ältere Kontroller neue Treiber zu veröffentlichen und das würde ich in meine Kontroller-Überlegungen schon mit einbeziehen. Was nützt mir das in den Kaufversionen immer auch erworbene Upgrade meines ESX(i) auf neue Release-Versionen, wenn die HW wie im verlinkten Thread nachher nicht mehr unterstützt wird...


Zurück zu „Hardware“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast