Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

ESX Hardware für 5 Jahre

ESX(i)-taugliche Hardware, HCL .....

Moderatoren: irix, continuum, Dayworker

Member
Beiträge: 186
Registriert: 19.01.2009, 17:54

Beitragvon Kampfwurst » 21.05.2013, 12:36

daher habe ich auch mit den 7 1TB Platten momentan eine RAID 6 am laufen. So gibts keine Probleme falls 1 Platte ausfällt. Bis jetzt habe ich mit den Consumer Platten glück gehabt. Trotz mehr als 1900Tagen Dauerbetrieb gabs nur einen Ausfall. Und die Festplatte hat über lange Zeit defekte Sektoren angezeigt.

Benutzeravatar
Member
Beiträge: 168
Registriert: 25.11.2004, 21:29
Wohnort: VCP #768

Beitragvon IronEagle » 21.05.2013, 12:41

Die Frage, so im privaten Einsatz, ist halt ob es Sinn macht das zu tun. Ein Backup brauchst du so oder so, und dann stellt sich die Frage ob man die Nachteile von Raid6/Raid4-DP (Performance, Invest, laufende Kosten) wirklich in Kauf nehmen will - oder ob ein Heimserver im Zweifelsfall nicht auch einfach mal ne Downtime vertragen kann.

Von 7 Disks Raid6 auf nen 3 Disk Raid5 ist so oder so ein herber Rueckschritt, auch was Performance angeht.

Member
Beiträge: 186
Registriert: 19.01.2009, 17:54

Beitragvon Kampfwurst » 21.05.2013, 13:39

später kommen noch weitere Platten zum Raid dazu. Alles auf einmal geht einfach vom Budget nicht

King of the Hill
Beiträge: 13000
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 21.05.2013, 14:41

Wieviel Platten hast du den noch in Planung?
Bei deinem Controller ist ohne Expander-Karten bei 8 Platten Feierabend und damit sind brutto momentan 32TB erreichbar. Du wirst damit also platztechnisch nicht umhin kommen und ein zweites, idealerweise baugleiches System für das Backup hinstellen zu müssen. Wenn du jedoch jetzt schon von mehr als 8 Platten ausgehst, würde ich mir den HW-Raidcontroller vielleicht komplett sparen und gleich über den Einsatz mehrerer HBAs und ZFS nachdenken. Das SuperMicro-MB schreit jedenfalls förmlich danach...

Member
Beiträge: 186
Registriert: 19.01.2009, 17:54

Beitragvon Kampfwurst » 21.05.2013, 14:46

Die wichtigsten Dateien (ca 1TB) sind auf einer externen Festplatte gesichert. Der Rest (ca 2TB sind nicht so wichtig. Z. B Backup von PCs....

Auf meine Frage habe ich noch keine Antwort erhalten.

Wenn ich es richtig verstanden habe mache ich eine VM und reiche per Passthrough den Raid-Controller an die VM durch. Durch die VM stelle ich per z.b iSCSI oder NFS den Speicher dem ESXi zur verfügung oder?

Benutzeravatar
Member
Beiträge: 168
Registriert: 25.11.2004, 21:29
Wohnort: VCP #768

Beitragvon IronEagle » 21.05.2013, 15:05

Korrekt. Beachte aber, das die Fileserver-VM auch irgendwo liegen muss, und das kann nichts sein was an dem durchgereichten Controller haengt. Und da ja alles an dieser Fileserver-VM haengt, sollte das auch ein Datastore mit redundanter Hardware drunter sein.

King of the Hill
Beiträge: 13000
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 21.05.2013, 16:01

Wenn du die Erreichbarkeit des Storages beim ESXi-Start nicht sicherstellen kannst, würde ich NFS einsetzen. Mit iSCSI gibt der ESXi zu schnell auf und du mußt das Storage dann erst manuell nach jedem ESXi-Reboot/Start wieder hinzufügen. Bei NFS dagegen probiert der ESXi es selbst mehrfach.

Member
Beiträge: 186
Registriert: 19.01.2009, 17:54

Beitragvon Kampfwurst » 21.05.2013, 17:02

Ich würde gerne die Fileserver-VM später auf eine SSD verschieben. Für den Anfang kommt sie auf eine der alten 1TB Platten.

Experte
Beiträge: 1323
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 22.05.2013, 09:14

Habe das auch so bei nem Kunden als Pilotprojekt installiert. Dual SSD in nem RAID 1 für die Storage VM und einen HBA der VM durchgereicht. Bei den etwas besseren Supermicro kannst das auch mit dem Onboard SAS-Controller tun, ich wollte aber maximale Portabilität im Fehlerfall. Daheim würde ich das auch lassen.

Ich habe allerdings Windows Server 2012 als NFS Appliance und Storage Spaces gearbeitet. NTFS ist mir persönlich lieber als ZFS, da sehr robust und Dedupe ist auch mit dabei.

Mit einem aktuellen Firmware-Update des Controllers und dem VIB Paket von LSI für ESXi kannst den Status der HDD's in ESXi erkennen sowie mit zbsp. einer VM den Controller mit dem LSI Storage Manager direkt überwachen/bearbeiten.

Das USV Pflicht ist für solche Spässe sollte selbstverständlich sein. ;)

Member
Beiträge: 186
Registriert: 19.01.2009, 17:54

Beitragvon Kampfwurst » 22.05.2013, 10:33

ich würde gerne den 3ware 9690SA verwenden und nicht den Onboard Controller.
Eine USV habe ich.

Ich weis nur nicht ob das so ideal ist eine VM nur für ZFS zu verwenden. Und von ZFS habe ich momentan noch keine Ahnung :?

King of the Hill
Beiträge: 13000
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 22.05.2013, 12:59

Wenn du ZFS verwenden willst, brauchst du ja gerade keinen HW-Raidcontroller mehr. Die gesamte Raid-Verwaltung (Raidlevel, Datensicherheit, Rebuild/Überprüfung) übernimmt ZFS gleich mit und kümmert sich falls gewünscht auch um Dedup und/oder Komprimierung.
Bei der die Performance extrem beeinflussenden Deduplizierung solltest du allerdings bestimmte Voraussetzungen hinsichtlich RAM erfüllen. In Abhängigkeit der Daten mußt du bei ZFS pro 1TB Speicherplatz mit ca 5GB RAM rechnen und das wird auch unter Server2k12 nicht weniger sein.

Member
Beiträge: 186
Registriert: 19.01.2009, 17:54

Beitragvon Kampfwurst » 22.05.2013, 13:05

Ok dann gibt's kein ZFS :? und nur den Raid-Controller.

Soviel RAM hab ich nicht. Die 32GB müssen fürs erste reichen

Dann reichen ich den Raid-Controller an die Fileserver VM durch.

Experte
Beiträge: 1323
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 22.05.2013, 13:42

Naja, die Storage Spaces alleine sind leider noch nicht ganz so weit wie ZFS. Dedupe ist kein On-The-Fly Prozess sondern wird regelmässig automatisch oder auf Wunsch angeworfen. Funktionieren tut das goldig und Performance frisst es auch nicht der Rede wert. Mit SSD's ist es auch ratz fatz durch =)

Grösster Vorteil von ZFS bzw. Nachteil von Server 2012 ist das ReadCache. Funzt nur bei kleinen Daten wirklich, leider nutzt es den RAM nur beschränkt. Auch der schicke WriteCache geht nicht. Ist mit SSD's zwar nicht sooo schlimm, RAM für Read wäre aber trotzdem eine Schippe schneller.

Member
Beiträge: 186
Registriert: 19.01.2009, 17:54

Beitragvon Kampfwurst » 22.05.2013, 17:54

ich kann ja nicht bei mehr als 12TB Speicher 100GB Ram einbauen :?
Will nur wie jetzt beim kopieren über das Netzwerk auf ca 90MB/s kommen.

Es ist ja für einen privaten File Server wo Fotos und Videos gespeichert werden.
Habe momentan ca 100000 Fotos. Später sollen noch VHS Kassetten überspielt und am PC geschnitten werden.

King of the Hill
Beiträge: 13000
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 22.05.2013, 18:21

Diese RAM-Menge brauchst du nur, wenn du auf eine brauchbare Geschwindigkeit mit Deduplikation kommen willst. Der Vorteil von Dedup ist halt der geringere Platzverbrauch und damit das auch mit einer vernünftigen Geschwindigkeit vonstatten geht, braucht es halt viel RAM. Wenn es dir aber um Videoschnitt geht, kann dir Dedup meiner Meinung nach keine Vorteile bringen.


Trotzdem würde ich mir ZFS an deiner Stelle und mit dem zu erwartenden Platzbedarf mal genauer zu Gemüte führen. ZFS ist kein Spielzeug und wurde damals von Sun für Solaris 10 entwickelt. ZFS wird inzwischen intern von vielen Filer-/NAS-Anbietern genutzt, ist über diese also auch mit Support zu bekommen. Was aufbauend auf ZFS möglich ist, hat gea unter http://napp-it.org recht umfangreich beschrieben und bietet unter http://napp-it.org/manuals/to-go.html eine To-Go-Lösung an, die inzwischen sogar das Mediastreaming beherrscht und dazu in einem SuperMicro-MB ideale Voraussetzungen vorfindet.

Member
Beiträge: 186
Registriert: 19.01.2009, 17:54

Beitragvon Kampfwurst » 22.05.2013, 19:23

was für ein Betriebsystem würdest du für die Bereitstellung von ZFS verwenden? FreeNAS, napp-it..? Und wieviel RAM sollte man eine solchen Maschine geben?

Member
Beiträge: 43
Registriert: 19.12.2010, 18:26

Beitragvon gea » 22.05.2013, 23:26

meine Meinung.

Wenn es um ZFS Storage für ESXi geht (NFS,SMB.iSCSI,FC) dann spielt die Musik im Solaris Lager
also Oracle Solaris 11 (kommerziell, iSCSI defekt, Fix kommerziell verfügbar) oder Illumos (OI, OmniOS etc).

Insbesondere neuere Entwicklungen wie Verschlüssellung (Oracle) oder Komprimierung (LZ4, Illumos) gibts nur hier,
auch ist Comstar (das Solaris iSCSI Projekt) der Maßstab für andere.

Ich würde OmniOS nehmen und soviel RAM wie möglich (als Lesecache, bringt Performance)

Member
Beiträge: 186
Registriert: 19.01.2009, 17:54

Beitragvon Kampfwurst » 04.06.2013, 14:48

Kurzes Update:

Habe mir nun das Supermicro X9SRL-F mit dem Intel Xeon E5-2620 und dazu 2x Kingston ValueRAM Hynix DIMM 16GB ECC und 3X 3TB WD Red bestellt. :grin:

Mit den 3X 3TB Platten werde ich ein Raid 5 auf dem 3ware 9690SA aufbauen und mit Raw Device Mapping (RDM) an eine VM durchreichen. ( das wird der Speicher für den Fileserver)

2 alte 1TB platten werden zu einem Raid 1 geschalten. Da kommen die VMs drauf. Wenn das zu langsam sein sollten kommt später noch eine SSD dazu.


Zurück zu „Hardware“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast