Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

Fragen zu nexenta NAS

Moderatoren: irix, Dayworker

Guru
Beiträge: 3081
Registriert: 27.12.2004, 22:17

Fragen zu nexenta NAS

Beitragvon rprengel » 12.03.2014, 07:35

Hallo,

ich habe mir testweise die Opensource-Variante
http://www.nexenta.com/corp/nexentastor-download
installiert.
Sieht soweit ja ganz gut aus und ist bis 18 TB frei nutzbar.
Meine Frage:
Hat jemand damit schon mal gearbeitet?
Konkret würde mich auch die Option deduplizieren interessieren wobei Performance in meiner privaten Umgebung egal wäre. Ich würde nur gerne mehrere Versionen von Mediendateinen sichern ohne direkt xfach den Platz zu "verbrennen".

Gruss

King of the Hill
Beiträge: 13561
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 12.03.2014, 19:31

gea hat geschrieben:Das Problem bei ZFS Dedup ist, dass es sich um Echtzeit-Deduplizierung handelt. Die Deduptabellen müssen im RAM gehalten werden, sonst kann schon ein großes Snap löschen Tage dauern wenn das von der Platte gelesen werden muss. Im ungünstigsten Falls kann diese Tabelle bis zu 5 GB pro TB Daten umfassen. Diesen RAM muss man dann zu dem RAM addieren, den das OS braucht (ca 1-2GB) und den RAM den man wegen der Performance als LeseCache möchte.
Bei deinen möglichen 18TB wärest du dann bereits bei 90GB RAM-Bedarf angekommen.

Wie es bei Server2k12 und dessen Desup aussieht, kann ich dir nicht sagen. Soweit mir aber bekannt ist, dedupliziert dieses nicht Live-und-in-Farbe sondern nur wenn es die Systembelastung zuläßt. Von daher könnte es also weniger speicherintensiv sein.

Member
Beiträge: 360
Registriert: 13.07.2011, 15:33

Beitragvon MarcelMertens » 12.03.2014, 22:29

ZFS deduplication ist inline und braucht richtig cpu und ram power.
Nachgelagerte wie zB w2k12 ist da deutlich genügsammer!

Guru
Beiträge: 3081
Registriert: 27.12.2004, 22:17

Beitragvon rprengel » 13.03.2014, 17:49

MarcelMertens hat geschrieben:ZFS deduplication ist inline und braucht richtig cpu und ram power.
Nachgelagerte wie zB w2k12 ist da deutlich genügsammer!


Yeap,

ich habe mir gerade das Teil mal unter Win2012 angesehen. Soweit ganz nett aber das Platten/ Poolmanagment ist schon wieder nicht wirklich übersichtlich.
Was ich so auf die schnelle gelesen haben kann man Volumes z.B. je nach Konfiguration nicht immer mit neuen Platten erweitern. Weiter habe ich noch gar nicht geklärt was wie passiert wenn eine Platte den Bach runter geht.
Könnte man für meine Aufgabenstellung genau das richtig sein.
Hat jemand dazu zufällig brauchbare Links mit "Kochrezepten".


Gruss

King of the Hill
Beiträge: 13561
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 14.03.2014, 16:30

Du mußt bei aktivem Dedup nicht mal von einer abrauchenden Platte ausgehen, ein Datenfehler reicht ja schon aus. Alle Datenblöcke (Chunks) liegen unter Win2k12 bzw Win2k12-R2 physikalisch nur noch genau einmal in einem Windows-Unterordner vor und wenn dieser Datenblock fehlerhaft ist, sind zwangsläufig davon auch alle damit referenzierten Daten betroffen. Damit man wenigstens vom Dateisystem her auf sichereren Beinen steht, läßt sich Dedup auch unter "R2" nur auf NTFS-Platten aktivieren.
Die ansonsten dank ReFS und den Storage-Spaces möglichen Erweiterungen sind dann nicht nutzbar.

Experte
Beiträge: 1188
Registriert: 08.11.2005, 13:08
Wohnort: bei Berlin

Beitragvon e-e-e » 09.05.2014, 11:38

Moin, moin,

ich habe hier 2 ZFS-Server (1x altes Nexenta + 1x OpenIndiana) virtualisiert laufen. Bei beiden Systemen hatte ich mal dedup aktiviert und die Erfahrung war nicht prickelnd (600GB Daten, 5GB vRAM, raidz2, Schreibrate max. 1,3 MB/s). Direkt auf Blech habe ich ein OpenIndiana mit dedup und 128 GB RAM laufen, das ist sehr performant.

King of the Hill
Beiträge: 13561
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 09.05.2014, 17:42

Bei einem Raidz2 und somit weitestgehend einem herkömmlichen Raid6 entsprechend, würde ich über ZFS-Dedup frühestens ab 16GB RAM nachdenken. ZFS verwendet doch in Voreinstellung 1/4 des vorhandenen RAMs als ARC Cache für die Metadaten und bei nur 5GB RAM ist der Cache kaum der Rede wert. Selbst ohne Dedup wird das System wohl nur mit Handbremse laufen.

Führe mal bitte zpool status -D <volumename> und echo ::arc|mdb -k aus und poste die Ausgaben. Ersteres sollte die Nummer der Dedup-Tabelleneinträge nebst Speicherverbrauch liefern, während das zweite einige Kenngrössen ausgibt und davon erstmal nur die letzten drei Zeilen interessant sind. Diese sollten mit "arc_meta_used", "arc_meta_limit" und "arc_meta_max" enden. Von diesen sollte "meta_used" fast den Wert von "meta_limit" erreichen und "meta_max" in jedem Fall unterhalb von "meta_limit" bleiben. Falls "max" über "limit" liegt, ist das System nur mit Swappen beschäftigt und das erklärt die unterirdische Performance.

Der größte Nachteil dürfte jetzt sein, daß man Dedup nicht mehr deaktivieren kann, ohne das Volume komplett neu einzurichten. Mit ausreichend lokalen Platz könntest du zfs send/recv auf ein Volume ohne Dedup machen und nach dem leeren des Dedup-Volumes dieses dann einreißen...


Zurück zu „VMs & Appliances“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 11 Gäste