Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

ZFS für Dummy's

ESX(i)-taugliche Hardware, HCL .....

Moderatoren: irix, Dayworker

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

ZFS für Dummy's

Beitragvon UrsDerBär » 21.02.2012, 15:38

Hallo Leute,

Ist das so easy wie hier beschrieben oder sollte man schon etwas mehr Plan von dem Krempel haben?

Muss ich das Teil updaten, sonst irgendwie Linux bzw. Solaris verstehen oder läuft das einfach?

Ziel wäre ein günstiges, schmerzfreies NFS Storage für die ESX als Backup-Ziel und Datengrab.

Grüsse und Dankeschön

Experte
Beiträge: 1188
Registriert: 08.11.2005, 13:08
Wohnort: bei Berlin

Beitragvon e-e-e » 21.02.2012, 16:08

Hallo,

ich habe openindiana (OpenSource-Solaris-Abkömmling) verwendet.
Alte Workstation mit 9x 2TB WD20EARS nachgerüstet, OI installiert, 5 min. administriert, fertig. Sehr sehr einfach. Willst Du, wie ich, Dedup nutzen, dann nicht mit RAM geizen (ich habe 8GB eingebaut), zusätzlich noch 2x 64GB SSDs als slog und cache.
Bei mir sieht das dann so aus:
pool: tank11
state: ONLINE
scan: scrub repaired 0 in 23h48m with 0 errors on Mon Jan 23 21:22:54 2012
config:

NAME STATE READ WRITE CKSUM
tank11 ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
c7t0d0 ONLINE 0 0 0
c7t1d0 ONLINE 0 0 0
mirror-1 ONLINE 0 0 0
c7t2d0 ONLINE 0 0 0
c7t3d0 ONLINE 0 0 0
mirror-2 ONLINE 0 0 0
c7t4d0 ONLINE 0 0 0
c7t5d0 ONLINE 0 0 0
mirror-3 ONLINE 0 0 0
c7t6d0 ONLINE 0 0 0
c7t7d0 ONLINE 0 0 0
logs
mirror-4 ONLINE 0 0 0
c9d1p1 ONLINE 0 0 0
c10d0p1 ONLINE 0 0 0
cache
c9d1p2 ONLINE 0 0 0
c10d0p2 ONLINE 0 0 0
spares
c9d0 AVAIL

errors: No known data errors

Aktuell ca. 13 TB Daten, Dedup-Ratio ca. 4,3, Compress-Ratio 1,22 und erst 40% belegt, obwohl insgesamt nur 8 TB verfügbar.

Ich bin sehr zufrieden und ähnliche Lösungen stehen auch bei einigen kleinen Kunden.

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 21.02.2012, 17:21

Hmm OK, also ohne irgendwelchen RAID-Controller? Macht alles ZFS und dies besser/gleichgut als ein RAID-Controller?

Dedup für Backups natürlich toll, sofern das wirklich deduped wird (wohl nur wenn direkt die Files druff kommen und nicht komprimierte Archive oder?)

Wenn was hops geht, meldet sich das Teil irgendwie? bzw. kann ich easy irgendwo einstellen.

Member
Beiträge: 63
Registriert: 02.06.2009, 15:57

Beitragvon photographix » 21.02.2012, 20:22

Olá
das ist ja der Vorteil. ZFS kommt (glücklicherweise) ohne Hard oder Software Raid aus. Betriebssystem zerschossen, andere Hardware oder boot von CD ein zpool import <poolname> reicht um an ALLE Daten wieder ranzukommen. Vollkommen Hardware unabhängig! -> Inline <- Deduplizierung also innerhalb des Filesystems. Ohne andere Prozesse, Tasks, Tools. Das alles dann noch auf Block/Sektor Ebene und nicht wie bei MS SIS auf Hashsummen der Files... Außerdem vollkommen transparente Komprimierung jedes einzelnen Sektors wenn gewünscht! Automatische Selbstheilung bei Bit oder Parityfehlern. Pools mit mehreren Redundanzen möglich Raidz1, Raidz2, Raidz3. (Fast) Konfigurationslose Erweiterung des Files Systems in Richtung Performance durch SSDs für Cache (ARC) oder Transaktionslog (ZIL) OHNE das Dateisystem auch nur ein bisschen anzuhalten. LIVE im Betrieb möglich! Snapshots des GANZEN Filesystems in Minutenabständen möglich. Snapshots dann wieder Readonly freigeben und und und...

Wir haben hier 4 Storages davon im Einsatz. Zusammen mit 64TB an Daten. Diese nutzen wir für Archiv und Live Daten. Teilweise über NFS und SMB zusammen.

Für den Einstieg und „starten und geht“ empfehle ich von Nexenta die Community Edition (16TB Poolsize) oder die kommerzielle Version mit 24/7 Support.

LG

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 21.02.2012, 20:44

Hmm Danke Jungs, klingt ja schon ganz ok.

Bei allem was so toll klingt, muss es auch ein paar Haken geben. Wie siehts zbsp. mit den Nic's aus? Mehrere für Redundanz / Loadbalancing kein Problem?

Klingt irgendwie schon reichlich verlockend um es mal zu testen was ich jetzt so gelesen habe. Könnte ich das Windows-Server-Datengrab in Rente schicken.

Member
Beiträge: 41
Registriert: 20.04.2009, 00:04

Beitragvon transporter » 22.02.2012, 07:17

UrsDerBär hat geschrieben:Hmm Danke Jungs, klingt ja schon ganz ok.

Bei allem was so toll klingt, muss es auch ein paar Haken geben. Wie siehts zbsp. mit den Nic's aus? Mehrere für Redundanz / Loadbalancing kein Problem?

Klingt irgendwie schon reichlich verlockend um es mal zu testen was ich jetzt so gelesen habe. Könnte ich das Windows-Server-Datengrab in Rente schicken.


das thema läuft unter dem namen IPMP, es gibt hier ein super tutorial:
http://www.c0t0d0s0.org/archives/6305-L ... thing.html

der verfasser stellt auch ein pdf zur verfügung mit jeder menge weiterer infos zu solaris. lohnt sich auf jeden fall.

was man als zfs einsteiger auch auf jeden fall mal gelesen haben sollte:

http://nex7.com/readme1st

es kann sonst passieren das man sich über gewisses verhalten sehr wundert.

Member
Beiträge: 63
Registriert: 02.06.2009, 15:57

Beitragvon photographix » 22.02.2012, 10:52

Das "Problem" bei ZFS ist das dies ein neues Dateisystem ist was auf neue Hardware zugeschnitten wurde. Willst du Dedup, Gzip und andere Feature performant nutzen musst du Prozessorleistung und viel RAM anbauen. Unsere Storages haben jeweils zwei XEON Prozessoren der neuesten Generation und 96GB RAM sowie jeweils eine 8GB SSD (SLC) für den ZIL und eine 512 SSD (MLC) für den ARC.

Auf älterer Technik und mit wenig RAM hast du da fast keinen Spaß dran.
LinkBonding geht natürlich mit Nexenta und allen anderen Betriebssystemen auch.

PS: FreeNas kann jetzt auch ZFS

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 22.02.2012, 11:07

Nun, soooo alt ist der PC nicht. Immerhin nen DualCore Opteron mit max. 8GB RAM.

Parallel-Zugriffe wirds nicht viele geben. Wäre primär als Datengrab für Backups gedacht. Sowohl zbsp. Veaam als auch Windows-interne-Sicherung. Ist auch nur ne kleine Umgebung.

Funktionierendes Dedup auf Windows-Server-Sicherung (neuere Variante ab 2008, nicht NTBackup) wäre halt cool, dann könnte ich auch nen FullBackup à la Netzwerkshare fahren und müsste nicht über eine zusätzliches FileSystem (virtuelle HD) gehen. Oder aber wirklich über eine virtuelle HD welche ich via VmWare der VM als interne HD präsentiere. Da gibts dann wieder Diff-Sicherungen zum Fullbackup via Windows. --> Ob da Dedup noch funzt?

Die 'richtigen' Nexenta Produkte kommen aufgrund der Kosten nicht wirklich in Frage.

Member
Beiträge: 63
Registriert: 02.06.2009, 15:57

Beitragvon photographix » 22.02.2012, 13:02

Du kannst auch mit der Community Edition 16TB an Daten verwalten. Bei Veeam sind wir davon abgekommen das Dedup auf dem Storage zu machen. Es frisst wirklich viel RAM. Wir haben unserer Backup Appliance einfach mehr virtuellen "bums" gegeben und lassen das Dedup schon von Veeam machen. Dies hat den Vorteil das ich auch weniger an das Storage übers Netzwerk schieben muss.

8GB Ram sind zu wenig denk ich. 12 oder besser 24 ;-)
Rüste noch eine SSD für ZIL nach dann kannst du das auch als Datengrab sinnvoll nutzen. Cache als ARC lohnt nur wenn du Daten abrufen willst.

Dedup geht immer wenn sich identische Blöcke finden. Die können aus einem Backup sein oder (nur ein Beispiel) auch aus einem Word Dokument kommen. Doppelt ist halt doppelt. Dann wird der eine nicht gespeichert und nur noch ein Zeiger verwendet. Das spart schon Platz. Laut Nexenta lohnt das aber nur bei Raten über 1:5 denn sonst kommst du wirklich mit einer weiteren HD günstiger.

In meinen "Anfangszeiten" von ZFS habe ich mal ein ge-deduptes 1TB Laufwerk gelöscht. Das hat dann fast drei Stunden gedauert um die "Zeiger" alle wieder zurück zu schreiben ^^

Wir haben im Storage nur SATA Platten in einem Raidz2 Verbund. Das ist günstiger als SAS Platten und durch die SSDs hast du keinen Unterschied in der Performance.

Experte
Beiträge: 1188
Registriert: 08.11.2005, 13:08
Wohnort: bei Berlin

Beitragvon e-e-e » 22.02.2012, 15:26

Leute, wir reden hier immer noch über ein Backup-Datengrab-NAS und nicht über ein Storage auf dem die VMs während des Betriebes liegen, oder? Selbst auf meiner Kiste kann ich mit obiger Ausstattung, wenn's sein muss, einige VMs starten und kann auf ihnen arbeiten. Während eines laufenden Backups mit eingeschalteter einfacher Kompression, also lzh, wird KEINE nennenswerte Rechenleistung zusätzlich benötigt und die Schreibprozesse um 20% verringert, was zu höherem Gesamtdurchsatz führt. Bei solch einem Backup und höchster Sicherheit bei den Prüfsummen (sha256) liegt die Auslastung meines Core2Duo bei gerade mal 20-30%, der eigentliche Flaschenhals sind wie so oft die HDDs bzw. deren Anbindung. Viele HDDs in Mirrorsets und ein slog auf SSD und die Kiste reicht, zumindest bei mir, für 400GB Vollbackups von VMs pro Durchgang.

Noch etwas Lesestoff: http://www.nex7.com/readme1st

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 22.02.2012, 17:25

Hab mich da mal überall bissel durchgelesen. Klingt ziemlich nach, mach mehr Bums rein und du bekommst mehr Bums. Grob gesagt, wenn ich ein paar wenige VM's habe und nen dicken Server mit viel RAM hinstelle, macht er so ziemlich alles im RAM, aufgrund der intelligenten Logik. Der Bums kostet aber verhätlnissmässig wenig im Vergleich zu den Fertigboxen. Klingt ja fast zu schön um wahr zu sein?!?

Für Backup's sehe ich das auch wie e-e-e. Aber eigentlich könnte man das ja auch für VM's nutzen. Fehlt nur noch eine bezahlbare Sync-Lösung à la Marathon für Xen. ;)

Was mir persönlich sehr gefällt sind beliebige Mirror-Disks in einem vDev? Also da ich zum Beispiel Paranoid bin, möchte ich drei Disks in einem vDev und füge sie dann zu einem Stripe zusammen. War schon immer mein Traum und mich kotzt das an aktuellen RAID-10 Lösungen immer ziemlich an, dass ich diese Möglichkeit nicht habe und bete, dass beim Rebuild nicht zufällig die gleiche Disk ausfällt. Eine war letztes mal kurz davor auch die Flügel zu strecken. Diverse Read/Write Errors.

Was mir nicht so gefällt, man kann einen Mainboard-Ausfall nicht wirklich auffangen. Wird bestimmt hässlich. Aber das hat man auch mit der Backplane einer 'normalen' Box. SSD als Log klingt ja schon auch doll, aber wenn das alles da drauf passiert, sind das auch ne Menge Schreibkram. --> Lebensdauer? Könnte man sicher mit einer etwas überdimensionierten SLC in Grenzen halten, denke ich.

16TB Daten (Auf Webpage steht 18), entspricht das 16TB Brutto-Kapazität der Festplatten, real nutzbarer Speicher oder effektiv abgelegte Datenmenge vor oder nach Deduplizierung? UND: Gilt das nur für Nexenta oder auch für andere Lösungen (Blicke da noch nicht so ganz durch, was nun geht und was nicht)

Experte
Beiträge: 1188
Registriert: 08.11.2005, 13:08
Wohnort: bei Berlin

Beitragvon e-e-e » 22.02.2012, 17:45

16 TB gilt nur für die (kostenlose) Community-Edition und dürfte sich um 16 TB physisch belegten HDD-Speicherplatz handeln (da gibt's irgendwo FAQs in denen das steht).
Ich benutze wie gesagt openindiana, ohne irgend eine Einschränkung, da ich weder in einer Domäne sitze noch irgend einen anderen Schnickschnack brauche, Kiste steht in einem anderen Brandabschnitt, wird per Fernbedienung blind gestartet, 2-3 Minuten warten bis die Kiste definitiv hoch ist, dann kann ich sie per ssh/NFS/SMB erreichen und gut is'.
Übrigens, du kannst auch 2 Nexenta-Büchsen synchron oder asynchron via send/receive (incl. dedup) auf gleichem Stand halten, kost' aber was. Von Hand asynchron per Snap, z.B. alle 60 Sek. und den dann an die 2. Kiste senden, möglich. Da Snaps eigentlich erst einmal keinen Speicherplatz erfordern, eine u.U. gangbare Lösung.

Experte
Beiträge: 1188
Registriert: 08.11.2005, 13:08
Wohnort: bei Berlin

Beitragvon e-e-e » 23.02.2012, 10:58

photographix hat geschrieben:Rüste noch eine SSD für ZIL nach dann kannst du das auch als Datengrab sinnvoll nutzen.


Das halte ich für etwas gefährlich, denn verabschiedet sich die SSD sind u.U. die Änderungen der letzten 30 Sekunden weg, deshalb besser einen SSD-Mirror (Partition mit 1 GB reicht aus, ist ja nur ein log).

photographix hat geschrieben:Cache als ARC lohnt nur wenn du Daten abrufen willst.


Stimmt nicht ganz, da dort auch die Prüfsummen vorgehalten werden und du mit Dedup dann deutlich mehr Performance erreichst. Also bringt ein L2ARC in Form von SSDs in Ermangelung von endlos RAM auch Vorteile beim Schreiben.

Benutzeravatar
Moderator
Beiträge: 1599
Registriert: 16.10.2002, 20:13
Wohnort: Köln

Beitragvon minimike » 23.02.2012, 13:34

Meiner einer hat auf allen produktiven Servern ZFS v28. Ist in FreeBSD 8 stable mit dabei oder FreeBSD 9 wer das neue Release schon mag.

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 23.02.2012, 14:19

Also ich hätte da auch lieber mirrored SSD, sollt ja aber kein Thema sein.

Was anderes zum Thema... Durch das stöbern nach ZFS und RAM-Cache kam eine meiner alten Spinnereien wieder hoch, VM's komplett ins RAM zu packen anstelle über die Festplatte. Performance ist da schon heftigst, siehe Thread hier

Lässt sich wunderbar weiterspinnen: VM komplett ins RAM, auf Wunsch wegschreiben ins Storage quasi wie ein ColdClone in View. Dann Linked Clones direkt im RAM um Speicherplatz zu sparen. Müsste dann irgendwie direkt auf nem performanten Hypervisor integriert sein. Die Clients würden Xfach schneller fliegen für einen Bruchteil der Kosten für die IOP's wenn mans mit Festplatten erreichen möchte. =)

Bis es ne Appliance gibt, welche eine RAM-Disk für den Server erstellen kann (*grinz*), vielleicht wirklich mal mit ZFS, 10Gigakarte + Mordsmässig RAM testen, damit er zbsp. einen kompletten kleinen Datastore ins RAM lagert. Könnte man das evtl. sogar beeinflussen was da rein soll? Irgendwie gefällt die Spinnerei. :D

So für einen ersten Test könnte man auch eine physische XP oder 2003R2 64 bit Maschine nehmen, Ramdisk druff und VM's reinladen, dann View zu Verfügung stellen (mit dem Installer-Trick)

Member
Beiträge: 63
Registriert: 02.06.2009, 15:57

Beitragvon photographix » 29.02.2012, 09:31

Ja Ihr habt Recht ZIL als Mirror ist natürlich sinnvoller. Wir haben das auch bei uns. Ich wollte nur zeigen das man mit relativ wenig Änderungen mehr Performance erreichen kann.
Wobei ich laut Nexenta die "Flushtime" des ZILs einstellen kann. Es muss als nicht 30 Sekunden verlieren bis die Daten auf Platte sind. Auch mit dem ARC habt ihr Recht. Im Verhältnis gesehen belegt die Dedup Referenztabelle anteilig auch Platz im ARC. Gabs irgendwo mal eine Tabelle zur Berechnung. Laut Nexenta gilt aber das Prinzip: mehr RAM ist immer besser als mehr ARC.

PS: wir planen gerade unser VDI Konzept auf einem Storage aus SSDs.
Zumindest mit 6 Stück a 512GB werden wir das mal antesten. Hoffentlich fängt dann die mehr als nur esoterische Geschwindigkeitssteigerung das Kostengrab auf ;-)

King of the Hill
Beiträge: 12942
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 29.02.2012, 09:59

Was muss man sich als Unwissender unter ZIL und ARC vorstellen? Ersteres laesst mich eher an eine russische Automarke denken :)

Gruss
Joerg

Experte
Beiträge: 1188
Registriert: 08.11.2005, 13:08
Wohnort: bei Berlin

Beitragvon e-e-e » 29.02.2012, 11:20

irix hat geschrieben:Was muss man sich als Unwissender unter ZIL und ARC vorstellen? Ersteres laesst mich eher an eine russische Automarke denken :)

Gruss
Joerg


Höre ich da einen erfahrenen Kämpfer der Volksarmee? :lol: :lol: :lol:

Spaß beiseite:
ZIL -> ZFS intent log (dadurch kann eine Schreiboperation schon vor endgültiger Ablage auf den HDDs als abgeschlossen gemeldet werden)
ARC -> adative replacement cache (im RAM)
L2ARC -> Level 2 adative replacement cache (auf SSD)

King of the Hill
Beiträge: 12942
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 29.02.2012, 11:22

e-e-e hat geschrieben:
irix hat geschrieben:Was muss man sich als Unwissender unter ZIL und ARC vorstellen? Ersteres laesst mich eher an eine russische Automarke denken :)

Gruss
Joerg


Höre ich da einen erfahrenen Kämpfer der Volksarmee? :lol: :lol: :lol:


Nein ich hatte Iltis und Wolf.

Spaß beiseite:
ZIL -> ZFS intent log
ARC -> adative replacement cache (im RAM)
L2ARC -> Level 2 adative replacement cache (auf SSD)


Danke.

Gruss
Joerg

Member
Beiträge: 29
Registriert: 26.11.2011, 14:50

Beitragvon anonym99 » 04.03.2012, 19:22

Hallo ich habe noch eine Frage zu ZFS, habe einen Backup/Storage Server: 16 GB DDR3, 4x2 TB @ RAID Z1 (ZFS Compression an, Dedup aus), OS ist Solaris 11 auf 2 USB Sticks die als Mirror laufen. Das ganze wird über napp-it per Web GUI administiert und Feineinstellungen via SSH mit Putty.

Was mir aufgefallen ist das beim kopieren via MC der Ram locker mal selbst kleinen Kopiervorgängen von Dateien von nur ein paar GB, ~ 10 GB Ram auslagern (mit Top überprüft). Ist das normal? Nach dem booten ist ~ 1 GB Ram in Nutzung und 15 GB Ram sind frei, kann man da noch etwas einstellen oder optimieren, das System läuft erst seit ein paar Tagen bin noch am testen, rsync und Co. , gemountet sind alle Geräte via NFS.

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 09.03.2012, 11:34

Hier noch bissel interessante Lektüre: http://www.zfsbuild.com/

Member
Beiträge: 48
Registriert: 19.12.2010, 18:26

Beitragvon gea » 10.03.2012, 02:35

anonym99 hat geschrieben:Hallo ich habe noch eine Frage zu ZFS, habe einen Backup/Storage Server: 16 GB DDR3, 4x2 TB @ RAID Z1 (ZFS Compression an, Dedup aus), OS ist Solaris 11 auf 2 USB Sticks die als Mirror laufen. Das ganze wird über napp-it per Web GUI administiert und Feineinstellungen via SSH mit Putty.

Was mir aufgefallen ist das beim kopieren via MC der Ram locker mal selbst kleinen Kopiervorgängen von Dateien von nur ein paar GB, ~ 10 GB Ram auslagern (mit Top überprüft). Ist das normal? Nach dem booten ist ~ 1 GB Ram in Nutzung und 15 GB Ram sind frei, kann man da noch etwas einstellen oder optimieren, das System läuft erst seit ein paar Tagen bin noch am testen, rsync und Co. , gemountet sind alle Geräte via NFS.


Ich nehme eher an, es ist so wie es sein soll.
Jeglicher freier RAM bei ZFS wird immer für Storage-Optimierungen benutzt.

Letzte Leseoperationen werden gecacht und einfache nichtsyncrone Schreiboperationen gehen immer zuerst in den RAM,
werden dort gesammelt und optimiert alle paar Sekunden auf die Platte geschrieben.

Bei syncronern Schreiboperationen z.B. NFS bei ESXi (jedes write muss bestätigt werden, dann kommt erst das nächste dran) gehen Schreiboperationen
zwar auch in den RAM, werden aber erst mitprotokolliert (optimal in einer externen schnellen Log-Disk) und anschließend sofort einzeln auf die Platte geschrieben.

ZFS wird daher umso schneller, je mehr RAM es hat. Freier RAM wäre ja auch Geldverschwendung.
Opimieren muss man da normalerweise garnichts, ausser eventuell aus Geschwindigkeitsgründen das syncrone Schreiben deaktivieren
(kann Datenverlust bei Stromausfall bedeuten oder eine schnelles Log_Disk benutzen)


ps
Das OS auf USB ist bei Solaris und Co nicht wirklich optimal, das OS is nicht darauf ausgelegt.
Das Management kann richtig langsam sein, besser eine Festplatte oder eine kleine SSD > 16 GB nehmen.

Member
Beiträge: 29
Registriert: 26.11.2011, 14:50

Beitragvon anonym99 » 11.05.2012, 21:03

Sorry das ich den Thread hochhole, aber:

e-e-e hat geschrieben:... dann nicht mit RAM geizen (ich habe 8GB eingebaut), zusätzlich noch 2x 64GB SSDs als slog und cache.


Kannst du mir bitte verraten wie das gemacht hast? Eine SSD bzw. 2 SSDs so zu Partitionieren, das du ZIL und L2ARC deinem pool zuordnen kannst. Ich bin langsam am verzeweifeln mit dem "format" von Solaris, nichts funktioniert :-(

Tausend dank vorab!

Experte
Beiträge: 1188
Registriert: 08.11.2005, 13:08
Wohnort: bei Berlin

Beitragvon e-e-e » 13.05.2012, 14:31

Hallo,

der format-Befehl ist unter Solaris/Openindiana usw. ein wenig anders als unter Win/Linux. Auf der Konsole format aufrufen -> es werden alle vorhandenen HDDs/SSDs gescannt und in einem Menü aufgelistet, richtige SSD auswählen -> dann bekommst du wieder ein Menü der ausführbaren Operationen, lass dir erst einmal alle Partitionen anzeigen, dann lösche diese und erstelle pro SSD 1 Partition im Solaris2-Format mit 1/2 RAM-Größe (größer schadet nicht) und eine 2. über den Rest der SSD (das Schreiben der neuen Partitionstabelle auf die SSDs nicht vergessen, sonst werden die Änderungen wieder verworfen). Nun kannst du dir nochmal die Partitionen anzeigen lassen. Danach kannst du diese Partitionen mit den bekannten zpool add tankX log mirror cXdXpX cYdYpY und zpool add tankX cache cXdXpZ cYdYpZ, dem zpool tankX hinzufügen.

Member
Beiträge: 29
Registriert: 26.11.2011, 14:50

Beitragvon anonym99 » 14.05.2012, 19:55

Genial, super danke!!!

/Edit:

So sieht es aus wenn ich die SSD aufteile 5% sind etwas mehr als 8 GB (also Häfte vom RAM) und der Rest als Cache.

Code: Alles auswählen

 Total disk size is 9345 cylinders
             Total disk size is 9345 cylinders
             Total disk size is 9345 cylinders
             Cylinder size is 12544 (512 byte) blocks

                                               Cylinders
      Partition   Status    Type          Start   End   Length    %
      =========   ======    ============  =====   ===   ======   ===
          1                 Solaris2          1   467     467      5
          2                 Solaris2        468  9251    8784     94


Sind zwei 60 GB Intel SSDs, wenn ich im format Menü dann Partition aufrufe steht nur das da:

Code: Alles auswählen

Current partition table (default):
Total disk cylinders available: 465 + 2 (reserved cylinders)

Part      Tag    Flag     Cylinders       Size            Blocks
  0 unassigned    wm       0              0         (0/0/0)         0
  1 unassigned    wm       0              0         (0/0/0)         0
  2     backup    wu       0 - 464        2.78GB    (465/0/0) 5832960
  3 unassigned    wm       0              0         (0/0/0)         0
  4 unassigned    wm       0              0         (0/0/0)         0
  5 unassigned    wm       0              0         (0/0/0)         0
  6 unassigned    wm       0              0         (0/0/0)         0
  7 unassigned    wm       0              0         (0/0/0)         0
  8       boot    wu       0 -   0        6.12MB    (1/0/0)     12544
  9 unassigned    wm       0              0         (0/0/0)         0


Das zeigt mit format an:

Code: Alles auswählen

       0. c3t0d0 <ATA-SAMSUNG HD204UI-0001-1.82TB>
          /pci@0,0/pci8086,1c10@1c/pci1000,3090@0/sd@0,0
       1. c3t1d0 <ATA-SAMSUNG HD204UI-0001-1.82TB>
          /pci@0,0/pci8086,1c10@1c/pci1000,3090@0/sd@1,0
       2. c3t2d0 <ATA-SAMSUNG HD204UI-0001-1.82TB>
          /pci@0,0/pci8086,1c10@1c/pci1000,3090@0/sd@2,0
       3. c3t3d0 <ATA-SAMSUNG HD204UI-0001-1.82TB>
          /pci@0,0/pci8086,1c10@1c/pci1000,3090@0/sd@3,0
       4. c6t3d0 <ATA-INTEL SSDSC2CT06-300i cyl 7295 alt 2 hd 255 sec 63>
          /pci@0,0/pci8086,200b@1f,2/disk@3,0
       5. c6t4d0 <ATA-INTEL SSDSC2CT06-300i cyl 7295 alt 2 hd 255 sec 63>
          /pci@0,0/pci8086,200b@1f,2/disk@4,0


Was habe ich falsch gemacht? Habe format -> fdisk -> die 2 Partionen erstellt, dann Update Konfig gemacht und als letzes label ausgeführt, fehlt noch etwas?


Zurück zu „Hardware“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 7 Gäste