Fragen zur Grundeinrichtung

klausguenter

Cadet
Joined
Feb 18, 2022
Messages
4
Hallo zusammen,

ich möchte erstmalig ein truenas einrichten, habe mich ein wenig eingelesen und bin mir nun nicht sicher, ob ich alles richtig verstanden habe.

1)
Ich möchte das Äquivalent eines RAID10 erstellen.
Wenn ich das richtig gelesen habe, sind das mehr oder weniger "striped vdevs", ist das richtig?

2)
Wenn ich diese striped vdevs nun partitionieren möchte, würde man das mit Datasets machen?

3)
Angenommen, ich habe 4 HDDs mit 10TB und bastele die zu einem striped vdev zusammen - dann habe ich ja 20 TB Nutzdaten, korrekt?
Dann erstelle ich darauf 2 Datasets: 5TB und 15TB.
Nun möchte ich bei diesem Konstrukt später einmal HDDs nachrüsten. Wieviele HDDs müssen mindestens nachgerüstet werden?
Wie verhält es sich dann mit den Datasets - wachseln die dann automatisch äquivaltent in ihrer Größe mit, oder muss ich die dann manuell vergrößern?

4)
Das System hat sicherlich auch eine Papierkorb-Funktion.
Kann ich den Papierkorb so konfigurieren, dass er gelöschte Daten nach z.B. 1 Monat automatisch aus dem Papierkorb entfernt? Oder definiert man alternativ eine maximale Papierkorbgröße? Das System soll ja nicht vollgemüllt werden.

Beantwortet einfach die Fragen, die ihr beantworten könnt - den rest lasst einfach unbeantwortet.

Vielen Dank vorab!

Gruß
Klausguenter
 

Patrick M. Hausen

Hall of Famer
Joined
Nov 25, 2013
Messages
7,776
Du erstellst zwei Vdevs, die jeweils aus einem Mirror bestehen. Striping über alle Vdevs in einem Pool findet sowieso immer statt.

Datasets haben keine feste Größe - es sein denn, du legst ausdrücklich ein Quota fest. Alle Datasets bedienen sich dynamisch aus dem in einem Pool vorhanden Platz. Das ist ja gerade der Vorteil, dass man keine feste Partitionierung mehr hat.

Wenn Du nicht dein Niveau an Redundanz verschlechtern willst, musst du zum Aufrüsten mindestens zwei Platten als weiteres Mirror-Vdev hinzufügen. Sobald du das getan hast, steht den Datasets entsprechend mehr Platz zur Verfügung.

Das System an sich (ZFS) hat keine Papierkorbfunktion. So weit ich weiß, kann Samba so etwas für Windows-Clients, ich weiß aber nicht, wie das funktioniert. Auf Systemebene kannst du von deinen Datasets z.B. stündlich Snapshots anlegen und diese eine definierte Zeit lang aufbewahren. Dafür gibt es Features im UI, das funktioniert dann alles automatisch. Aus den Snapshots lassen sich gelöschte Dateien wiederherstellen.
 

LarsR

Guru
Joined
Oct 23, 2020
Messages
719
Das System an sich (ZFS) hat keine Papierkorbfunktion
kann man nicht beim anlegen eines Datasets einen Papierkorb aktivieren? Ich hab aber keine Ahnung wie die Funktion dann implementiert wurde :/
 

Patrick M. Hausen

Hall of Famer
Joined
Nov 25, 2013
Messages
7,776
Nei-ein ... ZFS hat keinen Papierkorb. ZFS braucht keinen Papierkorb :wink:

ZFS hat Snapshots. Spezifische Sharing-Protokolle wie SMB haben einen Papierkorb. ZFS bekommt von dem Papierkorb aber nichts mit - die Datei wird dann ja nur auf Anwendungsebene in ein anderes Verzeichnis verschoben.

Du kannst also beim Anlegen eines Shares einen Papierkorb aktivieren.
 

ChrisRJ

Wizard
Joined
Oct 23, 2020
Messages
1,919
Und ein zusaetzlicher VDEV Mirror kann eine beliebige Groesse haben. Wenn Du jetzt 10 TB Platten hast, kannst Du in drei Jahren 2*20 TB genauso nehmen wie 2*6 TB.

@klausguenter , willkommen im Forum und schoen, dass Du Dich schon so mit der Materie befasst hast.
 

emk2203

Guru
Joined
Nov 11, 2012
Messages
573
Irgendwann vor über 3 Jahren konnte man bei FreeNAS noch eine Papierkorbfunktion aktivieren. Ich hab in einem meiner Skripte noch so was drin, was darauf verweist. Da wurde unter <dataset>/.recycle/<user> eine solche Funktion angelegt. Ich hab mich schon gewundert, wann und wie das wieder aus der middleware verschwunden ist. Wiedergefunden habe ich es nicht mehr, war aber definitiv mal da.
 

Patrick M. Hausen

Hall of Famer
Joined
Nov 25, 2013
Messages
7,776
Das macht aber nicht das ZFS sondern das Sambaaa ....
 

LarsR

Guru
Joined
Oct 23, 2020
Messages
719
@Patrick M. Hausen hat recht, die Papierkorb Funktion muss beim Erstellen eines smb shares mit angeklickt werden unter erweiterte Optionen, ist also ne Samba und keine ZFS-Funktion
 

emk2203

Guru
Joined
Nov 11, 2012
Messages
573
Ja, klar. Ein Filesystem hat keinen Papierkorb, ich wüßte zumindest nicht, wie das gehen soll. Sorry, wenn das so geklungen hat. Ich wollte einfach ergänzen, dass man eine gewünschte Papierkorbfunktion irgendwo aktivieren kann/konnte. Dank euch weiß ich jetzt auch wieder, wo man das machen kann. Ich find das übrigens auch unabhängig von Samba ganz praktisch. Unter Linux gibt es dafür trash-cli. Da ich das auch unter Linux nutze, habe ich es nicht Samba zugeordnet.
 

EnKo

Dabbler
Joined
Jan 9, 2022
Messages
32
Es wäre vielleicht besser, wenn du einmal schreibst was du eigentlich machen willst und was deine Ausgangssituation ist. Ich habe das Gefühl, dass du dich auf eine Lösung festgelegt hast, die möglicherweise nicht die beste Lösung für dich ist. Zu deinen Fragen:
  1. Hast du dir die Standard Funktionen (default: RAIDZ2) angesehen?
  2. Du musst nichts "partitionieren" im Sinne, dass du einen bestimmten Festplattenbereich definierts. Du kannst verschiedene Datasets anlegen, und deren Größe über die Web-Oberfläche einschränken und ändern. Physikalisch gibt es keine festen Limits (außer die Festplattengröße).
  3. Du kannst die Anzahl der Festplatten eines VDEV nicht verändern! Der Speicherplatz eines bestehenden VDEVs kann nur vergrößert werden, indem man die Festplatten durch größere ersetzt.
  4. Willst du einen Zwischenspeicher für gelöschte Dateien (Papierkorb) oder ein Backup (Snapshot)?
 

Patrick M. Hausen

Hall of Famer
Joined
Nov 25, 2013
Messages
7,776
@EnKo ich habe doch eigentlich alle Fragen von @klausguenter schon ausführlich beantwortet. Leider wieder mal das übliche Spiel. Neumitglied kippt einen Haufen Fragen ab, die sich durch 5 Minuten Lesen, z.B. des ZFS Primers beantwortet hätten. Man versucht trotzdem, zu helfen. Fragesteller meldet sich nie wieder.

Stattdessen rotieren hier jetzt mehrere Regulars um Dinge, die längst geklärt sind. Mich frustriert sowas.
 

klausguenter

Cadet
Joined
Feb 18, 2022
Messages
4
Du erstellst zwei Vdevs, die jeweils aus einem Mirror bestehen. Striping über alle Vdevs in einem Pool findet sowieso immer statt.
ah ok - hat funktioniert - danke!

Datasets haben keine feste Größe - es sein denn, du legst ausdrücklich ein Quota fest. Alle Datasets bedienen sich dynamisch aus dem in einem Pool vorhanden Platz. Das ist ja gerade der Vorteil, dass man keine feste Partitionierung mehr hat.
sehr schön - auch dafür: danke!

Wenn Du nicht dein Niveau an Redundanz verschlechtern willst, musst du zum Aufrüsten mindestens zwei Platten als weiteres Mirror-Vdev hinzufügen. Sobald du das getan hast, steht den Datasets entsprechend mehr Platz zur Verfügung.

wie meinst du das: mache ich dann ein drittes mirror-vdev mit 2 Platten auf, oder erweitere ich die beiden vorhandenen mirror-vdev um jeweils 1 platte?
 

klausguenter

Cadet
Joined
Feb 18, 2022
Messages
4
Neumitglied kippt einen Haufen Fragen ab, die sich durch 5 Minuten Lesen, z.B. des ZFS Primers beantwortet hätten.
Servus,
wenn man als newbie immer wüsste, wo die Antworten auf die Fragen stehen, die man hat, dann müsste man das Forum nicht bemühen.
Ich weiss nicht, was das "ZFS Primers" ist - da gehts schonmal los. Habe stattdessen ins Manual geguckt (wie ich auch schrieb), war mir aber nicht sicher, ob ich es korrekt verstanden hatte (nein, hatte ich nicht). Einem Manual kann man leider keine Verständnisfragen stellen, deshalb habe ich dieses Forum genutzt. Sorry, wenn ich jemanden damit belästigt habe - aber ich dachte für Verständnisfragen wäre dieses Forum da.
 

Patrick M. Hausen

Hall of Famer
Joined
Nov 25, 2013
Messages
7,776
w
wie meinst du das: mache ich dann ein drittes mirror-vdev mit 2 Platten auf, oder erweitere ich die beiden vorhandenen mirror-vdev um jeweils 1 platte?
Du machst ein drittes vdev. Die beiden vorhandenen um eine dritte Platte zu ergänzen, würde ja nur die Redundanz erhöhen, nicht die Kapazität.

aber ich dachte für Verständnisfragen wäre dieses Forum da.
Ist es auch. Irritierend ist halt, wenn du 13 Tage brauchst, bis man wieder was von dir liest. Der ZFS Primer ist Teil des Manuals:
 
Top