Festplatte aus Stripeverbund lösen

Status
Not open for further replies.

Semmelbrosel

Dabbler
Joined
Jul 5, 2013
Messages
12
Hallo Miteinander,

mir ist wie anderen auch schon das Malör passiert, das Platten sich nun im Stripeverbund zum bestehenden Pool verbunden haben. Viele schreiben das man den alten Pool löschen soll und neu ausbauen.
Da im Pool 20TB an Daten sind ist das mal nicht so einfach
Das Problem ist, wenn nun eine der Platten da0 oder da 6 defekt gehen, ist alles weg.

Beim suchen im Internet habe ich das schon gefunden.
http://blog.delphix.com/alex/2015/01/15/openzfs-device-removal/
Aber anscheinend geht das in Freenas nicht.

Hier der Pool
upload_2016-3-21_17-21-22.png


Hier wenn ich versuche nun die Platte aus dem Pool zu lösen.
upload_2016-3-21_17-21-46.png


Ich habe schon 3x8TB Festplatte eingebaut, lasse gerade die Daten per Snapshot dorthin kopieren, was aber Wochen dauern wird. Leider sehen ich hier auch nicht wie weit der Transfer ist.

Ich in etwas ratlos was ich machen soll.
Hat jemand ein Idee?

Es dürfen sich gerne Profis oder gewerbliche melden die sich mit der Materie sehr gut auskennen.
Zeit wird auch vergütet.


Gruß Mario
 
Joined
Apr 9, 2015
Messages
1,258
Nein, Sie müssen Ihre Daten zu sichern und einen neuen Pool.

Was Sie getan haben, ist der Pool erweitern indem Sie einen anderen vDEV hinzufügen. Sobald es in FreeNAS hinzugefügt wurde, können Sie es nicht wegnehmen.

Von dem, was ich Ihnen sagen kann hinzugefügt zwei Scheiben jeweils als ein vDEV und fünf weitere Festplatten als raidz2 vDEV .

zu entfernen versuchen, die Dinge über die Kommandozeile im besten Fall wird scheitern und im schlimmsten Fall einen Verlust von Daten führen. Holen Sie sich genügend Festplatten eine Backup und erstellen Sie einen neuen Pool zu sichern , um die Daten dann auf den Pool zu zerstören , die falsch konfiguriert ist und es wieder aufzubauen .
 

MrToddsFriends

Documentation Browser
Joined
Jan 12, 2015
Messages
1,338
Ich habe schon 3x8TB Festplatte eingebaut, lasse gerade die Daten per Snapshot dorthin kopieren, was aber Wochen dauern wird. Leider sehen ich hier auch nicht wie weit der Transfer ist.

Bei angenommenen 100 MByte/s Transferrate sollten 20 TByte in rund 60 Stunden erledigt sein. 100 MByte/s sind zwar aus der Luft gegriffen, aber Wochen (Plural) sollte es nicht dauern, dann wäre etwas anderes faul.

Mittels 'zfs list -r <pool-name>' solltest Du verfolgen können, wie schnell sich das Ziel der Replikation füllt (Spalte USED). Mit "Kopieren per Snapshot" meintest Du vermutlich Replikation, korrekt?
 

Semmelbrosel

Dabbler
Joined
Jul 5, 2013
Messages
12
Hallo,
danke für die Antwort, dachte mir schon das das mit dem Remove nicht geht.
Aber wo greift die Anleitung im Link? http://blog.delphix.com/alex/2015/01/15/openzfs-device-removal/

Ja ich hab es per Replikation versucht, aber werde nicht schlau draus. Er hat immer verwirrende Speichernutzung angezeigt.
Und dann hat er anscheinend aufgehört. Ich habe keine Ahnung warum :-(
Ich habe es so gemacht.
zfs send RaidZFS/UrBackup@manual-20160322 | zfs recv Backup
Urbackup sind die Daten und Backup sind die 3x8TB Platten.
Ich dachte es mir so, ich mach einen Snapshot und lasse die Daten rüber kopieren dann mache ich einen rekursiven Snapshot um dann nur das Delta während die Replizierung zu kopieren.
Was ja viel kleiner ist. Und dann genau das ganz wieder Rückwärts.

Gruß Mario
 

MrToddsFriends

Documentation Browser
Joined
Jan 12, 2015
Messages
1,338

Vermutlich nirgends, außer auf einem Testsystem des Autors. Den Blog-Eintrag zum OpenZFS Device Removal verstehe ich als solchen (und wie dort beschrieben als "high level overview" über ein experimentelles ZFS-Feature --- oder vielleicht nur über einen "dirty ZFS-Hack"), nicht aber als Anleitung für Endanwender. Letztendlich schreibt der Autor, dass sein "Hack" nur funktioniert, wenn alle top level vdevs plain disks /files sind.

Keine Ahnung wie der aktuelle Stand ist, der Blog-Eintrag ist schon über ein Jahr alt. Wäre interessant, wenn sowas irgendwann auch für Mirror vdevs oder gar RaidZ1/2/3 vdevs funktionieren würde.

Ja ich hab es per Replikation versucht, aber werde nicht schlau draus.

Dein Plan klingt für mich nicht schlecht, ich fürchte aber dass ich auch nicht weiter helfen kann, bzw. sagen kann wieso die Replikation bei Dir abbricht. Ich mache meine Replikationen bis jetzt ausschließlich FreeNAS GUI gesteuert. Gibt's irgendwelche Fehlermeldungen, mit denen man etwas anfangen könnte?

Helfen Dir vielleicht die (oft recht anschaulichen) Beispiele in der Oracle ZFS Doku?
http://docs.oracle.com/cd/E26505_01/html/E37384/gavvx.html
http://docs.oracle.com/cd/E26505_01/html/E37384/gbchx.html
 

Semmelbrosel

Dabbler
Joined
Jul 5, 2013
Messages
12
Auf dem Freenas läuft ein Jail wenn man dieses neu startet dann bricht die Replikation ab.
So ein Dreck.
 

MrToddsFriends

Documentation Browser
Joined
Jan 12, 2015
Messages
1,338
Auf dem Freenas läuft ein Jail wenn man dieses neu startet dann bricht die Replikation ab.
So ein Dreck.

Neugierdehalber: Was läuft in diesem Jail? Ist das Jail Dataset ein Subset des replizierten Datasets?

Aber gut das Du einen Grund für den Abbruch der Replikation gefunden hast (und somit einen Weg aus der Misere).
 
Status
Not open for further replies.
Top