Hat FreeNAS ein Problem mit 8 TB-HDDs?

Status
Not open for further replies.

Thomas_s-h

Contributor
Joined
Feb 7, 2013
Messages
140
Hallo,

solange ich nur 4 TB große HDDs im Server hatte hat FreeNAS 9.2.x gut funktioniert. Seit ich 2 8 TB HDDs im Server habe (rund 8 Wochen) funktioniert fast gar nichts mehr bzw. ich bekomme unsinnige (Fehler)meldungen.

Ich versuche jetzt einmal alles in zeitlicher Reihenfolge zu berichten, vielleicht gibt es ja eine Lösung. Falls nicht, dann muß ich mich nach einem anderen Server-BS umsehen.

Ausgangslage: Desktoprechner ist ein Mac OSX (auf dem aktuellem Mac Mini). Als Server habe ich seit über einem Jahr einen Proliant N40L mit 8 GB RAM und FreeNAS 9.2.x (aktuell: FreeNAS-9.2.1.9-RELEASE-x64 (2bbba09)). Dieser Server hatte 4*4 TB Platten drin, je 2 als ein Volume zusammengefaßt. Außer eine recht schlechten Datenrate funktionierte da alles zu meiner Zufriedenheit.

Dann habe ich im April 2015 2 Stück 8TB HDDs gekauft (Seagate Archive HDD ST8000AS0002 8TB). Ich habe 2 der 4er HDDs entnommen und eine 8er eingebaut und versucht, die Daten von den 4ern auf de 8er zu kopieren. Mit rsync habe ich eine Datenrate von 80-100Kilobit/Sekunde bekommen - bei einer realen Übertragungsgeschwindigkeit von 800Kilobyte/Sekunde wenn ich vom Desktop auf den Server (oder zurück) kopiere. Also völlig inakzeptabel um eine Kopie anzufertigen. Nach vielen Versuchen (auch über den Desktop - aber bei einigen TB am Stück ist mir der Mac immer eingefroren) habe ich das aufgegeben und einen 2. Server gekauft (Proliant Gen8).

Also die 8er HDDS in den neuen Server, die 4 4er wieder in den Alten. Mit rsync wieder probiert, aber der alte Server (etwas Leistungsschwächer) war da denn bei 2 rsync-Aufträgen am CPU-Anschlag (100% CPU-Usage). Trotzdem wieder nur zwischen 100 und 200Kilobit/Sekunde Übertragungsrate. Dazu kam, das als die 8er HDD zu 98 oder 99% fertig war irgendein Mist auf einmal rund 3 TB an Daten auf der HDD gelöscht hatte.

Das Spiel (immerhin ist so ein Kopierauftrag über 5 (!) Tage gelaufen) wiederholte sich 2 mal. Egal ob ich vom Alten zum Neuen rsynce ("drücke") oder der Neue "zieht".

Das ich inzwischen nervlich auch bei 100% Stress bin muß ich wohl nicht weiter ausführen.

Dann habe ich mich mit der Replizierungsaufgabe versucht. Ich bin Wort für Wort nach der Anleitung von FreeNAS vorgegangen, aber ich bekam IMMER zwei Fehlermeldungen: No. 1: No ECDSA host key is kown for 192.168.2.112 [...], obwohl ich in Einstellungsdialog am altem Server (192.168.2.109) den Knopf für das automatische holen des Schlüssels gedrückt habe. Auch die Fehlerhandhabung in der Anleitung (prüfen, ob der SSH-Schlüssel auf der anderen Seite im System liegt => ja, liegt dort, Byte für Byte verglichen) habe ich befolgt. Aus Frust habe ich dann noch den jeweiligen Key jedes Servers auf den anderen kopiert (User: Root), aber die Fehlermeldung geht nicht weg.

Die zweite Meldung ATTENTION: A periodic snapshot of a given ZFS Volume/Dataset is required to create a replication task erscheint in Rot im Fenster ZFS Replizierung, obwohl ich inzwischen von diesem Pool über 1000 Snapshots auf der Platte liegen habe.

Warum die Fehlermeldungen? Was ist ECDSA?

Gestern habe ich dann die 8er HDD (die 2. ist erstmal nicht eingebaut) noch mal als neu markiert, gelöscht und versuche nun nur ein Pool (2 4TB-HDDs im altem Server) auf eine "frische" 8TB-HDD im neuem Server zu kopieren. Jetzt läuft rsync auf einmal gar nicht mehr.

Also: Hat Freenas ein Problem mit großen Platten oder warum läuft das jetzt nicht?

Leider ist mein englisch sehr mager, so das ich nicht in der Lage bin diesen Text zu übersetzten. Ich werde mal den Googel-Übersetzter probieren und den Text zusätzlich in die englische Gruppe stellen.

Thomas
 

Attachments

  • Bildschirmfoto 2015-06-13 um 10.10.48.pdf
    567.7 KB · Views: 365
  • Bildschirmfoto 2015-06-13 um 10.06.45.pdf
    427 KB · Views: 304
  • Bildschirmfoto 2015-06-13 um 10.06.32.pdf
    435.9 KB · Views: 280

Ericloewe

Server Wrangler
Moderator
Joined
Feb 15, 2014
Messages
20,194
So tauscht man Platten definitv nicht aus. Dazu gibt es eine sehr spezifische Anleitung im Manual, die gar nichts mit rsync zu tun hat. Sollte es am Ende zwei identische Pools geben, ist da ZFS Replication viel sinnvoller. Mit rsync werden nur Daten und Verzeichnisse kopiert, keine ZFS Strukturen wie Snapshots werden kopiert.

Probleme mit 8TB Platten gibt es nicht, außer dass sie eher langsam sein können.

Jetzt, warum hat das gar nicht funktioniert? Dazu wäre es gut den Output von zpool status zu wissen.

Ehrlich gesagt, wirkt die ganze Geschichte etwas seltsam.
 

Kurti2k

Contributor
Joined
Mar 9, 2014
Messages
155
Hi

ich habs bisher nich getestet aber evtl ein ansatz ?
http://docs.oracle.com/cd/E18752_01/html/819-5461/gbchx.html

ich hab meine daten auch schon einige male von server zu server mitgenommen indem ich mir einen extra hba eingebaut habe und daran einige platten im raidz2 und dann alle daten mit cp kopiert innerhalb des servers was recht zügig ging

dann die "alten" platten in den neuen server mit dem backuppool und dann wieder alles zurück

mfg marcel
 

Ericloewe

Server Wrangler
Moderator
Joined
Feb 15, 2014
Messages
20,194
ich habs bisher nich getestet aber evtl ein ansatz ?
http://docs.oracle.com/cd/E18752_01/html/819-5461/gbchx.html
Oracle ZFS ist inzwischen etwas anders als openZFS, also ist es besser nie Anleitungen von Oracle zu benutzen.

ich hab meine daten auch schon einige male von server zu server mitgenommen indem ich mir einen extra hba eingebaut habe und daran einige platten im raidz2 und dann alle daten mit cp kopiert innerhalb des servers was recht zügig ging
Ist natürlich möglich, würde ich aber auch mit ZFS replication machen, um die Struktur des Pools mit zu kopieren.
 

Thomas_s-h

Contributor
Joined
Feb 7, 2013
Messages
140
So tauscht man Platten definitv nicht aus.

Wie denn?

Dazu gibt es eine sehr spezifische Anleitung im Manual, die gar nichts mit rsync zu tun hat. Sollte es am Ende zwei identische Pools geben, ist da ZFS Replication viel sinnvoller.

Wo? Ich habe so eine Anleitung nicht gefunden. Mag sein, weil die Anleitung in englisch ist.

Mit rsync werden nur Daten und Verzeichnisse kopiert, keine ZFS Strukturen wie Snapshots werden kopiert.
Genau das (Daten & Verz.) will ich ja kopieren. Aber ohne den Ärger und Stress den ich derzeit habe.


Probleme mit 8TB Platten gibt es nicht, außer dass sie eher langsam sein können.

Langsamer als die derzeitige Datenrate ist wohl kaum zu machen... ;-((

Jetzt, warum hat das gar nicht funktioniert? Dazu wäre es gut den Output von zpool status zu wissen.

Ehrlich gesagt, wirkt die ganze Geschichte etwas seltsam.

Von wem, der Quelle oder dem Ziel?

Leider läßt sich die Ausgabe im Terminalfenster innerhalb des Browserfensters nicht per "Copy"-Funktion kopieren. Da steht nur mehfach "Online" und "No known errors". Sonst siehe Bilddatei.

Thomas
 

Attachments

  • Bildschirmfoto 2015-06-13 um 20.35.35.pdf
    91 KB · Views: 271

Ericloewe

Server Wrangler
Moderator
Joined
Feb 15, 2014
Messages
20,194
Langsamer als die derzeitige Datenrate ist wohl kaum zu machen... ;-((



Von wem, der Quelle oder dem Ziel?

Leider läßt sich die Ausgabe im Terminalfenster innerhalb des Browserfensters nicht per "Copy"-Funktion kopieren. Da steht nur mehfach "Online" und "No known errors". Sonst siehe Bilddatei.

Thomas

Sieht nicht besonders gut aus. Was ist der output von smartctl -a /dev/adaX (für alle Festplatten)?

Hier gibt es zwei Pools - und beide scheinen Probleme zu haben.

"ada4_303" hat eine sehr große Menge Fehler - ZFS konnte sie nicht korrigieren, weil nur eine Festplatte ohne redundanz vorhanden ist.

"G8-eigeneada0" läuf gerade ein Scrub - aber extrem langsam. Das klingt wie eine defekte Festplatte.

Defekte Festplatten können hier die Ursache des Problems sein.


Wie denn?

http://doc.freenas.org/9.3/freenas_storage.html#replacing-drives-to-grow-a-zfs-pool
http://doc.freenas.org/9.3/freenas_storage.html#replacing-a-failed-drive
 

Thomas_s-h

Contributor
Joined
Feb 7, 2013
Messages
140
Sieht nicht besonders gut aus. Was ist der output von smartctl -a /dev/adaX (für alle Festplatten)?

Für die 8TB: Siehe Bilddatei. Die ada4_303 ist defekt, das ist ein anderes Problem (durch Unachtsamkeit selbst verursacht). Da sind die Daten aber noch lesbar.


"G8-eigeneada0" läuf gerade ein Scrub - aber extrem langsam. Das klingt wie eine defekte Festplatte.

Defekte Festplatten können hier die Ursache des Problems sein.

Dann werde ich mal die andere 8er probieren. Die 2. HDD ist jetzt (anstelle der 1.) eingebaut und rsysnc ist mit 10MByte/s nicht wirklich schnell, siehe 2. Bild.

Die Links schau ich mir noch an.

Thomas
 

Attachments

  • Bildschirmfoto 2015-06-13 um 21.08.11.pdf
    303.5 KB · Views: 314
  • Bildschirmfoto 2015-06-13 um 22.26.42.pdf
    637.4 KB · Views: 377
Last edited:

Ericloewe

Server Wrangler
Moderator
Joined
Feb 15, 2014
Messages
20,194
Da gibt es keine eindeutige Probleme. Interessant ist dass die Platte 10x mehr geschrieben hat als gelesen. Könnte mit der niedrigen Datenrate zu tun haben.
 

Kurti2k

Contributor
Joined
Mar 9, 2014
Messages
155

Kurti2k

Contributor
Joined
Mar 9, 2014
Messages
155
sry falls ich deine mac ehre verletzt haben sollte :confused:
es gibt sicher auch ssh clients für mac user

mfg marcel
 

flatterlight

Explorer
Joined
Oct 19, 2014
Messages
58
@Thomas_s-h
Mach mal das Terminal auf, dann gibst du "ssh root@'hostname oder IP Adresse' " ein...

Flatterlight
 

Thomas_s-h

Contributor
Joined
Feb 7, 2013
Messages
140
Hallo,

fast hätte ich gesagt "Es läuft", denn von 6,3 sind 6,1 TB übertragen. aber dann...

Seit heute ca. 6 Uhr werden die Daten nur noch mit 10MByte/s (statt zuvor 80-100MByte/s) kopiert, dann wieder gelöscht, dann wieder kopiert, dann gelöscht, dann kopiert, dann ...

Ich sehe da an der Anzeige der "Benutzen" Daten. Die Quelle hat
6.308.588.154.880 Byte (6,31 TB auf dem Volume) (unverändert seit mehr als einer Woche)

und das Ziel hat

6.301.221.834.752 Byte (6,3 TB auf dem Volume) (12:13 Uhr)
6.301.208.031.232 Byte (6,3 TB auf dem Volume) (12:14)
6.301.226.127.360 Byte (6,3 TB auf dem Volume) (12:16)
6.301.364.576.256 Byte (6,3 TB auf dem Volume) (12:17)
6.301.392.887.808 Byte (6,3 TB auf dem Volume) (12:18)
6.301.182.705.664 Byte (6,3 TB auf dem Volume) (12:19)
6.301.530.124.288 Byte (6,3 TB auf dem Volume) (12:20)
6.301.018.361.856 Byte (6,3 TB auf dem Volume) (14:20)

und so weiter seit rund 8 Stunden. Warum???

Dabei passiert auf dem Quellserver GAR NICHTS, es kommt nichts hinzu, es wird nichts gelöscht...

Auf beiden Servern läuft FreeNas 9.2.1.9. Die Anzeige der Datenmenge ist das, was das Mac OS X auf dem Server sieht, also nur Nutzdaten, keine Snapshots oder anderer Verwaltungskram.

Thomas
 

Kurti2k

Contributor
Joined
Mar 9, 2014
Messages
155
hi

evtl hast du irgendwo eine nicht lesbare datei die dir die probleme bereitet
wenn du die sachen manuell kopierst und versuchst das problem einzugrenzen ?

mfg marcel
 

Thomas_s-h

Contributor
Joined
Feb 7, 2013
Messages
140
Mir ist keine solche Datei bekannt.

Da ich nicht weiss welche Datei(en) nicht kopiert wurden habe ich erst gar nicht versucht Teile von HAnd zu kopieren.

Thomas
 

Kurti2k

Contributor
Joined
Mar 9, 2014
Messages
155
deswegen einfach versuchen von hand zu kopieren, also via "cp" befehl dann hast du wenigstens einen teil erfolgreich kopiert
oder du schleifst alles über deinen rechner via ftp (zb flashfxp zeigt einem lückenlos die fehlerhaften stukturen an die nicht kopiert werden konnten)

sodass man sehen kann was einem verloren geht und dann entscheiden kann obs wichtig oder unwichtig bzw verschmerzbar ist zwecks wiederbeschaffung

mfg marcel
 
Last edited:
Status
Not open for further replies.
Top