Primo NAS

Status
Not open for further replies.

dalbach

Dabbler
Joined
Dec 15, 2016
Messages
21
Ciao a tutti, chiedo consigli. Questa è la configurazione attuale:

- CASE: Chenbro RM31408 [in mio possesso]
- MOBO: Supermicro X10SLL-F [in trattativa]
- CPU: Intel Xeon E3-1220V3 [in trattativa]
- RAM: 4x8GB (Tot. 32GB) RAM ECC Kingston [in trattativa]

MOBO + CPU + RAM provengono dallo stesso utente

- HDD 8x4Tb (penso andrò sui WD red)

Devo abbinarci un alimentatore (tipo industriale 2U) [pensavo a lui https://www.amazon.it/dp/B008D89PXO...colid=QXOBZZEI0ZEN&psc=0&ref_=lv_ov_lig_dp_it] e una scheda HBA per connettere i due backplane del case.

Inoltre leggo di problemi con l'utilizzo di 32Gb di ram Kingston su schede tipo X10. Il problema è hardware o software (immagino che se funzionavano con un altro s.o. la cosa non dipenda da freenas).

Grazie a tutti quelli che mi vorranno dare una dritta!
 
Last edited:

Neuromancer

Explorer
Joined
Jan 14, 2015
Messages
91
Kingston la sconsiglio perché cambia il chipset dei banchi di ram mantenendo lo stesso codice modello, vai su altre marche più affidabili (guarda Crucial ad es).

Ti consiglio di esaminare la HCL (Hardware Compatibility List) di FreeNAS/FreeBSD e decidere di conseguenza.
 

dalbach

Dabbler
Joined
Dec 15, 2016
Messages
21
Kingston la sconsiglio perché cambia il chipset dei banchi di ram mantenendo lo stesso codice modello, vai su altre marche più affidabili (guarda Crucial ad es).

Ti consiglio di esaminare la HCL (Hardware Compatibility List) di FreeNAS/FreeBSD e decidere di conseguenza.
Grazie per il consiglio, ma se il sistema mobo + cpu + ram (che prenderei in blocco usato) ha funzionato per qualche anno, credo che la compatibilità sia certa?
 

Neuromancer

Explorer
Joined
Jan 14, 2015
Messages
91
meglio verificare prima che pentirsi dopo
 

glauco

Guru
Joined
Jan 30, 2017
Messages
526
Per quanto riguarda gli hard disk, io ho 6 WD RED da 3TB online H24 da un anno e mezzo e non ho mai avuto problemi, ma il mio utilizzo è molto leggero (SOHO).
Se ti interessa, due giorni fa BackBlaze ha pubblicato un aggiornamento delle statistiche sul loro parco di circa 100.000 hard disk: https://www.backblaze.com/blog/2018-hard-drive-failire-rates/
Hanno pochissimi WD RED. A leggere la tabella Lifetime Hard Drive Failure Rates, mi sembra che gli HGST vadano forte.
 

dalbach

Dabbler
Joined
Dec 15, 2016
Messages
21
Per quanto riguarda gli hard disk, io ho 6 WD RED da 3TB online H24 da un anno e mezzo e non ho mai avuto problemi, ma il mio utilizzo è molto leggero (SOHO).
Se ti interessa, due giorni fa BackBlaze ha pubblicato un aggiornamento delle statistiche sul loro parco di circa 100.000 hard disk: https://www.backblaze.com/blog/2018-hard-drive-failire-rates/
Hanno pochissimi WD RED. A leggere la tabella Lifetime Hard Drive Failure Rates, mi sembra che gli HGST vadano forte.
Ho visto un video proprio sulla Q3 di backblaze qualche giorno fa... Concordo con te su HGST, ma costano 40€in più dei WD...
Al momento ho appena terminato di installare l'hardware, mi manca la parte storage: ho 7 dischi da testare, provenienti da precedenti installazioni (tutti wd black o green da 1TB fino a 3TB), penso che 2 siano fallati, quindi almeno 3 nuovi hd sono sulla lista della spesa... magari farò un mix tra red e hgst. Poi pian piano cambierò anche i restanti per portare tutti sui 4TB.

Ho un dubbio, dato che stasera avvierò la mia prima installazione di Freenas ho visto che nella sezione download ci sono due versioni la 11.1 stabile e 11.2 beta, ma nei dettagli danno solo la beta con plugin. A me interessa transmission ma l'idea di montare una beta mi da qualche preoccupazione... Consigli?
 

enemy85

Guru
Joined
Jun 10, 2011
Messages
757
Ho un dubbio, dato che stasera avvierò la mia prima installazione di Freenas ho visto che nella sezione download ci sono due versioni la 11.1 stabile e 11.2 beta, ma nei dettagli danno solo la beta con plugin. A me interessa transmission ma l'idea di montare una beta mi da qualche preoccupazione... Consigli?

I plugin li trovi su entrambi, cambia solo che sulla 11.1 la jails create usano il vecchio sistema "warden" che sta per essere rimpiazzato da "iocage" nella 11.2 (in uscita prevista tra un 20-25gg la versione definitiva...per ora è uscita la 11.2 RC1 già più stabile delle beta). Consiglio spassionato se vuoi provare comincia già dalla 11.2 RC1, se ti serve qlc di estremamente stabile vai sulla vecchia e poi rifai le jail più in la
 

glauco

Guru
Joined
Jan 30, 2017
Messages
526
Infatti io guarderei anche al prezzo. Non so che uso devi farne, ma di solito se sono ventilati decentemente e non muoiono di mortalità infantile, i dischi dovrebbero durare. E ad ogni modo se ti muoiono mentre sono in garanzia, fai un RMA e te ne mandano uno nuovo.
Piuttosto, hai pensato a come organizzare il pool e i vdev all'interno del pool? Non so se ti sei informato, ma ZFS è abbastanza complicato e richiede uno studio approfondito e molta RAM. Ti consiglio di sperimentare parecchio a fare e disfare vdev, dataset, etc., sia da interfaccia grafica che da linea di comando. Attenzione a mettere nello stesso vdev dischi di dimensioni molto diverse perché potresti rimanere con spazio inutilizzato.
Anch'io sono d'accordo che conviene buttarsi direttamente sul nuovo (11.2-RC1), da cui dovresti poter upgradare alla 11.2-stable senza problemi, perché la 11.1 usa warden come software per creare le jail, che ormai è obsoleto, mentre la nuova 11.2 usa iocage, ormai lo standard de facto su FreeBSD.
 

dalbach

Dabbler
Joined
Dec 15, 2016
Messages
21
Infatti io guarderei anche al prezzo. Non so che uso devi farne, ma di solito se sono ventilati decentemente e non muoiono di mortalità infantile, i dischi dovrebbero durare. E ad ogni modo se ti muoiono mentre sono in garanzia, fai un RMA e te ne mandano uno nuovo.
Piuttosto, hai pensato a come organizzare il pool e i vdev all'interno del pool? Non so se ti sei informato, ma ZFS è abbastanza complicato e richiede uno studio approfondito e molta RAM. Ti consiglio di sperimentare parecchio a fare e disfare vdev, dataset, etc., sia da interfaccia grafica che da linea di comando. Attenzione a mettere nello stesso vdev dischi di dimensioni molto diverse perché potresti rimanere con spazio inutilizzato.
Anch'io sono d'accordo che conviene buttarsi direttamente sul nuovo (11.2-RC1), da cui dovresti poter upgradare alla 11.2-stable senza problemi, perché la 11.1 usa warden come software per creare le jail, che ormai è obsoleto, mentre la nuova 11.2 usa iocage, ormai lo standard de facto su FreeBSD.
Alla fine vorrei riuscire ad avere un volume da 8 dischi di 4TB in raidz2, e su questi avrei l'archivio casalingo: film, musica, foto (tramite HBA, un dell perc h310). Poi avrei lo spazio per altri due dischi da tenere come archivio delle cose assolutamente importanti, pensavo un mirror, questi via sata della mobo.
Ok per la 11.2 RC1, tanto prima di diventare operativo il tutto credo che arriverò a Natale...
 

glauco

Guru
Joined
Jan 30, 2017
Messages
526
Ok, comunque considera anche che i primi tempi (ma anche i secondi :-D ) è facile fare cappellate e perdere dati, quindi io, fossi in te, penserei anche ad un backup del backup, almeno dei dati che stanno solo sul NAS. Dato che sei in fase di progettazione, è il momento di tenerne conto! Se proprio vogliamo essere paranoici c'è anche la possibilità di un incendio di casa o furto del NAS e quindi gioverebbe un backup offsite su cloud o su altro NAS fuori casa.
Come avrai intuito, per me FreeNAS è eterno un work in progress da un anno a mezzo, quando ho iniziato. Una strada lunga e in salita per me che avevo un'idea solo vaga anche del S.O. sottostante (FreeBSD) ma ho imparato tante cose e dà molte soddisfazioni!
 

dalbach

Dabbler
Joined
Dec 15, 2016
Messages
21
Ho eseguito i primi test su una coppia di hd di cui uno mi aveva dato problemi in passato. Come faccio ad interpretare i dati?
Non ci capisco molto dalle guide...
 

glauco

Guru
Joined
Jan 30, 2017
Messages
526
Ti copio-incollo degli appunti che mi sono fatto un po' di tempo fa.
Dovrebbe esserti di aiuto. Se non capisci fammi sapere.

Copiare e incollare tutto il listato sottostante.
Premere “q” per passare all’hard disk successivo.
Verificare che gli ultimi campi siano “0” o “-“.
foreach i ( 1 2 3 4 5 6 )
echo "/dev/ada$i >"
smartctl -A /dev/ada$i | grep -E 'ID#|Reallocated_Sector_Ct|Current_Pending_Sector|Offline_Uncorrectable'
smartctl -l selftest /dev/ada$i
echo "-------------------------------------------------------------------------" | less
end
 

dalbach

Dabbler
Joined
Dec 15, 2016
Messages
21
Ti copio-incollo degli appunti che mi sono fatto un po' di tempo fa.
Dovrebbe esserti di aiuto. Se non capisci fammi sapere.

Copiare e incollare tutto il listato sottostante.
Premere “q” per passare all’hard disk successivo.
Verificare che gli ultimi campi siano “0” o “-“.
foreach i ( 1 2 3 4 5 6 )
echo "/dev/ada$i >"
smartctl -A /dev/ada$i | grep -E 'ID#|Reallocated_Sector_Ct|Current_Pending_Sector|Offline_Uncorrectable'
smartctl -l selftest /dev/ada$i
echo "-------------------------------------------------------------------------" | less
end
Più o meno ho capito che guardare. Gli ID importanti sono 5, 197, 198 (che corrispondono al pezzo del tuo codice ID#|Reallocated_Sector_Ct|Current_Pending_Sector|Offline_Uncorrectable). Se il RAW_VALUE è diverso da 0 le cose non vanno bene... ma quanto non vanno bene? Su 6 hd ne ho sicuramente due fallati con valori di molto sopra lo 0... ma per giocare con i volumi e i dataset posso avere problemi? I dati che ci butterò su per prova sono assolutamente inutili...
 

glauco

Guru
Joined
Jan 30, 2017
Messages
526
Per fare prove vanno benissimo, anzi, meglio che siano fallati! :-D
 

dalbach

Dabbler
Joined
Dec 15, 2016
Messages
21
Problemi...

Ho travato degli alert sul POOL che ho creato... DEGRADED.
Ho individuato il disco che da problemi... ho eseguito un long test via smartctl (partito ieri) ma non mi risulta sui test eseguiti...

Allego il log:
Code:
# smartctl -a /dev/da4
smartctl 6.6 2017-11-05 r4594 [FreeBSD 11.2-STABLE amd64] (local build)
Copyright (C) 2002-17, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:	 Western Digital Caviar Green (AF)
Device Model:	 WDC WD20EARS-00MVWB0
Serial Number:	WD-WCAZA6101069
LU WWN Device Id: 5 0014ee 2b05da87c
Firmware Version: 51.0AB51
User Capacity:	2,000,398,934,016 bytes [2.00 TB]
Sector Size:	  512 bytes logical/physical
Device is:		In smartctl database [for details use: -P show]
ATA Version is:   ATA8-ACS (minor revision not indicated)
SATA Version is:  SATA 2.6, 3.0 Gb/s
Local Time is:	Tue Oct 30 21:40:16 2018 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x82) Offline data collection activity
										was completed without error.
										Auto Offline Data Collection: Enabled.
Self-test execution status:	  (   0) The previous self-test routine completed
										without error or no self-test has ever
										been run.
Total time to complete Offline
data collection:				(37260) seconds.
Offline data collection
capabilities:					(0x7b) SMART execute Offline immediate.
										Auto Offline data collection on/off support.
										Suspend Offline collection upon new
										command.
										Offline surface scan supported.
										Self-test supported.
										Conveyance Self-test supported.
										Selective Self-test supported.
SMART capabilities:			(0x0003) Saves SMART data before entering
										power-saving mode.
										Supports SMART auto save timer.
Error logging capability:		(0x01) Error logging supported.
										General Purpose Logging supported.
Short self-test routine
recommended polling time:		(   2) minutes.
Extended self-test routine
recommended polling time:		( 360) minutes.
Conveyance self-test routine
recommended polling time:		(   5) minutes.
SCT capabilities:			  (0x3035) SCT Status supported.
										SCT Feature Control supported.
										SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME		  FLAG	 VALUE WORST THRESH TYPE	  UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate	 0x002f   200   200   051	Pre-fail  Always	   -	   0
  3 Spin_Up_Time			0x0027   253   253   021	Pre-fail  Always	   -	   1091
  4 Start_Stop_Count		0x0032   100   100   000	Old_age   Always	   -	   214
  5 Reallocated_Sector_Ct   0x0033   200   200   140	Pre-fail  Always	   -	   0
  7 Seek_Error_Rate		 0x002e   200   200   000	Old_age   Always	   -	   0
  9 Power_On_Hours		  0x0032   090   090   000	Old_age   Always	   -	   7538
 10 Spin_Retry_Count		0x0032   100   100   000	Old_age   Always	   -	   0
 11 Calibration_Retry_Count 0x0032   100   100   000	Old_age   Always	   -	   0
 12 Power_Cycle_Count	   0x0032   100   100   000	Old_age   Always	   -	   212
192 Power-Off_Retract_Count 0x0032   200   200   000	Old_age   Always	   -	   210
193 Load_Cycle_Count		0x0032   192   192   000	Old_age   Always	   -	   24903
194 Temperature_Celsius	 0x0022   124   105   000	Old_age   Always	   -	   26
196 Reallocated_Event_Count 0x0032   200   200   000	Old_age   Always	   -	   0
197 Current_Pending_Sector  0x0032   200   200   000	Old_age   Always	   -	   0
198 Offline_Uncorrectable   0x0030   200   200   000	Old_age   Offline	  -	   0
199 UDMA_CRC_Error_Count	0x0032   200   200   000	Old_age   Always	   -	   0
200 Multi_Zone_Error_Rate   0x0008   200   200   000	Old_age   Offline	  -	   0

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
Num  Test_Description	Status				  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline	   Completed without error	   00%	  7538		 -
# 2  Extended offline	Completed without error	   00%	  7346		 -

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
	1		0		0  Not_testing
	2		0		0  Not_testing
	3		0		0  Not_testing
	4		0		0  Not_testing
	5		0		0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.


Ma dalla gui lo status del pool è quello dell'immagine. Non saprei che altro guardare. Idee?
 

Attachments

  • Clipboard01.png
    Clipboard01.png
    22.7 KB · Views: 302

enemy85

Guru
Joined
Jun 10, 2011
Messages
757
il pool degradato, non necessariamente indica problemi di hd...c'è solo discrepanza tra i dati, che può anche essere dovuta a problemi della ram, cavi difettosi o mal collegati ecc. Il sistema autocorregge il problema con lo SCRUB (finchè la parità degli hd lo permette :) ).

Non sembra ci siano grossi problemi sull'HD, ma fai cmq un long test per sicurezza.
Noto solo 2 cose che nn mi piacciono:

1) vedo che il tuo disco una volta ha raggiunto i 45°C (valore 105 al campo n.194) e nn va bene...cerca di nn superare i 40...
2) valore molto alto di LOAD CYCLE COUNT...ma vedo che hai HD serie GREEN...per i red si può disabilitare il parcheggio della testina con "WDIDLE3 tool", vedi se possibile anche sui tuoi magari...considera che io con dischi di oltre 18000ore sto su valori di 495-500 LCC...
 

dalbach

Dabbler
Joined
Dec 15, 2016
Messages
21
il pool degradato, non necessariamente indica problemi di hd...c'è solo discrepanza tra i dati, che può anche essere dovuta a problemi della ram, cavi difettosi o mal collegati ecc. Il sistema autocorregge il problema con lo SCRUB (finchè la parità degli hd lo permette :) ).

Non sembra ci siano grossi problemi sull'HD, ma fai cmq un long test per sicurezza.
Noto solo 2 cose che nn mi piacciono:

1) vedo che il tuo disco una volta ha raggiunto i 45°C (valore 105 al campo n.194) e nn va bene...cerca di nn superare i 40...
2) valore molto alto di LOAD CYCLE COUNT...ma vedo che hai HD serie GREEN...per i red si può disabilitare il parcheggio della testina con "WDIDLE3 tool", vedi se possibile anche sui tuoi magari...considera che io con dischi di oltre 18000ore sto su valori di 495-500 LCC...
Non trovo riferimenti per interpretare i dati dei test... per esempio la conversione da 105 a 45 come la fai? Online trovo riferimenti generici a newsgroup o pagine inesistenti, sigh...
Per il 1) sono tutti dischi recuperati da una vecchia build (2011-2013) di un htpc in cui non davo molta importanza alla salvaguardia dei dati (mannaggia a me) quindi i 45° sono effettivamente raggiunti nel passato, ora viaggiamo sui 26-29.
Per il 2) nasce spontanea una richiesta di consulenza... dato che ho 8 alloggiamenti hot swap ma ho ricavato altri due slot fissi dai vecchi lettori cd... quale può essere una configurazione efficiente per ottimizzare spazio e ridondanza? Al momento l'obiettivo è di utilizzare i vecchi hdd (un misto di 1, 2, 3TB tutti WD delle serie black e green (sono a 5 funzionanti) aggiungendo un numero sifficiente di wd red da 4TB e poi sostituire nel tempo quelli vecchi con altrettanti 4TB rossi o magari un alternativa seagate o hgst. Pensavo o ad un pool da 10 dischi (in questo caso dovrei acquistare più dischi da 4TB subito), oppure ad un pool da 4 e uno da 6 e qui potrei montare prima un pool con i dischi in mio possesso e pian piano creare il secondo... Ma i due pool di questa seconda configurazione poi li potrei condividere come se fosse uno solo?
 

enemy85

Guru
Joined
Jun 10, 2011
Messages
757
Non trovo riferimenti per interpretare i dati dei test... per esempio la conversione da 105 a 45 come la fai? Online trovo riferimenti generici a newsgroup o pagine inesistenti, sigh...
Per il 1) sono tutti dischi recuperati da una vecchia build (2011-2013) di un htpc in cui non davo molta importanza alla salvaguardia dei dati (mannaggia a me) quindi i 45° sono effettivamente raggiunti nel passato, ora viaggiamo sui 26-29.
Per il 2) nasce spontanea una richiesta di consulenza... dato che ho 8 alloggiamenti hot swap ma ho ricavato altri due slot fissi dai vecchi lettori cd... quale può essere una configurazione efficiente per ottimizzare spazio e ridondanza? Al momento l'obiettivo è di utilizzare i vecchi hdd (un misto di 1, 2, 3TB tutti WD delle serie black e green (sono a 5 funzionanti) aggiungendo un numero sifficiente di wd red da 4TB e poi sostituire nel tempo quelli vecchi con altrettanti 4TB rossi o magari un alternativa seagate o hgst. Pensavo o ad un pool da 10 dischi (in questo caso dovrei acquistare più dischi da 4TB subito), oppure ad un pool da 4 e uno da 6 e qui potrei montare prima un pool con i dischi in mio possesso e pian piano creare il secondo... Ma i due pool di questa seconda configurazione poi li potrei condividere come se fosse uno solo?

1) per il discorso temperature, dipende dalla casa costruttrice, il raw value è la Temp in °C, mentre i valori a sinistra, vanno letti come (150 - valoreX). -> 150 è una unità normalizzata creata dalla WD
2) per il discorso configurazione dischi...la scelta non è così semplice, nel senso che di base dipende da cosa vuoi fare e cosa pretendi dal sistema
ad esempio:
coppie di mirror -> perdi tanto spazio in parità ma ottime prestazioni di velocità, necessarie specialmente nel caso di VM
raidz1 -> parità minima, per backup, non lo userei con più di 3/4 dischi
raidz2-> con 8-10dischi è il compromesso migliore nel caso di backup domestico
raidz3 -> per sistemi di produzione che nn possono assolutamente fermarsi

Considera inoltre che se metti assieme dischi di taglie diverse, il disco + piccolo condiziona tutti gli altri...esempio un unico volume con 4 dischi da 1,2,3,4 TB li considera tutti da 1TB...
magari scrivi cosa hai di funzionante e le tue esigenze e vediamo un po...
 

dalbach

Dabbler
Joined
Dec 15, 2016
Messages
21
1) per il discorso temperature, dipende dalla casa costruttrice, il raw value è la Temp in °C, mentre i valori a sinistra, vanno letti come (150 - valoreX). -> 150 è una unità normalizzata creata dalla WD
2) per il discorso configurazione dischi...la scelta non è così semplice, nel senso che di base dipende da cosa vuoi fare e cosa pretendi dal sistema
ad esempio:
coppie di mirror -> perdi tanto spazio in parità ma ottime prestazioni di velocità, necessarie specialmente nel caso di VM
raidz1 -> parità minima, per backup, non lo userei con più di 3/4 dischi
raidz2-> con 8-10dischi è il compromesso migliore nel caso di backup domestico
raidz3 -> per sistemi di produzione che nn possono assolutamente fermarsi

Considera inoltre che se metti assieme dischi di taglie diverse, il disco + piccolo condiziona tutti gli altri...esempio un unico volume con 4 dischi da 1,2,3,4 TB li considera tutti da 1TB...
magari scrivi cosa hai di funzionante e le tue esigenze e vediamo un po...
Il nas farà da archivio multimediale per la casa (film, musica, foto, documenti, ma principalmente film) + deluge che preferisco a transmission.

Al momento di funzionante ho questo:
  • 1TB WD Balck
  • 2x2TB WD Green
  • 2x3TB WD Green
  • 1x4TB WD Red
+ 1TB Black e 3TB Green fallati... che uso per le prove.

Credo che la soluzione migliore per i miei usi sia un unico pool in raidz2 di 10 dischi.

Al momento sto giocando con i task, SMART non capisco come funziona... che tipo di mail dovrebbe mandare alla fine dei test? Ho creato (oltre ai test short settimanali e al long mensile) un test generico da far girare una tantum... ma l'unica mail che mi arriva (dopo parecchio tempo tra l'altro) è relativa ad un generico aumento del contatore degli errori del disco fallato.
SCRUBS è sufficiente lasciarlo impostato come da default (ovvero ogni 35gg)?

Grazie ancora per l'aiuto.
 

enemy85

Guru
Joined
Jun 10, 2011
Messages
757
Il nas farà da archivio multimediale per la casa (film, musica, foto, documenti, ma principalmente film) + deluge che preferisco a transmission.

Al momento di funzionante ho questo:
  • 1TB WD Balck
  • 2x2TB WD Green
  • 2x3TB WD Green
  • 1x4TB WD Red
+ 1TB Black e 3TB Green fallati... che uso per le prove.

Credo che la soluzione migliore per i miei usi sia un unico pool in raidz2 di 10 dischi.

Al momento sto giocando con i task, SMART non capisco come funziona... che tipo di mail dovrebbe mandare alla fine dei test? Ho creato (oltre ai test short settimanali e al long mensile) un test generico da far girare una tantum... ma l'unica mail che mi arriva (dopo parecchio tempo tra l'altro) è relativa ad un generico aumento del contatore degli errori del disco fallato.
SCRUBS è sufficiente lasciarlo impostato come da default (ovvero ogni 35gg)?

Grazie ancora per l'aiuto.

se ora come ora pensi di fare un raidz2 con 10 dischi, suppongo tu voglia usare i 6 esistenti + 4 nuovi (da 4TB?)...solo che ti ritroveresti alla fine con un volume usabile di soli 8TB (10 dischi limitati dal più piccolo da 1TB meno 2 dischi per la parità) a fronte di 31TB di dischi...non mi sembra una grandissima idea...
Personalmente, lascerei stare quello da 1 TB, con i 2x2TB e 2x3TB farei un volume raidz1 per cominciare (6TB usabili su 10 di dischi), poi magari più in la, acquisti 5 anzichè 4 dischi da 4TB (che diventano 6 col tuo che già hai) e ti fai un secondo volume raidz2 da 6 dischi con 16TB disponibili su 24TB di dischi.
Alla fine nessuno ti vieta di avere un pool con più volumi.
il problema è decidere se hai necessità di spazio subito o meno, e se vuoi investire ora o aspettare e comprare dopo i dischi a minor prezzo.

nel caso volessi provare un po di configurazioni

https://wintelguy.com/zfs-calc.pl
 
Status
Not open for further replies.
Top