SOLVED Riconfigurazione NAS, dischi e plugin

Davvo

MVP
Joined
Jul 12, 2022
Messages
3,222
Quando all'inizio avevo provato Next Cloud avevo creato la jails nell'unica pool che avevo... Anche adesso ho una sola pool, posso crearla lì o è meglio un disco/pool separata?
L'ideale è avere sempre jails e apps su una pool di SSD, e mappare eventuali spazi di storage sulla pool degli HDD (i mount points delle jails sono un qualcosa di favoloso).
Ovviamente nel caso di utilizzo per DB potrebbe convenirti non mappare lo storage sugli HDD, vedi un attimo tu.
 

oxyde

Contributor
Joined
Nov 9, 2023
Messages
188
L'ideale è avere sempre jails e apps su una pool di SSD, e mappare eventuali spazi di storage sulla pool degli HDD (i mount points delle jails sono un qualcosa di favoloso).
Ovviamente nel caso di utilizzo per DB potrebbe convenirti non mappare lo storage sugli HDD, vedi un attimo tu.
Chiara la prima parte, questo invece non mi è chiaro (forse solo perché effettivamente non ho HDD?).
Ci sono eventualmente problemi se attivassi 3 pool (una, l'attuale, sui 2 SSD per lo storage dei file che "leggo" spesso, una non in parità con un SSD adibito alla VM, e una con dischi CMR più capienti per lo storage ed eventuali backup di "primo livello") o meglio fermarsi a 2 (quindi l'attuale andrebbe alla VM, e passo tutto lo storage su HDD)
 

Davvo

MVP
Joined
Jul 12, 2022
Messages
3,222
Puoi usare quelle che vuoi, e mappare dove vuoi. Esempio: nella jail usi Plex e hai una cartella chiamata media; posso impostare che la cartella media è in realtà un dataset della pool di HDD che hai, pur avendo la jail in un'altra pool SSD, e alla jail sembrerà tutto interno.
 

oxyde

Contributor
Joined
Nov 9, 2023
Messages
188
sto riscontrando un problema, e non riesco ad andare avanti nell'utilizzo di una VM.
Chiedo qui, sperando sia una cavolata e sappiate subito aiutarmi xD
- ho creato un dataset nella pool più "veloce", ho assegnato le ACL (non so se necessario, ma nel dubbio...)
- ho impostato una VM con pochissime risorse, boot UEFI, VNC Attivo, bind su ip 192.168.1.150

5f9577c93886d363acaeda1f506c87df.png


- immagine disco selezionata (ho provato Win 10 e 8.1), e messo come primo device in ordine
bc743e83c4eb305dd17a506fc076fbe8.png


- avvio la VM, mi ci collego ma resto in questa schermata

4a5905b7e2c6e1ca256eb3cc04995d7f.png


se provo a scrivere "exit" appare un messaggio per una frazione di secondo (non sono riuscito a leggerlo) e poi penso si sposti nel bios, solo che mi appare così

410bd39921aa81196317e78bf9e03160.png


Avete qualche idea? Premendo i pulsanti si vedono dei minimi cambiamenti, ma non riesco proprio a capire cosa sto facendo così xD
Ho provato anche a cambiare la risoluzione del VNC senza apparentemente nessun miglioramento...


EDIT: 640x480, risolto così, vado avanti xD
 
Last edited:

oxyde

Contributor
Joined
Nov 9, 2023
Messages
188
Buon anno a tutti!
Il 2024 per me comincia abbastanza male, lato NAS xD
Tutto è cominciato ieri (prima di panettoni e spumanti!) durante "gli esperimenti" di installazione di una VM: risolti i problemi di risoluzione ho concluso velocemente l'installazione che avevo cominciato, con risorse limitate; dopo averla usata un po' l'ho semplicemente "gettata" in quanto potevo sì espandere ram/cpu ecc ma per espandere la capacità del disco avevo difficoltà (avendo caricato in automatico l so su partizioni non contigue non potevo espandere il disco principale) e ho ricominciato.
Ho provato ad allocare più risorse, tra cui 8gb di ram, ma ho visto che ne veniva allocata molta di più ai servizi lasciando la zfs cache praticamente vuota... e ho avuto delle disconnessioni (o reboot, purtroppo non ho il monitor collegato al nas) durante l'installazione del sistema operativo nella vm.
E' arrivato un messaggio di errore da uno dei due dischi:
Code:
New alerts:
* Device /dev/gptid/9aa22d5c-9e9e-11ee-bacc-1cfd0879a7f9 is causing slow I/O on
pool SSDPool.

una rapida ricerca non mi ha dato risultati che rispecchiavano la situazione, così ho momentaneamente spento la macchina e ripreso a trafficarci stamattina.
Ho effettuato una nuova prova stamane, cercando di allocare meno risorse... stesso problema della ram totalmente saturata dal sistema - stessa disonnessione (molto più breve stavolta) - stesso messaggio di errore precedente.
Ho provato a spegnere la vm e la situazione è degenerata, degrado della pool e disco rimosso:
Code:
* Pool SSDPool state is DEGRADED: One or more devices has been removed by the
administrator. Sufficient replicas exist for the pool to continue functioning
in a degraded state.
The following devices are not healthy:

* Disk SSD 1TB 000360 is REMOVED

avevo i backup fatti la scorsa settimana, ma in ogni caso sfruttando il disco online ho backuppato di nuovo i dati importanti offline.
Il disco effettivamente non era più visibile nella gui, e non compariva da shell; ho cercato - chiesto a chat gpt e alla fine ho tentato di rimetterlo online eseguendo il comando da shell.
Al ravvio della macchina, la pool è tornata online e ha cominciato il resilvering del disco
b079308e5592acc06997e4a0519cb850.png


d59f6b60f5247a1c9a0c0129e693af1e.png


pensavo fosse tutto ok, invece durante il processo il disco è stato nuovamente rimosso e la pool è tornata degraded.

Ho rispento la macchina, deciso a fare il reso del disco (neanche 40 ore di utilizzo...) lo collego alla workstation via usb e crystaldisck info lo rileva come BUONO
3532bdc5aa6d395531bf04725c87a416.png


test rapido di hdtune non rileva settori danneggiati...

Onestamente non riesco proprio a capire cosa gli prenda, cosa posso provare?
 

Davvo

MVP
Joined
Jul 12, 2022
Messages
3,222
Mi ristudio il thread e ti dico qualcosa, intanto fai partire una analisi del disco da Windows.
Se hai auto-trim arrivo nella pool, disattivalo e imposta un cronjob ogni 14/28 giorni (in base a quanto scrivi sul disco) zpool trim SSDPool.
 
Last edited:

oxyde

Contributor
Joined
Nov 9, 2023
Messages
188
Mi ristudio il thread e ti dico qualcosa, intanto fai partire una analisi del disco da Windows.
Se hai auto-trim arrivo nella pool, disattivalo e imposta un cronjob ogni 14/28 giorni (in base a quanto scrivi sul disco) zpool trim SSDPool.
intanto ancora grazie infinite per il supporto!
Abbi pazienza, magari è scontato ma a questo giro comincio ad avere un po' paura come mi muovo: al momento ho spento il nas e smontato il disco, non ho fatto per esempio il detach; per effettuare il test su windows devo per forza formattare l'unità e assegnargli "una lettera", e dopo posso effetture il chkdsk (se è questo il test che intendi). E' meglio che prima provveda a scollegare il disco dalla pool o non è necessario, anche se poi verrà formattato?
Inoltre non so se possa essere d'aiuto o fare al caso mio, mi ero imbattuto in questa SUITE quando testavo la stabilità del sistema, c'è qualcosa di utile da avviare da chiavetta?
Appena posso riaccendere la macchina verificherò l'auto-trim (che a memoria mi pare fosse attivato) e lo sposto in un cronjob (ogni 28 giorni penso andrà bene, scrivo relativamente poco sui dischi)
 

Davvo

MVP
Joined
Jul 12, 2022
Messages
3,222
Ha poco senso eseguire un software detach: se il disco è a posto, lo si reinserisce e ti parte automaticamente il resilver; se non è a posto, inserisci quello nuovo e fai un software replace (e anche qui parte automaticamente un resilver).

Facciamo così, lancia un memtest86+ (da quella suite o ancora meglio da una chiavetta USB con immagine apposita montata, io uso balena etcher) e lascialo lavorare per qualche ora (fagli completare almeno un passaggio completo); è possibile che non rilevi la tastiera, quindi semplicemente nel caso spegni il sistema quando ha finito e rimuovi la chiavetta. Questo test serve per escludere problemi legati alle ram.

Poi riattacca il disco nel NAS cambiando porta e spegni/non fare partire la VM, poi lancia un zpool clear SSDPool seguito da un zpool status -t SSDPool: posta il risultato di quest'ultimo; dovrebbe partirti il resilver e concludersi senza problemi.

Se continua a darti problemi bisognerà continuare a fare torubleshooting passando da cavi ed alimentatore; che modello sono gli ssd?
 

oxyde

Contributor
Joined
Nov 9, 2023
Messages
188
ho avviato il memtest (che sta procedendo regolare, quasi 3 ore, ne avevo comunque fatto uno completo un mesetto fa o poco più), e nel frattempo ho provato a fare qualche test sul disco dall'altro pc ma niente, non c'è verso: sia collegandolo internamente che collegandolo via USB non riesco nemmeno a formattarlo che si spegne/non viene più visto dal SO (provato sia con la gestione disco di Windows11 che con Aomei Partition Assistant) e mi rallenta tutto finchè non lo stacco (a volte ho dovuto farlo forzatamente da usb)... praticamente scenario simile a quanto mi è successo su TN.
Ti posso confermare che avevo già provato il comando di clear sulla pool prima di ravviare la macchina dopo averlo riattivato, ma il resilvering non è andato comunque a buon fine già dopo pochissimo tempo (questo è il LINK alla risorsa che ho trovato).

Ero andato in confusione perchè sembrava funzionare collegato via usb (veniva letto dal so) ma non penso ci siano più dubbi si sia rotto o fosse proprio difettoso dal principio... non penso serva indagare oltre ma dimmi tu se ci sono altri modi di verificarne il corretto funzionamento.
Nel frattempo ho già avviato la procedura di reso, che non mi costa nulla ma prima che emettano il rimborso passerà qualche settimana :mad: e sono fermo di nuovo finchè non arriveranno gli altri dischi che ho ordinato settimana scorsa (ho trovato un WD10EFRX da un privato quasi nuovo e un'altro a 2 soldi su uno store online , che però non so in che condizioni reali sia, ma dato che costava veramente poco ho rischiato che se arriva disastrato ho il reso gratuito anche lì, e almeno ho parità anche in quest'altra pool).
Altra cosa che mi secca parecchio è che vorrei formattare sto ssd prima di inviarlo (dentro ci sono i miei dati!!) ma non so proprio come fare

edit: ovvio ma memtest passato senza errori e senza temperature allarmanti

edit2: io penso che sto SSD mi prenda in giro... ieri sera ho fatto svariati tentativi infruttuosi, non veniva neanche riconosciuto dal bios... stamattina quasi per gioco lo ricollego via usb e riesco a formattarlo senza problemi, ho lanciato il chkdsk e non evidenzia nulla, adesso lo sto anche passando con hdtune...
 
Last edited:

oxyde

Contributor
Joined
Nov 9, 2023
Messages
188
7851177032c00e43ad9543b709a1f478.png


Io onestamente non capisco cosa diavolo sia successo... vediamo come procede anche se non sono così tranquillo.
Smart long sul disco senza errori, nessun settore danneggiato, auto trim ricordavo male è disattivata (aggiungerò il cronjob come consigliato), per togliersi ogni dubbio ho cambiato cavo sata
 

Davvo

MVP
Joined
Jul 12, 2022
Messages
3,222

oxyde

Contributor
Joined
Nov 9, 2023
Messages
188
Probabilmente assegnare 8GB di RAM alla VM ha causato instabilità.
è stato anche il mio primo pensiero quando ho avuto il primo blocco, però è altrettanto vero che la ram disponibile per le VM era effettivamente 12gb, questa è la situazione attuale (sostanzialmente uguale a quella pre-disastro, sto ancora facendo il resilvering e ho disattivato momentaneamente SMB)
3d79a1e5b5399c1b4f0346e236d6b91a.png

f49106285421383dc720b961e45c82a4.png


non penso di aver esagerato sinceramente, ero ampiamente sotto la RAM disponibile... Ovviamente nel mentre che usavo la VM non stavo facendo altre attività (per lo meno non io direttamente).
Purtroppo su questa piattaforma non è pensabile passare a 32gb per n motivi (poca reperibilità di moduli ddr3 da 16gb no-ecc, probabile instabilità della mobo, ho solo 2 slot ram e non posso optare per un assetto che comunque mi piace poco di 8gbx4).

La questione che proprio mi sfugge è perchè se decido di allocare anche solo 4 giga di ram, all'accensione della VM ne venga in realtà allocata tutta quella disponibile causandomi questi problemi di instabilità...
Intanto aspetto il termine del resilver (dalle 9:40 è al 73%, non oso immaginare chi debba sostituire dischi più grandi:eek:), butto via la VM che è rimasta lì e metto da parte un attimo tutto... quando creerò la nuova pool trasferirò i dati anche lì in modo che se si ripresentasse il problema non rischio di dover usare i backup offline

Edit: finito poco fa il resilver, 0 errori... Ho lanciato l'ennesimo Smart long e ti posto il risultato
 
Last edited:

Davvo

MVP
Joined
Jul 12, 2022
Messages
3,222
La questione che proprio mi sfugge è perchè se decido di allocare anche solo 4 giga di ram, all'accensione della VM ne venga in realtà allocata tutta quella disponibile causandomi questi problemi di instabilità...
Quando usavo VM qualche versione fa ciò non succedeva. Se ti risuccede con una nuova VM posta nella sezione inglese per avere conferma di un possibile bug.

L'SSD probabilmente è a posto.​
 

oxyde

Contributor
Joined
Nov 9, 2023
Messages
188
Quando usavo VM qualche versione fa ciò non succedeva. Se ti risuccede con una nuova VM posta nella sezione inglese per avere conferma di un possibile bug.

L'SSD probabilmente è a posto.​
Stavo per aprire un topic nel forum internazionale, ed il sistema mi ha proposto un paio di vecchi thread... da lì seguendo le stesse parole chiave ho letto varie discussioni anche più recenti di utenti temerari come me, ed il mio stesso problema (o comunque situazioni similari).
Giustamente, al di là della RAM che allochi alla VM, ne serve un quantitativo per niente trascurabile per il mantenimento della stessa (che sia 1 o più) e 16gb sono pochi; aver assegnato 8gb alla VM ha causato sicuramente il disastro (e probabilmente mi son portato dietro il degrado nel disco anche dopo il ravvio della macchina, per questo non sono più riuscito ad avviare correttamente le VM).
Servirà senza ombra di dubbio passare a piattaforma più recente, con questa l'upgrade della RAM non è fattibile...
Per l'ennesima volta, ho peccato di ingenuità. TN mi sta scottando parecchio!:smile:
 

oxyde

Contributor
Joined
Nov 9, 2023
Messages
188
Ieri è arrivato uno dei due WD10EFRX che ho ordinato, precisamente quello acquistato presso shop online di rivendita usato (e che sopra vi avevo accennato aver comprato "a scatola chiusa" a cifra molto bassa).
Premetto che non conoscevo questo circuito, ci sono incappato per caso da Google, e visto che ho pagato con Paypal - vantano ventennale esperienza nell'elettronica usata - offrono comunque garanzia 2 anni sui loro prodotti mi sono tuffato.
Visto il prezzo basso di acquisto mi aspettavo comunque un disco abbastanza usato... ed invece sono rimasto sorpreso, perchè è sostanzialmente già morto e inutilizzabile :tongue::tongue::tongue::tongue:
Esatto, un fermacarte spacciato per hard disk o_O Se avete hardware da rottamare, invece di buttarlo vendetelo pure a loro xD

A parte il sarcasmo... vorrei giusto capire se ho fatto qualcosa di sbagliato e approfittare della cosa per imparare qualcosa in più:
il disco l'ho subito provato attaccandolo via usb alla workstation per un rapido smart, e già evidenziava uno stato critico con dei settori pendenti ed un numero di accensioni elevato rispetto le ore di utilizzo
fe38e9ef7078d72989f651af6e8bb0f0.png

(tra l'altro ricordo di aver letto esserci un numero massimo di accensioni per i dischi cmr ma non ritrovo la discussione, forse non era in questo forum).
L'ho inserito comunque nella macchina TN, senza ovviamente associarci una pool, ed ha passato un test SMART short che ha evidenziato questi valori
a81bacafd5182d24a1b975bd4f2ce425.png

e 6 errori;
no avendo nulla da perdere, ho effettuato un WIPE Full With Zeros attendendo con pazienza le circa 3 ore per il termine del processo, prima di lanciare un test LONG; da lì non sono riuscito nemmeno a terminare un singolo test long che si blocca con errore read failure; l'ultimo tentativo che ho fatto ha fallito anche lo SHORT.
Questo lo smart completo:
Code:
smartctl 7.2 2021-09-14 r5236 [FreeBSD 13.1-RELEASE-p9 amd64] (local build)
Copyright (C) 2002-20, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Red
Device Model:     WDC WD10EFRX-68FYTN0
Serial Number:    WD-WCC4J4VXRC4S
LU WWN Device Id: 5 0014ee 261c7eaa2
Firmware Version: 82.00A82
User Capacity:    1,000,204,886,016 bytes [1.00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    5400 rpm
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ACS-2 (minor revision not indicated)
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is:    Thu Jan  4 08:49:47 2024 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x00)    Offline data collection activity
                    was never started.
                    Auto Offline Data Collection: Disabled.
Self-test execution status:      ( 115)    The previous self-test completed having
                    the read element of the test failed.
Total time to complete Offline
data collection:         (15360) seconds.
Offline data collection
capabilities:              (0x7b) SMART execute Offline immediate.
                    Auto Offline data collection on/off support.
                    Suspend Offline collection upon new
                    command.
                    Offline surface scan supported.
                    Self-test supported.
                    Conveyance Self-test supported.
                    Selective Self-test supported.
SMART capabilities:            (0x0003)    Saves SMART data before entering
                    power-saving mode.
                    Supports SMART auto save timer.
Error logging capability:        (0x01)    Error logging supported.
                    General Purpose Logging supported.
Short self-test routine
recommended polling time:      (   2) minutes.
Extended self-test routine
recommended polling time:      ( 174) minutes.
Conveyance self-test routine
recommended polling time:      (   5) minutes.
SCT capabilities:            (0x303d)    SCT Status supported.
                    SCT Error Recovery Control supported.
                    SCT Feature Control supported.
                    SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       999
  3 Spin_Up_Time            0x0027   132   128   021    Pre-fail  Always       -       4366
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       776
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       1
  9 Power_On_Hours          0x0032   092   092   000    Old_age   Always       -       6523
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       642
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       144
193 Load_Cycle_Count        0x0032   194   194   000    Old_age   Always       -       18649
194 Temperature_Celsius     0x0022   115   099   000    Old_age   Always       -       28
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   100   253   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       13
200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       9

SMART Error Log Version: 1
ATA Error Count: 6 (device log contains only the most recent five errors)
    CR = Command Register [HEX]
    FR = Features Register [HEX]
    SC = Sector Count Register [HEX]
    SN = Sector Number Register [HEX]
    CL = Cylinder Low Register [HEX]
    CH = Cylinder High Register [HEX]
    DH = Device/Head Register [HEX]
    DC = Device Command Register [HEX]
    ER = Error register [HEX]
    ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.

Error 6 occurred at disk power-on lifetime: 5688 hours (237 days + 0 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  04 51 10 00 00 00 a0  Error: ABRT

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  b0 d6 01 e0 4f c2 a0 00      02:35:20.445  SMART WRITE LOG
  ec 00 01 00 00 00 a0 00      02:35:20.444  IDENTIFY DEVICE

Error 5 occurred at disk power-on lifetime: 5688 hours (237 days + 0 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  04 51 10 00 00 00 a0  Error: ABRT

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  b0 d6 01 e0 4f c2 a0 00      02:34:49.789  SMART WRITE LOG
  ec 00 01 00 00 00 a0 00      02:34:49.788  IDENTIFY DEVICE
  ec 00 00 00 00 00 a0 00      02:32:27.039  IDENTIFY DEVICE

Error 4 occurred at disk power-on lifetime: 5688 hours (237 days + 0 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  04 51 10 00 00 00 a0  Error: ABRT

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  b0 d6 01 e0 4f c2 a0 00      02:20:31.759  SMART WRITE LOG
  ec 00 01 00 00 00 a0 00      02:20:31.758  IDENTIFY DEVICE

Error 3 occurred at disk power-on lifetime: 5688 hours (237 days + 0 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  04 51 10 00 00 00 a0  Error: ABRT

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  b0 d6 01 e0 4f c2 a0 00      02:13:28.977  SMART WRITE LOG
  ec 00 01 00 00 00 a0 00      02:13:28.976  IDENTIFY DEVICE

Error 2 occurred at disk power-on lifetime: 5687 hours (236 days + 23 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  04 51 10 00 00 00 a0  Error: ABRT

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  b0 d6 01 e0 4f c2 a0 00      02:09:58.391  SMART WRITE LOG
  ec 00 01 00 00 00 a0 00      02:09:58.390  IDENTIFY DEVICE

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed: read failure       30%      6523         9508944
# 2  Short offline       Completed without error       00%      6522         -
# 3  Extended offline    Completed: read failure       70%      6521         577579192
# 4  Short offline       Completed without error       00%      6520         -
# 5  Extended offline    Completed: read failure       70%      6520         581888336
# 6  Short offline       Completed without error       00%      6515         -

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.


Sta letteralmente esalando gli ultimi respiri... ho condiviso con voi per capire se avessi effettuato qualcosa di sbagliato
 

oxyde

Contributor
Joined
Nov 9, 2023
Messages
188
disco smontato e già reimpacchettato per il reso, non ne hanno altri da darmi quindi "dopo aver verificato il problema" me lo rimborseranno...
Nel mentre è arrivato l'altro, preso da un privato, e rispecchia quanto mi era stato mandato precedentemente!
Ho effettuato prima uno short e poi un long, completati senza errori; questo il resoconto:
Code:
smartctl 7.2 2021-09-14 r5236 [FreeBSD 13.1-RELEASE-p9 amd64] (local build)
Copyright (C) 2002-20, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Red
Device Model:     WDC WD10EFRX-68FYTN0
Serial Number:    WD-WCC4J0FN8Y1F
LU WWN Device Id: 5 0014ee 20cba39d3
Firmware Version: 82.00A82
User Capacity:    1,000,204,886,016 bytes [1.00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    5400 rpm
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ACS-2 (minor revision not indicated)
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is:    Thu Jan  4 14:00:40 2024 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x00)    Offline data collection activity
                    was never started.
                    Auto Offline Data Collection: Disabled.
Self-test execution status:      (   0)    The previous self-test routine completed
                    without error or no self-test has ever
                    been run.
Total time to complete Offline
data collection:         (13980) seconds.
Offline data collection
capabilities:              (0x7b) SMART execute Offline immediate.
                    Auto Offline data collection on/off support.
                    Suspend Offline collection upon new
                    command.
                    Offline surface scan supported.
                    Self-test supported.
                    Conveyance Self-test supported.
                    Selective Self-test supported.
SMART capabilities:            (0x0003)    Saves SMART data before entering
                    power-saving mode.
                    Supports SMART auto save timer.
Error logging capability:        (0x01)    Error logging supported.
                    General Purpose Logging supported.
Short self-test routine
recommended polling time:      (   2) minutes.
Extended self-test routine
recommended polling time:      ( 159) minutes.
Conveyance self-test routine
recommended polling time:      (   5) minutes.
SCT capabilities:            (0x303d)    SCT Status supported.
                    SCT Error Recovery Control supported.
                    SCT Feature Control supported.
                    SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0027   149   139   021    Pre-fail  Always       -       3525
  4 Start_Stop_Count        0x0032   099   099   000    Old_age   Always       -       1279
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   095   095   000    Old_age   Always       -       3748
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   253   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       15
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       11
193 Load_Cycle_Count        0x0032   196   196   000    Old_age   Always       -       12456
194 Temperature_Celsius     0x0022   112   095   000    Old_age   Always       -       31
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   100   253   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       0

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Extended offline    Completed without error       00%      3748         -
# 2  Short offline       Completed without error       00%      3745         -

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.



su questo io non noto niente di strano, ma voi siete sicuramente più esperti!
Vale la pena effettuare il wipe anche su questo e ripetere i test? Altrimenti intanto lo scollego e aspetto di rimediare un altro disco per metterlo in parità...

p.s. prima di reimpacchettare l'altro disco l ho ricollegato a windows e adesso per lui crystal disk info era buono xD
 

ThEnGI

Contributor
Joined
Oct 14, 2023
Messages
140
è stato anche il mio primo pensiero quando ho avuto il primo blocco, però è altrettanto vero che la ram disponibile per le VM era effettivamente 12gb, questa è la situazione attuale (sostanzialmente uguale a quella pre-disastro, sto ancora facendo il resilvering e ho disattivato momentaneamente SMB)

La ARC dove la metti ? Di 16GB: 8 Se li prende la ARC e circa 3 il TN infine lasciane circa 1GB "di scorta" = 16 -8 -3 -1 GB = 4GB disponibili per docker/vm/jail. In pratica 1VM con 4GB di ram, Io con quel quantitativo faccio girare 5 Docker (3 "Low power")
Io eviterei di comprimere la ARC con così poca ram ma lasciargli tutto lo spazio disponibile.
Se fai lavorare un pò il NAS vedi che la ARC si espande, quella schermata che hai messo sembra da appena acceso.

Ho il tuo stesso problema (16Gb di ram), ma ho due slot liberi e sono DDR4 che è più facile da trovare.... Sono tentanto di buttarci su due banchi da 32GB, ma penso sia troppo (Ram vs CPU) e forse mi accontento di 2*16GB


Questo Buttare/Rendere, penso non vada bene neanche come ferma carte XD
25TB scritti è praticamente nuovo :-(

Per quanto riguarda l'altro sembra sano, pochi avvii e 3k ore (3 mesi di funzionamento).
Quanto hai per renderlo ? Lo metti in bench benchmark per 7gg e vedi se salta qualcosa fuori .

ThEnGi
 

oxyde

Contributor
Joined
Nov 9, 2023
Messages
188
La ARC dove la metti ? Di 16GB: 8 Se li prende la ARC e circa 3 il TN infine lasciane circa 1GB "di scorta" = 16 -8 -3 -1 GB = 4GB disponibili per docker/vm/jail. In pratica 1VM con 4GB di ram, Io con quel quantitativo faccio girare 5 Docker (3 "Low power")
Io eviterei di comprimere la ARC con così poca ram ma lasciargli tutto lo spazio disponibile.
Se fai lavorare un pò il NAS vedi che la ARC si espande, quella schermata che hai messo sembra da appena acceso.
Spero di non dire una castroneria, ma da quello che avevo letto/capito questo è corretto per SCALE (cioè che assegna il 50% massimo della ram disponibile alla ARC), su CORE dovrebbe utilizzare tutta la ram disponibile meno una minima parte che si tiene dietro per sicurezza (e non so se sia una regola "empirica" o meno, ma ho letto sempre che per scegliere il quantitativo di ram, vada messo "almeno 1gb di ram ogni tb di archiviazione").
Lo scenario dello screen è probabilmente a macchina accesa da poco, ma ti assicuro che non cambia neanche dopo svariate ore di accensione (n.b. ovviamente se non faccio operazioni, altrimenti avoja se se la ciuccia tutta ahah).
Il dubbio che mi era venuto era come mai il sistema, nella schermata principale delle VM, indicasse come ram disponibile allo scopo 12gb, e poi invece allocasse tutto quello che ha indiscriminatamente... ma sembra risaputo che 16gb non siano sufficienti allo scopo.

Ho il tuo stesso problema (16Gb di ram), ma ho due slot liberi e sono DDR4 che è più facile da trovare.... Sono tentanto di buttarci su due banchi da 32GB, ma penso sia troppo (Ram vs CPU) e forse mi accontento di 2*16GB

Io putroppo ho solo 2 slot in totale, l'upgrade non è praticabile se non cambiando cpu+mobo, quindi per il momento accantono; non ti nascondo però che se dovesse capitarmi a tiro qualcosa di più recente adatto allo scopo ci farei un pensierino:tongue:
Io al posto tuo comprerei un singolo modulo da 32gb (è vero che rinunceresti al dual channel ma *non credo* sia così impattante), rivenderei il kit attuale e con calma se necessario prenderei più in là un altro banchetto per arrivare a 64 (tra l'altro, solitamente a parità di capienza costa meno il singolo banco che il kit 2x).
Questo Buttare/Rendere, penso non vada bene neanche come ferma carte XD
25TB scritti è praticamente nuovo :-(
Scherzi o sei serio? xD
a parte tutto, è già ripartito ieri, il negozio si "assicurerà del problema" ed effettuerà il rimborso.
Già dal "tono" del customer care sono sicuro che che avranno da ridire, faranno un test superficiale e diranno che è tutto ok, lo stesso test che avranno eseguito per metterlo in vendita così (sempre che ne abbiano veramente fatti!!), io ho comunque tutto salvato e male che vada apro contestazione con Paypal.
Per quanto riguarda l'altro sembra sano, pochi avvii e 3k ore (3 mesi di funzionamento).
Quanto hai per renderlo ? Lo metti in bench benchmark per 7gg e vedi se salta qualcosa fuori .
L'ho preso da un privato su subito.it (20€,+ 7€ spedizione e protezione acquirenti), quindi la protezione vale fino a che non confermo sia tutto in ordine... in ogni caso massimo 3 giorni; dopo aver constatato che i dati SMART erano gli stessi che mi aveva passato - fatto i test short e long ho confermato e quindi da adesso se mi abbandonasse è un mio problema.
Al momento l'ho scollegato per non farlo accendere/spegnere a buffo, dato che ho dovuto comunque fare alcuni ravvii, e sto cercando un altro disco per metterlo in parità (ma sarà veramente difficile, questo è stato veramente un colpo di fortuna, penso mi dovrò buttare sul nuovo e a quel punto lo prendo direttamente da 2tb visto la differenza minima di prezzo).

EDIT: dimenticavo una cosa importante, mi spiegheresti nel dettaglio come metterlo sotto bench? così quando ho finito di "riassestare" la macchina la accendo e non la spengo più

Nel frattempo qualche giorno fa è arrivato anche lo switch, diavolo è veramente minuscolo non me l'aspettavo! Dalle foto sembrava più ingombrante, invece è così piccolo che entra in tasca!
A parte aver testato che funzioni tutto correttamente dopo aver spostato il NAS (è bastato collegare i cavi, nient'altro), non ho avuto modo di verificare se la situazione durante i trasferimenti in SMB sia migliorata... in ogni caso adesso devo sistemare i cavi di passaggio o mi tocca dormire in macchina (l'unico cavo abbastanza lungo che avevo per collegare router e switch è di un bel blu che risalta su tutto l'arredamento :eek:).
Attendo anche che arrivi l'UPS, ho acquistato l'Epyc ION da 1000VA come dicevamo qualche settimana fa, mi è convenuto prenderlo direttamente da loro invece che da Amazon e l'ho portato a casa a 99€, quindi tra qualche giorno preparatevi che avrò sicuramente bisogno di qualche dritta per la configurazione xD
 

ThEnGI

Contributor
Joined
Oct 14, 2023
Messages
140
Spero di non dire una castroneria, ma da quello che avevo letto/capito questo è corretto per SCALE (cioè che assegna il 50% massimo della ram disponibile alla ARC), su CORE dovrebbe utilizzare tutta la ram disponibile meno una minima parte che si tiene dietro per sicurezza (e non so se sia una regola "empirica" o meno, ma ho letto sempre che per scegliere il quantitativo di ram, vada messo "almeno 1gb di ram ogni tb di archiviazione").

Scusa mi meno via sempre che usi CORE, comunque devi fare i calcoli con la macchina a pieno carico. IO non scenderei sotto i 6/8GB di ARC anche perchè sono tutte performace "extra"

Forse ricorderò male ma la regola 1GB di ARC/1TB era valida sopra X TB di archiviazione, anche perchè già non la rispetto XD

Io putroppo ho solo 2 slot in totale, l'upgrade non è praticabile se non cambiando cpu+mobo, quindi per il momento accantono; non ti nascondo però che se dovesse capitarmi a tiro qualcosa di più recente adatto allo scopo ci farei un pensierino:tongue:
Io al posto tuo comprerei un singolo modulo da 32gb (è vero che rinunceresti al dual channel ma *non credo* sia così impattante), rivenderei il kit attuale e con calma se necessario prenderei più in là un altro banchetto per arrivare a 64 (tra l'altro, solitamente a parità di capienza costa meno il singolo banco che il kit 2x).
è in fase di valutazione la cosa :wink: anche perchè la differenza tra 2x16GB e 1x32GB non è così marcata (5€). Poi come dicevo penso che andare oltre i 64GB di memoria si poco utile perchè limitato dal processore

Scherzi o sei serio? xD
Se non fosse per gli errori 25TB sono pochi, io ne ho scritti tipo 12TB in 4 mesi (+ 18 sugli SSD)

EDIT: dimenticavo una cosa importante, mi spiegheresti nel dettaglio come metterlo sotto bench? così quando ho finito di "riassestare" la macchina la accendo e non la spengo più

C'è uno script sul forum, forse lo trovi anche nei link utili sotto la firma di @Davvo
 
Last edited:

oxyde

Contributor
Joined
Nov 9, 2023
Messages
188
Se non fosse per gli errori 25TB sono pochi, io ne ho scritti tipo 12TB in 4 mesi (+ 18 sugli SSD)

C'è uno script sul forum, forse lo trovi anche nei link utili sotto la firma di @Davvo
Io 25TB non li ho usati probabilmente in tutta la mia vita ahahah
I dischi meccanici non subiscono comunque usura riscrivendoci varie volte?

Se comunque 25TB sono pochi, guarda il disco che ho tenuto:
Screenshot_20240106-131843.png
 
Top