Plug-in spariti dopo aggiornamento a Freenas 11.3 (da 11.0)

zizzone

Dabbler
Joined
Jan 3, 2018
Messages
15
Salve, oggi ho aggiornato Freenas alla versione 11.3 ma alla ripartenza il sistema si è perso gran parte della configurazione dei plug in che utilizzo (plex e transmission) oltre che la configurazione del disco (pool, jail ecc). La situazione attuale è questa: disco visibile con tutto il contenuto attraverso windows come in precedenza ma tutto il resto è incasinato da non permettermi di configurare pool e jails; inoltre plug in non installabili per problemi al momento della scelta "Choose Pool for Plugin and Jail Storage", perchè dopo aver selezionato il disco, mi restituisce un errore di "Failed to activate NAS4GB: Please check pool status, it should be ONLINE". Vorrei avere indicazioni su come riconfigurare i servizi di cui ho bisogno senza rischiare di cancellare tutto il contenuto del disco stesso. Cosa devo fare per riportare alla normalità il tutto?
Grazie in anticipo a quanti proveranno ad aiutarmi.
 

zizzone

Dabbler
Joined
Jan 3, 2018
Messages
15
Questo è quanto mi ritrovo se provo ad installare un qualsiasi plug-in (prima foto) e una volta scelto il disco che mi viene proposto ottengo la risposta nella seconda foto
 

Attachments

  • Annotazione 2020-04-13 172053.png
    Annotazione 2020-04-13 172053.png
    132.1 KB · Views: 235
  • Annotazione 2020-04-13 172136.png
    Annotazione 2020-04-13 172136.png
    120.8 KB · Views: 259

proto

Patron
Joined
Sep 28, 2015
Messages
269
ma il pool è ONLINE?
 

zizzone

Dabbler
Joined
Jan 3, 2018
Messages
15
ma il pool è ONLINE?
Veramente sono andato a controllare nei limite delle mie capacità e leggo DEGRADED. Ho forzato l'opzione online nel menù, ma nonostante sembri che l'operazione vada a buon fine non cambia nulla. Esiste qualche verifica che posso fare per verificare se il pool è online ed eventualmente impostarlo in questa modalità?
 

proto

Patron
Joined
Sep 28, 2015
Messages
269
io farei così:
zpool status
e dovrebbe indicarti quale disco sta fallendo. per capire quale dei dischi fallisce: glabel status, nella colonna "Components" trovi il disco. Esempio:

Code:
# zpool status

  pool: Edge0
state: ONLINE
  scan: scrub repaired 0 in 0 days 02:03:58 with 0 errors on Sun Mar 22 02:03:59 2020
config:

    NAME                                            STATE     READ WRITE CKSUM
    Edge0                                           ONLINE       0     0     0
      raidz2-0                                      ONLINE       0     0     0
        gptid/6939dba4-27e6-11e9-b01a-000c292c08e0  DEGRADED       0     0     too many errors
        gptid/6b65b284-27e6-11e9-b01a-000c292c08e0  ONLINE       0     0     0
        gptid/6c75d400-27e6-11e9-b01a-000c292c08e0  ONLINE       0     0     0
[...]


Code:
# glabel status
                                      Name  Status  Components
gptid/a8822951-70c7-11e9-8a6a-002655ed6d9c     N/A  ada0p1
gptid/6939dba4-27e6-11e9-b01a-000c292c08e0     N/A  da0p2
gptid/6b65b284-27e6-11e9-b01a-000c292c08e0     N/A  da1p2
gptid/6c75d400-27e6-11e9-b01a-000c292c08e0     N/A  da2p2
[...]


e controllerei l'output di dmesg per da0 --> 6939dba4

poi verificherei se ci sono dei problemi sui dischi con smartctl sul device eseguendo un testo lungo.

per farla breve: prova a vedere questa guida --> https://www.ixsystems.com/community...bleshooting-guide-all-versions-of-freenas.17/
Io su smartctl mi fermo e sostituisco il disco.

C'è la probabilità che tu debba sostituire il disco.
 
Last edited:

zizzone

Dabbler
Joined
Jan 3, 2018
Messages
15
... sto provando a lanciare il comando <smartctl –a /dev/ada0 | more> per verificare i possibili errori sul disco ma non riesco a capire come identificare il disco su cui fare il test visto che il comando stesso mi restituisce un errore come da screenshot (ERROR: smartctl takes ONE device name as the final command-line argument. You have provided 2 device names) ... purtroppo sono piuttosto newbie e molte cose mi sfuggono.
Allego cmq i risultati degli altri comandi consigliati pregandoti di avere un po di pazienza.
 

Attachments

  • Cattura3.JPG
    Cattura3.JPG
    100.2 KB · Views: 233
  • Cattura2.JPG
    Cattura2.JPG
    103.7 KB · Views: 231
  • Cattura1.JPG
    Cattura1.JPG
    75.8 KB · Views: 226
  • Annotazione 2020-04-16 013841.png
    Annotazione 2020-04-16 013841.png
    48.5 KB · Views: 242

proto

Patron
Joined
Sep 28, 2015
Messages
269
sto provando a lanciare il comando

dovresti provare ad eseguire il comando via ssh. non vorrei che sia stato inserito qualche carattere strano nella shell che trovi sul web-ui.

quindi, procederei così:
al termine dello scrub, che dovrebbe essere già terminato:
zpool status -xv

ti dovrebbe restituire una lista di file corrotti. ma se vedi l'errore che ti è stato restituito dall screenshot https://illumos.org/msg/ZFS-8000-8a mi preoccuperei:

Damaged files may or may not be able to be removed depending on the type of corruption. If the corruption is within the plain data, the file should be removable. If the corruption is in the file metadata, then the file cannot be removed, though it can be moved to an alternate location. In either case, the data should be restored from a backup source. It is also possible for the corruption to be within pool-wide metadata, resulting in entire datasets being unavailable. If this is the case, the only option is to destroy the pool and re-create the datasets from backup.


Quindi dovrebbe essere possibile recuperare il pool eliminando la causa, ma una controllata con smart è necessaria:

smartctl –t long /dev/ada0

aspetta che termini il test, l'output del comando precedente dovrebbe indicarti quando sarà terminato, poi esegui:

smartctl -a /dev/ada0

E posta il risultato in formato testuale, utilizzando i tag per il codice. Io non sono un grande esperto di smart, ma se ci sono errori evidenti magari è meglio sostituire il disco.

Prova ad accedere a /mnt/NAS4GB da linea di comando per verificare che sia accessibile e tenta di recuperare il possibile utilizzando eventualmente un disco di backup usb o via rete.

Per il futuro: compra due dischi e mettili in mirror almeno.
 

zizzone

Dabbler
Joined
Jan 3, 2018
Messages
15
Lo screenshot è il risultato del comando <zpool status -xv> . Ho fatto un backup completo del disco via LAN su una serie di HDD montati su PC windows senza incorrere in alcun errore quindi immagino che il disco in se non può essere danneggiato. Quindi ora cosa posso fare visto lo screenshot? Vorrei anche dire che quando accedo alla sezione storage -->import disk (ho fatto una verifica per capire se potevo reimportare il disco distruggendo il pool) il mio HDD non c'è ... è normale?
Grazie ancora per l'attenzione.
 

Attachments

  • Cattura4.JPG
    Cattura4.JPG
    72.6 KB · Views: 224

proto

Patron
Joined
Sep 28, 2015
Messages
269
Lo screenshot è il risultato del comando <zpool status -xv>

ok. a me sembra che ci siano degli errori sui metadati e su quel file...
bene per il backup, ma ti conviene fare il test lungo sul disco e poi prendere un secondo disco per effettuare almeno un mirror.

il mio HDD non c'è ... è normale?

direi di no.
 

zizzone

Dabbler
Joined
Jan 3, 2018
Messages
15
Buongiorno, prima di tutto grazie per la pazienza e per l'aiuto. Ho fatto qualche prova ed ho deciso di distruggere il pool azzerare il disco e ripartire da zero con lo stesso disco per capire se il problema si ripresenta, tanto comunque i dati sono in sicurezza ... qualche consiglio su come procedere in questo programma ? Garzie ancora
 
Top