christopheaprendlinux
Explorer
- Joined
- Jun 23, 2012
- Messages
- 92
Bonsoir @ tous,
J'avoue avoir encore un peu de mal avec les notions de dataset, pool, Zpool, vdev, stripe miroir...
Je vous demande toute votre indulgence et votre aide afin d'y voir un peu plus clair.
Je vous livre mes questions en espérant que quelqu'un puisse venir éclairer ma lanterne. Vos réponses me permettront de mieux m'y retrouver car pour moi cela est plus concret par l'exemple.
Je vous précise que mon projet se place dans un environnement familiale constitué par 5 users, 1 user KODI (ex XBMC), dossiers partagés à tous les users : Vidéos- Photos- Musiques- Livres, et 6 users extérieures.
- Pour l'organisation générale, est ce qu'il vaut mieux créer 1 pool par users/pour kodi/dossiers partagés et users extérieurs ? Chaque entité dispose entièrement de tout son pool sans qu'il y est de dataset.
- ou 1 pool unique de la plus grande taille possible et le découper par autant de dataset qu'il y a d'entité ?
- Vaut il mieux créer plusieurs pool (un par "theme"), qui seraient alors découpés par des datasets ?
par exemple:
1 pool "user" découpé par autant de dataset que de user local
1 pool "commun" découpé par autant de dataset que de dossiers à mettre en commun
1 pool "user extérieur" découpé par autant de dataset que de user extérieurs
Au niveau des dataset et pool, quels sont les bonnes pratiques a mettre en oeuvre ?
J'ai beau lire et relire les différentes explications trouver sur internet et tout particulièrement le site de "Durindel" qui ma permis de me mettre le pied à l'étrié, je n'arrive pas comprendre précisément les différents agencements possible entre les disques/pool ou vdev. J'ai également lu l'article sur Wikipédia concernant les RAID.
Je pense que cela est certainement du à un problème de vocabulaire.
Voici ce que je crois comprendre :
Raid 0 : c'est du stripe. capacité totale=sommes de la capacitité de chaque disque.
Raid 1 : c'est du miroir. Pour 2 disques de même capacité, capacité total= capacité d'un disque.
Raid Z se situe au niveau du Raid 5 voire Raid 6 mais en mieux (entre autre le write whole)
Raid Z1 : 1 redondance
RaidZ2: 2 redondances
RaidZ3: 3 redondances
La ou je suis perdu, c'est quand il s'agit de combiner tout ça.
Quelqu'un peut il m'expliquer ce qu'il est possible de faire mais surtout concrètement me dire ce que cela donne dans la pratique ?
Question subsidiaire :
Dans le cas d'un RaidZ 1, lorsqu'un disque tombe en panne, il suffit de le remplacer par un neuf pour que l'ensemble se reconstruise par calcul.
Mais pour ce qui est du RaidZ2 ou RaidZ3, quand un disque tombe en panne cela donne :
RaidZ2 fonctionne comme un RaidZ1 jusqu’à l'échange du disque défaillant
RaidZ3 fonctionne comme une RaidZ2 " " "
Que se passe t il lorsque qu'un RaidZ2 est "dégradé" en RaidZ1 à cause d'un disque défaillant et qu'il est remplacé par un neuf ? (même question dans le cas d'un RaidZ3" dégradé")
Le système reconstruit il par calcul l'ensemble ou est ce qu'il copie tout simplement le disque redondant restant sur le disque neuf venant d'être installé ?
Merci @ tous pour votre aide.
J'avoue avoir encore un peu de mal avec les notions de dataset, pool, Zpool, vdev, stripe miroir...
Je vous demande toute votre indulgence et votre aide afin d'y voir un peu plus clair.
Je vous livre mes questions en espérant que quelqu'un puisse venir éclairer ma lanterne. Vos réponses me permettront de mieux m'y retrouver car pour moi cela est plus concret par l'exemple.
Je vous précise que mon projet se place dans un environnement familiale constitué par 5 users, 1 user KODI (ex XBMC), dossiers partagés à tous les users : Vidéos- Photos- Musiques- Livres, et 6 users extérieures.
- Pour l'organisation générale, est ce qu'il vaut mieux créer 1 pool par users/pour kodi/dossiers partagés et users extérieurs ? Chaque entité dispose entièrement de tout son pool sans qu'il y est de dataset.
- ou 1 pool unique de la plus grande taille possible et le découper par autant de dataset qu'il y a d'entité ?
- Vaut il mieux créer plusieurs pool (un par "theme"), qui seraient alors découpés par des datasets ?
par exemple:
1 pool "user" découpé par autant de dataset que de user local
1 pool "commun" découpé par autant de dataset que de dossiers à mettre en commun
1 pool "user extérieur" découpé par autant de dataset que de user extérieurs
Au niveau des dataset et pool, quels sont les bonnes pratiques a mettre en oeuvre ?
J'ai beau lire et relire les différentes explications trouver sur internet et tout particulièrement le site de "Durindel" qui ma permis de me mettre le pied à l'étrié, je n'arrive pas comprendre précisément les différents agencements possible entre les disques/pool ou vdev. J'ai également lu l'article sur Wikipédia concernant les RAID.
Je pense que cela est certainement du à un problème de vocabulaire.
Voici ce que je crois comprendre :
Raid 0 : c'est du stripe. capacité totale=sommes de la capacitité de chaque disque.
Raid 1 : c'est du miroir. Pour 2 disques de même capacité, capacité total= capacité d'un disque.
Raid Z se situe au niveau du Raid 5 voire Raid 6 mais en mieux (entre autre le write whole)
Raid Z1 : 1 redondance
RaidZ2: 2 redondances
RaidZ3: 3 redondances
La ou je suis perdu, c'est quand il s'agit de combiner tout ça.
Quelqu'un peut il m'expliquer ce qu'il est possible de faire mais surtout concrètement me dire ce que cela donne dans la pratique ?
Question subsidiaire :
Dans le cas d'un RaidZ 1, lorsqu'un disque tombe en panne, il suffit de le remplacer par un neuf pour que l'ensemble se reconstruise par calcul.
Mais pour ce qui est du RaidZ2 ou RaidZ3, quand un disque tombe en panne cela donne :
RaidZ2 fonctionne comme un RaidZ1 jusqu’à l'échange du disque défaillant
RaidZ3 fonctionne comme une RaidZ2 " " "
Que se passe t il lorsque qu'un RaidZ2 est "dégradé" en RaidZ1 à cause d'un disque défaillant et qu'il est remplacé par un neuf ? (même question dans le cas d'un RaidZ3" dégradé")
Le système reconstruit il par calcul l'ensemble ou est ce qu'il copie tout simplement le disque redondant restant sur le disque neuf venant d'être installé ?
Merci @ tous pour votre aide.
Last edited: