0 байт свободного места

Sorrou

Cadet
Joined
May 13, 2019
Messages
2
Добрый день форумчане!

Имею FreeNAS-11.1-U5
Zvol - 10.2T

На пуле закончилось место, полностью. График:

30279-18c636a9821547c347902cb0b794e53c.jpg


zvol отдан по iscsi ESXi хосту.

Все ВМ которые хранятся на нем, не работают, т.к. нет места для хранения *.vmdk (типа)
Первое на что подумал, не правильно представлен стораж хосту, т.к. из vmware было видно что есть еще 700+ Gb

проблему пробовал решить следующим образом:
1) Подоткнул диск бОльшего объема в сервер (где то вычитал что расширить zvol можно только заменой дисков, на более объемные), поставил на замену, увидел статус ресильвера в пару дней, пошел искать другой способ.

2)- Загрузился под LiveCD( не дожидаясь конца ресильвера), установил туда ZFS, сделал import своего zvol
- установил vmfs-tools, при помощи vmfs-fuse примаунтил zvol, скопировал 2 vmdk по 300 Gb к себе на машину.
- Загрузился под своим FreeNAS, на пуле появилось 12+Мб свободного места, стораж примонтировался в ESXi! Удалил скопированные vmdk.
- ESXi показывает что свободного места стало 1.15 Тб+ (zfs list показывал 12 M!)
- Начал мигрировать диски на другие сторожилки, и вот, снова свободного места 0 байт. Снова все отваливается.
30280-c9896c1abc2f1965191f5e2d048f6e4f.jpg


Из гугления понятно что не удаляются блоки данных с zero files(или как то так)

Не знаю что делать, нид хелп!
Сейчас запущен zpool scrub, но выполняться он будет, судя по всему, 2-3 дня. Куда копать уже не знаю.

Может кто сталкивался?
Как можно попробовать высвободить не использующееся место в пуле? Снапшотов нет!
 

Attachments

  • ZFS_01.png
    ZFS_01.png
    115.1 KB · Views: 404
  • ZFS_02.png
    ZFS_02.png
    85.1 KB · Views: 436

mav@

iXsystems
iXsystems
Joined
Sep 29, 2011
Messages
1,428
Один из способов выстрелить себе в ногу и переполнить пул -- создать zvol с volblocksize=512. Так как FreeNAS создает пулы с ashift=4K, эффективность использования места при этом стремится к нулю. Адекватное значение как правило -- 16К. Новые версии FreeNAS вообще не позволяют установить его меньше 4К. Другой вариант - включить снапшоты с каким-то неразумным временем хранения. Третий -- создать sparse zvol (thin-provisioned) и не использовать адекватно UNMAP с инициатора. Меня терзают смутные соменения что vmfs-fuse может не знать про UNMAP, так как даже VMware освоила его не так давно.
 

Sorrou

Cadet
Joined
May 13, 2019
Messages
2
Ну, ничего другого не нашел, как добавить еще один vdev raidz2 из 4х дисков к уже имеющимся 2м raidz2. Все примонтировалось, работает, доступ к данным есть.
Буду их скомуниздевать и пересобирать пул! Спасибо товарищи!

P.S. стоял на пуле со стороны ESXi VMFS5, а он в Unmap и Reclaim priority не умеет, да. Спасибо за наводку!
 
Top