Казалось бы полезный механизм — дедупликация, но возникла ситуация, когда размер хранилища дедуплицированных данных стал весить больше, чем сами данные! Глубина архива — неделя. Возможно не хватает именно задания очистки от данных, которые более не актуальны, так как архивы, по большому счету, имеют однородную структуру и могут быть отлично дедуплицированны. Но дело не только в этом. Необходимо выяснить, как в этом случае расходуется место. После отключения дедупликации, место так и осталось занятым. Что же можно сделать
Все команды выполняются в PowerShell от имени администратора. Первое, что я сделал, это выполнил выполнил чистку массива
Start-DedupJob -Volume D: —Type GarbageCollection
После чего на массиве было высвобождено около 9 Тб, о чем свидетельствуют данные мониторинга. Процесс занял около 10 часов
Далее запустил процесс восстановления данных, интересно что получиться, были в хранилище нужные данные или нет, выясниться после завершения процесса
В случае переполнения диска, при использовании задания обратному дедупликации (Start-DedupJob -Volume D: -Type Unoptimization) , необходимо выполнить следующее
Остановить процесс восстановления
Так как данная операция автоматически выключает дедупликацию для тома снова включим ее:
И запустить уборку мусора:
Посмотреть задачи дедупликации следующей командой
Настройку параметров дедупликации думаю будет разумно выполнить следующим образом
Немного информации об экономии и каталоге с дедуплицированными данными до очистки от мусока
Результат проделанной работы
Дополнительную информацию можно посмотреть на сайте interface31. Спасибо автору не только за решение, но и за теорию.