Uno delle migliori features rilasciata da Windows Server 2012 in poi è la de-duplica dei files. Questo servizio in un file system che racchiude normalissimi documenti quali file Word, Excel, PDF e molti altri, è in grado di far risparmiare spazio disco (anche superiore al 30%).
Oggi mi accorgo, dopo aver spostato 800 GByte di dati che il disco de-duplicato, nonostante lo spostamento rimaneva pieno. Mi sono posto troppo tardi la domanda: “Cosa succede se attivo la de-duplica dove sono presenti files che alla de-duplica sono un po allergici?“. Il risultato lo mostro nella figura sottostante (fig.1).
Cercando di capire cosa diavolo mi occupava quasi un Tera di spazio disco (grazie TreeSize per lo splendido lavoro), mi accorgo che la System Volume Information > Dedup > ChunkStore era veramente troppo grossa. Questa cartella è necessaria al funzionamento del servizio de-duplica e contiene i cosiddetti “chunks”*.
Trovato il problema resta solo da capire come risolverlo.
Per prima cosa ho imparato sulla pelle che i file .pst (archivi di Outlook) sono allergici alla de-duplica e ho deciso di disattivare la de-duplica sul volume e reidratare i dati. Come fare?
Attenzione: disattivare la de-duplica non reidrata i files. I comandi vanno eseguiti in sequenza partendo dalla reidratazione dei dati.
Dopo aver aperto una finestra Powershell come admin digitare:
Start-DedupJob -Volume “F:” -Type unoptimization -Memory 50
Il processo potrebbe impiegare diverso tempo (dipende dal quantitativo dei dati presenti sul volume). Prendete un caffè e per verificarne l’avanzamento:
get-dedupjob
Ora non resta che liberare lo spazio e disattivare la de-duplica. I primi due comandi gestiscono il “chunks” e liberano lo spazio occupato inutilmente.
start-dedupjob -Volume "F:" -Type GarbageCollection
start-dedupjob -Volume "F:" -Type Scrubbing //* DataScrubbing a seconda della versione di Windows)
Al termine di questi due processi è possibile disabilitare definitivamente la de-duplica sul volume:
Disable-DedupVolume -Volume "D:"
(*) Approfondimenti sui Chunks e su come la de-duplica ottimizza i dati sono disponibili qui