Wiem, że większość plików po usunięciu nie jest faktycznie usuwana z dysku i można je później odzyskać.
Jak mogę się upewnić, że katalog, który usunąłem, zostanie faktycznie usunięty z dysku? Czy są na to narzędzia?
Używam Debian Linux.
Wiem, że większość plików po usunięciu nie jest faktycznie usuwana z dysku i można je później odzyskać.
Jak mogę się upewnić, że katalog, który usunąłem, zostanie faktycznie usunięty z dysku? Czy są na to narzędzia?
Używam Debian Linux.
Odpowiedzi:
Zaszyfruj dane przed ich zapisaniem. Aby usunąć dane, wyczyść klucz.
Jeśli dane zostały już zapisane w postaci zwykłego tekstu, jest już za późno, aby je wyczyścić w prosty sposób. W różnych miejscach może znajdować się wiele kopii danych:
Aby pozbyć się kopii danych w systemie plików, prymitywną metodą jest wypełnienie wolnego miejsca ( cat /dev/zero >somefile
i poczekanie, aż się zatrzyma, ponieważ system plików jest pełny). Spowoduje to zastąpienie wszystkich pełnych bloków.
Małe części danych mogą pozostać w niekompletnych blokach, które są częściowo używane przez inne pliki. Jest to szczególnie ważne w przypadku nazw plików, które mogą pozostać w blokach przechowujących zawartość katalogu. Aby pozbyć się wszystkiego, wykonaj kopię zapasową wszystkich plików, całkowicie zastąp urządzenie zawierające system plików, a następnie przywróć pliki.
Nośniki pamięci mogą przechowywać dane w blokach, które nie są już używane. Na dyskach twardych oznacza to złe bloki, które zostały przeniesione; jest to dość rzadkie zjawisko, dopóki dysk nie zaczyna się zużywać. Na dyskach SSD jest to częste zjawisko z powodu wyrównywania zużycia. W obu przypadkach zagrożenie jest bardzo niskie, ponieważ dostęp do tych danych wymaga nieco wyrafinowanego atakującego z umiarkowanie drogim sprzętem i czasem do stracenia. Jeśli zależy Ci na tych zagrożeniach, zaszyfruj dane i nie zostawiaj klucza w pobliżu.
Pamiętaj, że możesz zobaczyć porady na temat usuwania danych, wykonując wiele przejść lub używając losowych danych zamiast zer („czyszczenie Gutmanna”). Zapomnij o tym: dotyczy to tylko dysków twardych z lat osiemdziesiątych (i nawet wtedy dane nie są tak tanie do odtworzenia, a rekonstrukcja raczej niewiarygodna). Nadpisywanie zerami jest wystarczające; wykonywanie wielu losowych przejść jest przestarzałą radą lub olejem węża. Zobacz Dlaczego zapisywanie zer (lub danych losowych) na dysku twardym wiele razy jest lepsze niż jednorazowe zrobienie tego?
Istnieje bardzo popularne narzędzie o nazwie shred
. Zastąpi każdy plik 25 razy, zanim zostanie usunięty. To może mnie to, czego szukasz.
Użycie niszczenia jest dość proste
$ shred secret_archive.tar.gz
Należy jednak pamiętać, że w nowoczesnych systemach shred
może być nieefektywne lub bezużyteczne, jeśli:
Inne i potencjalnie bezpieczniejsze opcje to:
shred
działa nawet z ext3 (i chyba też ext4) przy użyciu trybów data = uporządkowany (domyślnie) i data = zapis . Ponadto istnieje prosta alternatywa: po prostu stwórz ogromny plik zajmujący całą pozostałą przestrzeń systemu plików, aby usunięty plik został nadpisany.
journaling -> data jornaling
shred
jest olejem wężowym: nie jest lepszy niż head -c $(wc -c secret_archive.tar.gz)
>! secret_archive.tar.gz`. Używanie niszczenia jest zawsze bezcelowe, chyba że używasz dysku twardego z lat 80. lub wczesnych 90.