Dateien sicher löschen mit shred

7. Mai 2009 at 10:00

Dateien werden in Linux mit rm gelöscht. Doch der Löschvorgang entfernt nur Inode und Verzeichnis-Eintrag, nicht jedoch die wirklich gespeicherten Daten. Diese bleiben in den Sektoren der Festplatte liegen, bis sie durch eine neue Datei überschrieben werden. Bei vertrautlichen Daten stellt dies ein Problem dar: Mit entsprechenden Tools lassen sich die gelöschten Daten (oder Teile davon) eventuell wieder herstellen.

Um dies zu verbindern gibt es Tools wie shred. Es überschreibt den Inhalt einer Datei mit Zufallsdaten und sorgt so dafür, dass eine Datei unwiederbringlich gelöscht ist. Dazu ruft man shred genauso wie rm auf, wobei es einige interessante Parameter gibt:

  • Mit -v wird die ausführliche Ausgabe aktiviert. Eigentlich unnötig, aber interessant, um die Funktion zu sehen. Auch bei sehr großen Dateien ist es eventuell hilfreich, um grob zu wissen, wo das Programm gerade steckt.
  • Mit -n legt man die Anzahl der Durchläufe fest, also wie oft die Daten überschrieben werden sollen. Nachdem Forensikexperte Craig Wright 2008 feststellte, dass einmaliges Überschreiben der Daten absolut genügt, sollte wir also -n1 nutzen. Alles andere verwendet nur Zeit und Strom.
  • Mit -z gibt man an, dass die Datei nach dem letzten Durchlauf nochmal ausgenullt werden soll. Dies ist zwar nicht nötig, doch monkische Menschen wie ich mögen die Ordnung. :oops:
  • Mit -u wird die Datei nicht nur überschrieben, sondern am Ende auch gleich gelöscht. Das spart ein nachträgliches aufrufen von rm.

In der Shell sieht das dann wie folgt aus:

# shred -v -n1 -z -u secret
shred: secret: pass 1/2 (random)...
shred: secret: pass 2/2 (000000)...
shred: secret: removed

Freien Speicher löschen

Falls eine Datei aus Versehen schon gelöscht wurde, kann man sie nicht mehr mit shred behandeln. Es hilft dann jedoch, einfach den gesamten freien Platz der Festplatte zu überschreiben. Da man den freien Platz nicht mit einem Namen ansprechen kann, legen wir einfach mit dd eine Datei an, die die ganze Platte füllt:

dd if=/dev/urandom of=/fillup.dat bs=1k

Die Angabe ohne den count-Parameter sorgt dafür, dass dd die Platte so lange mit zufälligen Daten von /dev/urandom beschreibt, bis sie voll ist. Danach kann die Daten mit rm wieder gelöscht werden: rm /fillup.dat

Partition oder ganz Festplatte löschen

Möchte man eine Partition (z.B. /dev/sda3) oder eine ganze Festplatte (z.B. /dev/sda) löschen, kann man einfach deren Gerätenamen in Kombination mit shred einsetzen:

shred -v -n1 -z /dev/...

:!: Hier ist aber unbedingt auf korrekte Angaben zu achten, ist die falsche Partition erstmal überschrieben, gibt es kein Zurück mehr! :!:

Einschränkungen

Moderne Dateisysteme (XFS, ReiserFS, JFS, …) speichern im Journal Daten zwischen, die auf die Festplatte geschrieben werden sollen. Dieses Journal wird von shred nicht gelöscht und kann damit unter umständen noch bereits gelöschte geglaubte Informationen erhalten.

Auch bei EXT3/4 tritt dieses Problem auf, wenn das Dateisystem mit der Option data=journal gemountet wurde. Dies läßt sich einfach durch Eingabe von ‚mount‘ prüfen.

Gut, im Journal wird sich in der Praxis nach kurzer Zeit (einigen Schreibvorgängen) nicht mehr viel finden lassen. Wer dennoch auf Nummer Sicher gehen will, dem bleibt nur noch das Auslöschen der ganzen Partition, wie oben beschrieben. Damit werden nämlich nicht nur Dateien, sondern das ganze Filesystem (inkl. Verzeichnis und Journal) gelöscht.

Eine weitere Einschränkung sind die genutzten Festplatten selbst. Diese können nämlich defekte Sektoren für den Computer ausblenden und stattdessen andere, für diesen Zweck reservierte Sektoren, dorthin mappen. Somit ist es möglich, dass sich auch nach komplettem Löschen der Platte noch Informationen darauf befinden, die ein Datenretter wieder herstellen könnte.

Für alte Festplatten gilt daher: Vernichten statt verkaufen. Ein guter Vorschlaghammer genügt dafür übrigens :evil:

Browser Sicherheit: Prefetching

25. Januar 2009 at 21:45

Prefetching nennt sich der Vorgang, bei dem der Browser die Links einer Seite schon mal vorläd, damit ein Klick des Anwenders dann zum schnellen Seitenaufbau führt. Firefox nutzt Prefetching standardmäßig, dies ist z.B. im Firefox-Wiki dokumentiert:

Link-Prefetching ist eine Technologie, mit der verlinkte Webseiten schon im Voraus geladen werden.

Zur Zeit wird dieses Feature nur von wenigen Webseiten benutzt, es wird allerdings schon von Google (http://www.google.de) verwendet, um die Suchergebnisse im Hintergrund zu laden, damit diese schneller geladen werden können.

Für den Anwender ein nettes Feature, doch kann es schnell zu unerwünschten Nebenwirkungen kommen, z.B. wenn die eigene IP-Adresse in Logfiles von Seiten auftaucht, die man selbst nie besucht hat. Auch dies ist dokumentiert:

Ein Problem beim Link-Prefetching ist, dass Seiten heruntergeladen werden, die vielleicht gar nicht aufgerufen werden.

Leider ist das dem normalen Anwender nicht bekannt, wenn er Firefox installiert. Doch Prefetching läßt sich abschalten: Einfach ‚about:config‘ öffnen und network.prefetch-next auf false setzen. Schon ist’s mit dem Vorladen vorbei. Ich nutze es übrigens schon lange und habe in der Geschwindigkeit nie einen Unterschied bemerkt.

Passwort erzeugen

17. Oktober 2008 at 19:11

Oft braucht man eine Idee für ein neues Passwort, doch die Idee fehlt. Wie man solche einfach erfindet, habe ich im Artikel Sichere Passwörter schon erklärt. Doch kommt es manchmal auch vor, dass man viele Passwörter automatisch erzeugen muss. Hier helfen entweder viele kleine Tools oder eben die Shell.

Zuerst hole ich mir mit dd zufällige Daten, sagen wir mal 10 kByte. Diese schicke ich durch eine RegEx und entferne alle Zeichen, die nicht den gewünschten Zeichen entsprechen. Ich nehme hier im Beispiel nur Buchstaben und Zahlen. Nun muss ich nur noch dafür sorgen, dass nur so viele Zeichen wie benötigt ankommen, was ebenfalls wieder durch eine RegEx passiert.

Das Ergebnis sieht dann so aus:

 

dd if=/dev/urandom bs=1024 count=10 2>/dev/null
  | perl -pe "s/[^a-zA-Z0-9]//g"
  | perl -pe "s/^(.{12}).*$/1/g"

Nun gibt es aber einen Sonderfall, bei dem ich weitere Ausnahmen mache: Das Root-Kennwort.

Ein externer Login (via SSH) mit Passwort ist bei meinen Systemen nicht möglich (nur via Public Key). Das Passwort wird bei mir also nur benötigt, wenn ein Techniker es im Rechenzentrum lokal eingeben muss. Daher sollten alle Zeichen einfach tippbar sein, âáà sind das bei nodeadkeys meist nicht. Außerdem sollte man an die Verwechslungsgefahr denken: Der Techie mit dem Ausdruck des Passwortes in seiner Hand kann bei typischer RZ-Beleuchtung sicher keinen Unterschied zwischen | und l erkennen.

Folgende Zeichen der oben generierten Passworter erachte ich als Störend:

  • Kleines Ludwig (l), großes Ida (I), die Zahl Eins (1), das Pipe-Symbol: lI1|
  • Großes Otto (O), die Zahl Null (0): O0
  • Das Ypselon und das Zet (weil auf US-Keyboards vertauscht)

So würde das nun aussehen, wenn wir diese Zeichen nun entfernen:

 

dd if=/dev/urandom bs=1024 count=10 2>/dev/null
  | perl -pe "s/[^a-zA-Z0-9]//g"
  | perl -pe "s/[lI1O0yYzZ]//g"
  | perl -pe "s/^(.{12}).*$/1/g"

Die beiden RegEx könnte man zusammenfassen, indem man schon beim ersten nur gewünschte Zeichenbereiche freigibt. Aber ich finde es so leichter lesbar und besser zu bearbeiten.