Datensicherung/ Theorie/ Druckversion

Aus Wikibooks
Datensicherung



Wikibooks


PDF Es ist eine PDF-Version dieses Buches vorhanden.

Dieses Buch steht im Regal EDV.

Haben Sie schon mal Ihre Daten verloren? Nein, BISHER noch nicht? Mit einfachen Mitteln eine regelmäßige Datensicherung zu organisieren, ist weder teuer noch schwierig. Dieses Buch ist an den Bedürfnissen von Computerbesitzern mit einem oder wenigen PC ausgerichtet, sollte aber auch für technisch versierte Benutzer hilfreich sein. Das Buch besteht aus drei Teilen. Die Theorie kann für jeden Computernutzer hilfreich sein, ob er nun Windows oder Linux verwendet. Der Rest des Buches ist an Windows-Benutzer gerichtet. Die Beschreibung wichtiger Programme sowie Schritt-für-Schritt-Anleitungen sollen auch und vor allem für Computernutzer mit geringen technischen Kenntnissen verständlich sein.

Buch durchsuchen

Datensicherung - ein heikles Thema[Bearbeiten]

Wenn man sicherheitshalber eine Kopie seiner Daten anfertigt, trägt der Vorgang des Kopierens den Namen Datensicherung, auch die englische Bezeichnung Backup ist gebräuchlich. Mit einer Datensicherung werden Kopien erzeugt, mit denen nach Ausfällen und Datenverlusten ein früher Zustand wiederhergestellt werden kann. Der Vorgang der Rücksicherung wird als Restore bezeichnet.

Umgangssprachlich wird mitunter auch der Datenträger mit den kopierten Daten als Datensicherung bezeichnet. "Sicherungskopie" wäre die bessere Bezeichnung dafür. Eine Datensicherung sollte ausreichend häufig und regelmäßig erfolgen. Die Sicherheitskopien müssen unbedingt vollständig sowie kurz- und mittelfristig verfügbar sein. Ältere Versionen können gelöscht und überschrieben werden, eine Langzeitlagerung ist dabei nicht vorgesehen.

Bei der Datenarchivierung geht es darum, ausgewählte, wichtige Daten über Jahre, Jahrzehnte und Jahrhunderte sicher aufzubewahren. Die archivierten Daten werden meist von der Festplatte gelöscht. Wegen der begrenzten Lebensdauer von Sicherungsmedien und Technologien müssen die Daten alle paar Jahre überprüft und auf neue Medien umkopiert werden. Einige Aspekte werden in den Kapiteln Lebensdauer digitaler Daten und Lebensdauer von Technologien behandelt.

Der Übergang von der Datensicherung zur Archivierung ist fließend. Das Finanzamt und die Grundsätze ordnungsgemäßer Buchführung verlangen, dass ausgewählte Daten zehn Jahre lang aufbewahrt werden müssen.

Eine kurze Einführung zum Thema finden Sie in der Wikipedia:  Datensicherung.

Ein wenig Statistik

Eine Umfrage [1] unter 6149 Benutzern in 128 Ländern hat ergeben:

  • 91% halten Datensicherung für wichtig, aber nur
  • 11% sichern Daten regelmäßig (1% täglich, 1% wöchentlich, 9% monatlich).
  • 45% haben noch niemals Daten gesichert, aber
  • 77% haben schon Daten verloren (davon 55% in den letzten beiden Jahren).

Können Sie diesen Widerspruch verstehen?

Jeder weiß, dass Computer kaputt gehen können. Trotzdem glaubt eine erdrückende Mehrheit der Computernutzer hartnäckig daran, dass eine Störung am High-Tech-Produkt „Computer“ immer nur die Anderen treffen kann. Nicht mal eigene schlechte Erfahrungen können sie dauerhaft von diesem Irrglauben abbringen. Der Gedanke an einen möglichen Datenverlust wird ebenso verdrängt wie der Gedanke an einen möglichen Autounfall. Andererseits zahlen die gleichen Menschen jeden Monat brav ihre Beiträge zu Lebens-, Hausrats- und Kaskoversicherungen, weil sie aus Erfahrung wissen, dass immer mal was schief gehen kann. Leider kann man sich nicht mal fix gegen Datenverlust versichern, Sie müssen regelmäßig selbst aktiv werden. Wie das geht, können Sie aus diesem Buch lernen.</noinclude>

Vorwort[Bearbeiten]

Zur Einstimmung auf das Thema einige Fakten:

Aus den Erfahrungen eines Datenrettungs-Unternehmens:

Es gibt nur zwei Arten von Daten:

  • Daten, die gesichert wurden,
  • und Daten, die noch nicht verloren gegangen sind – bis jetzt!

Aus der Computer-Folklore:

Datensicherung ist nur ´was für Feiglinge.

Zitat aus einem Gerichtsurteil:

Der Datenverlust durch Absturz gehört „zum allgemeinen Risiko eines EDV-Benutzers“, dem durch übliches Anfertigen von Sicherheitskopien zu begegnen sei. [2] [3]

Die häufigsten Ursachen für Datenverluste:

  • Bedienfehler
  • Fehler im Betriebssystem und Anwendungsprogrammen
  • Verwendung ungeeigneter Dienst- und Hilfsprogramme
  • Viren, Würmer, Trojaner und Hacker-Attacken
  • Probleme bei Software-Updates
  • Ausfall der Festplatte oder anderer Computer-Komponenten
  • Kompatibilitätsprobleme

Wie schlimm kann der Schaden sein?

  • Erkenntnis der Experten von Scotland Yard:
    • Ein mittleres Unternehmen, das seine Datenbank komplett einbüßt, ist spätestens nach zwei Jahren am Ende.[4]
  • Statistik des Haftpflichtverbandes der deutschen Industrie:
    • 40% aller Unternehmen, die ihre Daten verlieren, sind nach spätestens zwei Jahren bankrott.[5]
  • IDC-Studie zur Datensicherheit von 1999:
    • Die Rekonstruktion eines Datenbestandes von 20 MB kostet 17 000 bis 98 000 Dollar und dauert 19 bis 42 Tage.
  • Versicherungsbedingungen der TELA Versicherung:
    • Die Versicherung zahlt bei Datenverlusten den nachgewiesenen Aufwand zur Wiederherstellung bzw. zur Neuerfassung der Daten, aber in keinem Fall mehr als 10 000 € pro MByte.
  • Statistik der Münchner Rückversicherung:
    • Etwa 40% der Unternehmen, deren Rechenzentrum vernichtet wurde und die keinen Katastrophenplan hatten, eröffneten nicht wieder. 90% derer, die wiedereröffneten, gaben innerhalb der nächsten zwei Jahren auf. Daraus errechnet sich eine „mittelfristige Überlebensrate“ von 6%.

Preisliste verschiedener Datenrettungsunternehmen:

Bei physisch beschädigten Festplatten (Kopfaufsetzer o.ä.) kostet die Datenrettung selten weniger als 500 €, meist ein Vielfaches davon. Preisbeispiele:

  • 3,5" Diskette - etwa 40-50 Euro
  • SD–Karte, USB-Stick etc. - etwa 70-150 Euro
  • Festplatte (logischer Schaden) - etwa 400-700 Euro und
  • RAID-System etwa 1300-3000 Euro.

Kostenloser Ratschlag:

Wenn Ihnen irgend etwas verdächtig vorkommt, sofort die Weiterarbeit einstellen. Nichts speichern und Windows nicht herunterfahren, denn vielleicht startet es nie wieder. Rufen sie einen Experten an und schildern Sie das Problem. Lassen Sie sich nicht von „Fachchinesisch“ einlullen. Fragen Sie nach, bis Sie alles verstanden haben. Zögern Sie nicht, mehrere Meinungen einzuholen. Meiden Sie selbsternannte Experten. Bei den meisten Datenrettungen hat man nur einen Versuch - wenn er misslingt, wird die Situation wirklich schlimm.

Sind Sie jetzt verunsichert? Das ist sehr gut. Hoffentlich bleibt diese Unsicherheit für immer.


Was sind Ihre Daten wert?[Bearbeiten]

Fachbegriffe[Bearbeiten]

Die englischen Begriffe „Safety“ und „Security“ werden beide als „Sicherheit“ übersetzt, obwohl sie sehr unterschiedliche Bedeutungen haben. In der Computer-Security geht es um den Schutz vor absichtlichen Störungen. Dazu gehören unter anderem Viren, Trojaner, Sabotage, Ausforschung und Datendiebstahl. Dieses Thema wird in meinem Buch „Sicherheit im Internet“ behandelt. Bei „Safety“ geht es um den Schutz vor zufälligen Schäden: Übertragungsfehler, defekte Festplatten oder DVDs, falsche Bedienung und versehentliches Löschen, Stromausfälle und Blitzschläge. Da es in diesem Buch nur um „Safety“ geht, wird „Sicherheit“ nur in diesem Sinne gebraucht.

Wenn man sicherheitshalber eine Kopie seiner Daten anfertigt, trägt der Vorgang des Kopierens den Namen Datensicherung, englisch Backup. Mit einer Datensicherung werden Kopien erzeugt, mit denen nach einem Datenverlust ein früherer Zustand wiederhergestellt werden kann. Umgangssprachlich wird mitunter auch der Datenträger mit den kopierten Daten als Datensicherung bezeichnet. Sicherungskopie oder Sicherheitskopie wäre die bessere Bezeichnung dafür.

Datensicherung ist der Oberbegriff für mehrere Verfahren. Die verbreitetsten sind:

  • Für eine Sicherung „Datei für Datei“ wird der Windows-Explorer genutzt oder einer der Kommandozeilenbefehle COPY, XCOPY oder ROBOCOPY. Vorteil: Verloren gegangene Dateien oder Ordner sind leicht zu reparieren.
  • Eine Bit für Bit identische Kopie der aktiven Festplatte auf einer zweiten Festplatte kann man auf einer zweiten Festplatte erstellen (einen ‘‘‘Klon‘‘‘), zum Beispiel mit dem Programm "Acronis True Image“. Der Aufwand ist hoch (man braucht für jede Sicherung eine extra Festplatte), doch bei einem Festplattenschaden haben Sie nach kurzer Zeit wieder ein funktionierendes System.

Der Vorgang der Rücksicherung wird als Restore bezeichnet. Umgangssprachlich wird mitunter auch der Datenträger mit den kopierten Daten als Datensicherung bezeichnet. Sicherungskopie oder Sicherheitskopie wäre die bessere Bezeichnung dafür.

Eine Datensicherung sollte regelmäßig und ausreichend häufig erfolgen. Wenn man eine neue Sicherungskopie erstellt hat, sollte man frühere Kopien nicht übereilt wegwerfen oder überschreiben. Warum? Wenn eine Datei auf der letzten Sicherung nicht mehr lesbar ist, findet man diese Datei vielleicht auf der vorletzten oder vorvorletzten Sicherungskopie. Ob CD, DVD, USB-Speicherstick oder externe Festplatte – alle Datenträger haben eine begrenzte, mitunter erschreckend geringe Lebensdauer. Auf eine Haltbarkeit von mehreren Jahren sollte man sich nicht verlassen. Einige Probleme der Langzeitlagerung werden im Kapitel „Lebensdauer digitaler Daten“ behandelt.

Bei der Datenarchivierung geht es darum, ausgewählte Daten über Jahre, Jahrzehnte und vielleicht sogar über Jahrhunderte sicher aufzubewahren. Meist wird eine Speicherung gefordert, welche nachträgliche Manipulationen unmöglich macht. Wegen der begrenzten Lebensdauer der Sicherungsmedien und der Technologien sollten die archivierten Daten alle paar Jahre überprüft und auf neue Medien umkopiert werden.

Die meisten Nutzer löschen die archivierten Daten von der internen Festplatte, um Speicherplatz frei zu machen.

Die Abgrenzung zwischen Datensicherung und Archivierung ist fließend. Die Kernfunktion von Backup-Tools ist es, Kopien von aktuellen Systemzuständen zu erstellen. Die Kernfunktion der Archivierung ist es, ausgewählte Daten für lange Zeit sicher aufzuheben.

Dieses Buch ist an den Bedürfnissen von Computerbesitzern mit einem oder wenigen PC ausgerichtet, soll aber auch für technisch versierte Benutzer hilfreich sein. Die Beschreibungen wichtiger Programme sowie die Schritt-für-Schritt-Anleitungen sollen auch für Computernutzer mit geringen technischen Kenntnissen verständlich sein.

Was sind Ihre Daten wert?[Bearbeiten]

Ein Nachbar hat Ihr Auto gestreift. Ein Besucher hat Ihr Notebook vom Tisch gestoßen. Können Sie Schadensersatz verlangen? Ja, selbstverständlich. Aber wie sieht es aus, wenn ein Mitarbeiter versehentlich die Kundendatenbank gelöscht hat? Wenn der Computernotdienst Ihre Festplatte gelöscht hat? In welcher Höhe können Sie Schadenersatz verlangen? Das Problem ist, dass Daten nicht körperlich sind, sie haben keinen Materialwert.

Das deutsche Recht sieht zwei Arten von Schadensersatz vor. Primäres Ziel ist die Wiederherstellung (Naturalrestitution), ersatzweise die Schadenskompensation.

Kosten der Wiederherstellung[Bearbeiten]

Der Verursacher muss den Schaden selbst beseitigen oder den Geldbetrag zahlen, der zur Wiederherstellung des früheren Zustandes benötigt wird. In der Regel muss die Rechnung eines Datenrettungsunternehmens bezahlt werden oder der Aufwand für die Wiederherstellung von einem Backup-Speicher.

Es kommt vor, dass sich Daten nicht rekonstruieren lassen. Hochzeitsfotos, Manuskripte, technische Zeichnungen und Konstruktionsunterlagen können oft nicht wiederhergestellt werden, wenn kein Backup vorhanden ist. Wenn es aber ohnehin völlig unmöglich ist, die Daten wiederherzustellen, braucht der Versuch nicht unternommen zu werden und dem Verursacher entstehen keine Wiederherstellungskosten.

Schadenskompensation[Bearbeiten]

Bei Unmöglichkeit der Wiederherstellung hat der Verursacher den Schaden mit Geld zu kompensieren.

  • Es wird ermittelt, wieviel Vermögen der Geschädigte verloren hat.
  • Die Arbeitskosten, um die Daten einigermaßen aus der Erinnerung zu rekonstruieren, sind ersatzfähig.
  • Personelle und zeitliche Mehraufwendungen wegen gestörter Arbeitsabläufe, z.  Arbeitslohn für zeitweilige Hilfskräfte sind ersatzfähig.
  • Entgangener Gewinn ist ein ersatzfähiger Schaden.

Folgerungen[Bearbeiten]

  • Auch wenn der Verlust privater Daten sehr bitter sein kann – deren Verlust führt nicht zu Gewinnausfällen. Deshalb gehen Privatpersonen fast immer leer aus.
  • Wer es als Chef versäumt, für regelmäßige Datensicherungen geschäftlich wichtiger Daten zu sorgen, hat eine Mitschuld. Unter Umständen muss er den Schaden vollständig aus seinem privaten Vermögen bezahlen, auch wenn er sehr hoch ist.
  • Wenn durch Ihre Schuld Firmendaten verloren gehen, kann das teuer für Sie werden. Bei grober Fahrlässigkeit kann es Sie fünf Jahre lang den Teil Ihres Einkommens kosten, der über der Pfändungsgrenze liegt[6].

Fazit[Bearbeiten]

Datensicherung ist im Prinzip ganz einfach. Man muss nur die wichtigen Dateien auf einen anderen Datenträger kopieren, den man anschließend an einem sicheren Ort aufbewahrt. Dateien zu kopieren ist ein grundlegender, einfacher Vorgang. Außer dem Windows-Explorer gibt es zahlreiche Dateimanager und Backup-Programme.

Warum also wird es nicht gemacht? Ist es der Glaube, dass ein Datenverlust immer nur die Anderen trifft?

Daten zu sichern bedeutet, Vorsorge zu treffen für ein Ereignis, das höchstwahrscheinlich nicht eintreten wird. Daten zu sichern bedeutet letzten Endes, Zeit zu vergeuden in der schwachen Hoffnung, dass es sich vielleicht irgendwann auszahlt.

Berücksichtigt man diese psychologischen Besonderheiten, folgt daraus:

  • Eine wirksame Datensicherung muss vollständig oder weitgehend automatisch funktionieren.
  • Niemand sollte gezwungen sein, regelmäßig darüber nachdenken zu müssen, welche Daten gesichert werden müssen und welche nicht.

Was können bzw. müssen Sie tun?

  • Sie müssen alle wichtigen Daten mindestens doppelt haben: auf der internen Festplatte und zusätzlich auf DVD oder Speicherstick, im Speicher der Kamera oder auf einer externen Festplatte.
  • Verlassen Sie sich nicht auf die Langlebigkeit der Datenträger. Beispielsweise sollten Sie alle zwei bis drei Jahre von Ihren DVDs neue Kopien anfertigen. Testen Sie die neuen Medien. Werfen Sie die alten Medien nicht weg. Vielleicht sind die neuen Rohlinge von minderer Qualität und die alten Kopien überleben länger.
  • Bewahren Sie die Datenträger nicht alle an einem Platz auf. Wenn die Feuerwehr in der Wohnung über Ihnen einen Brand löscht, werden möglicherweise der PC und gleichzeitig alle Ihre Kopien unbrauchbar.
  • Verwenden Sie hochwertige Rohlinge. Lagern Sie die DVDs im Dunkeln und kühl (aber nicht im Kühlschrank, dort ist es zu feucht).
  • Trauen Sie keiner Reklame, besonders nicht den Prophezeiungen der Hersteller zur Lebensdauer ihrer Medien.

Wenn Ihre Daten verloren scheinen, können Sie sich an ein Datenrettungslabor wenden, das mit hoher Wahrscheinlichkeit Ihre Daten wiederherstellen kann. Allerdings kostet das einige bis viele hundert Euro. Ihre Daten rechtzeitig zu duplizieren, kommt Sie erheblich günstiger.


Die Festplatte ist der Haupt-Massenspeicher[Bearbeiten]

Die Festplatte ist das Haupt-Speichermedium für Ihre Daten, und auch als Speichermedium für Backups werden Festplatten immer häufiger genutzt. Wie kann es dazu kommen, dass Festplatten versagen und dadurch Daten verloren gehen?

Aufbau[Bearbeiten]

Für die dauerhafte Aufbewahrung von Daten und Programmen ist die Festplatte zuständig. Sie kann viele hundert Gigabyte dauerhaft speichern. Damit Sie sich das vorstellen können: Ein Text von 100 GByte ohne Illustrationen, gedruckt auf DIN A4, würde 25 Millionen Seiten füllen. Beidseitig gedruckt ergäbe das einen Stapel von 1200 Meter Höhe.

Eine Festplatte, englisch „HDD“ (Hard Disk Drive), besteht meist aus ein bis zwei Scheiben, die auf einer gemeinsamen Achse, der Spindel, angeordnet sind. Die Scheiben mit Spindel bilden den Plattenstapel. Die Scheiben sind mit einem magnetisierbaren Material beschichtet und rotieren mit mehr als fünftausend Umdrehungen pro Minute. Über jeder Oberfläche schwebt ein aerodynamisch geformter Schreib-/Lesekopf im Tiefflug. Die Spule darin kann die Partikel der Oberfläche magnetisieren bzw. die aufgezeichnete Magnetisierung messen. Die Daten sind in Spuren (Kreisen) angeordnet, mehr als eine Million Spuren passen auf jede Oberfläche. Innerhalb jeder Spur sind die Daten zu Blöcken von je 512 oder 4096 Byte gruppiert, den Sektoren. Die Köpfe können in durchschnittlich zehn Millisekunden auf jede gewünschte Spur positioniert werden. Ein Vergleich: In diesen 10 ms legt ein Auto bei einer Geschwindigkeit von 90 km/h eine Strecke von 25  Zentimetern zurück. Doch für die CPU (Central Processor Unit) ist das viel zu langsam. In eben diesen 10 ms könnte eine Drei-Gigahertz-CPU 30  Millionen Befehle ausführen, wenn sie nicht so schrecklich lange auf die angeforderten Daten warten müsste.

Festplatten gibt es hauptsächlich in zwei Größen. 3,5-Zoll-Platten sind etwa 10 × 15 × 2 cm groß und brauchen ungefähr 8 Watt Energie. Der Plattenstapel rotiert meist mit 7200 Umdrehungen pro Minute. Die 2,5"-Festplatten, die vor allem in Notebooks zum Einsatz kommen, sind etwa 7 × 10 × 1 cm klein und drehen sich mit 4200 oder 5400 U/min. Sie sind weniger empfindlich gegenüber Erschütterungen und kommen mit etwa 3 Watt aus.

Die magnetisierbare Fläche einer 2,5"-Festplatte ist ziemlich genau halb so groß wie die einer 3,5"-Platte. Folglich passen auf die kleinen Platten bei gleicher Datendichte (Bit pro cm2) nur halb so viel Daten.

Bei 7200 Umdrehungen pro Minute erreicht der Rand einer 3,5"-Festplatte eine Umfangsgeschwindigkeit von 130 km/h. Notebook-Festplatten haben einen kleineren Durchmesser von 2,5" und eine ­kleinere Drehzahl von 4200 oder 5400 U/min, deshalb erreichen sie am Rand „nur“ 60 bis 70 km/h. Das bedeutet leider: In der Zeit, welche eine Notebook-Festplatte zum Lesen eines Bits braucht, kann eine normalgroße Festplatte zwei Bits lesen bzw. schreiben.

Bei der schnellen Rotation wird die Luft über den Scheiben mitgerissen. In diesem Luftstrom „segeln“ die aerodynamisch geformten Magnetköpfe in einem Abstand von etwa 3 nm (Nano-Meter) über der Scheibe. Das sind drei Millionstel eines Millimeters! Zum Vergleich: Ein Haar ist 0,05 mm = 50 Mikrometer = 50 000 nm dick, also 16 000-mal dicker!

Die Flughöhe des Magnetkopfes wird durch den „Bodeneffekt“ stabilisiert, den Sie von Flugreisen kennen: Zwischen Tragfläche und Boden entsteht ein Luftpolster. Je niedriger die Flughöhe ist, desto mehr wird das Luftpolster zusammengedrückt, wodurch sich der Auftrieb vergrößert. Während der Landung sinkt das Flugzeug sehr langsam herunter zur Landebahn. Neuere Festplatten haben sogar eine automatische Feinjustierung der Flughöhe und können den Abstand um ±1 nm nachregeln.

Zunehmend kommen in PCs neuartige SSD-Festplatten zum Einsatz. Sie arbeiten mit einer ähnlichen Technologie wie USB-Speichersticks und enthalten keine beweglichen Teile. Dadurch sind sie deutlich schneller als magnetische Festplatten. SSD sind robust und stromsparend, aber noch relativ teuer. Für 80 Euro konnte man 2017 wahlweise eine 2000 GB Magnetfestplatte oder eine 120 GB SSD kaufen.

Wenn man den höheren Preis in Kauf nimmt, sind SSD-Festplatten ideal als Systemfestplatte im PC. Außerdem sind sie unempfindlich gegen Erschütterungen. Allerdings haben auch die SSD-Festplatten eine endliche Lebensdauer und fallen gelegentlich spontan aus, so dass man auf eine Datensicherung nicht verzichten darf.

Für Backup-Festplatten hat die höhere Geschwindigkeit keine Bedeutung, hier zählt nur der Preis pro Gigabyte.

Ausfallursachen[Bearbeiten]

Erschütterungen: der plötzliche Tod[Bearbeiten]

Headcrash[Bearbeiten]

Haben Sie nun eine Vorstellung davon, warum Erschütterungen so gefährlich für die Festplatte sind? Wenn der Kopf die Oberfläche bei 130 km/h berührt, kann man sich das wie einen mikroskopischen Flugzeugabsturz vorstellen. Kopfaufsetzer können Ihre Festplatte in Sekundenbruchteilen zerstören. Die Oberfläche der Scheiben ist mit einer hauchdünnen Schutz- und Gleitschicht aus Polymer oder diamantähnlichem Kohlenstoff („carbon overcoat“) überzogen. Wenn der Kopf die Oberfläche ganz leicht berührt, verdampft die Schicht, was den Kopf anhebt. Dadurch kann die Festplatte „leichte“ Kopfaufsetzer verkraften. Wenn der Kopf bei einem stärkeren Aufsetzer die Schutzschicht durchdringt, wird die Magnetschicht beschädigt (und der Kopf vielleicht gleich mit). Wenn ein Programm diesen beschädigten Bereich nicht auf Anhieb lesen kann, unternimmt Windows dutzende Leseversuche. Oft gelingt das, doch es kostet Zeit. Sind viele benachbarte Sektoren „geschwächt“, wird der PC „zur Schnecke“. Manchmal sind die Daten endgültig weg. Wenn ein Programm den beschädigten Bereich nicht beschreiben kann, wird der Bereich automatisch für die weitere Benutzung gesperrt.

Eine Scherzfrage: Wie nennt man es, wenn bei voller Drehzahl ein Kopf die Oberfläche der Scheibe berührt? Spanabhebende Datenverarbeitung! In der Fachsprache nennt man es einen „Headcrash“. Wenn die Späne bei der nächsten Umdrehung zwischen Kopf und Plattenoberfläche geraten, gibt es noch mehr Späne. In schweren Fällen ist die Festplatte hinüber – einschließlich aller Daten.

Lageänderungen[Bearbeiten]

Solange sich die Festplatte dreht, darf sie keinesfalls bewegt werden! Durch die hohe Drehzahl von meist 7200 Umdrehungen pro Minute ist die Scheibe der Festplatte bestrebt, ihre Lage im Raum beizubehalten, wie bei einem Kreiselkompass oder einem Spielkreisel. Bewegt man die Festplatte, kann es zu Kopfaufsetzern kommen. Beim Basteln also den PC nicht auf die Seite kippen, solange sich die Festplatte noch dreht.

Ihnen ist bisher noch nie etwas passiert?

Da haben Sie Glück gehabt. Bis jetzt. Die Festplatten werden jedes Jahr empfindlicher. Die Drehzahl hat sich in zwanzig Jahren von 3600 auf 7200 pro Minute verdoppelt. 1993 hatte eine typische Festplatte eine Kapazität von 20 MByte (0,02 Gbyte), 2017 das Hunderttausendfache. Die Köpfe mussten näher an die Oberfläche heranrücken, um die immer kleineren Bits unterscheiden zu können. Eine Halbierung des Kopfabstands erlaubt die vierfache Bitdichte. Deshalb hat sich in diesen zwei Jahrzehnten der Abstand der Köpfe von der Plattenoberfläche von 1500 nm auf 3 nm verringert. Der Schwenkarm ist etwa 30 Millionen mal länger als der Abstand des Magnetkopfes von der Festplatte. Was glauben Sie wohl, wie stark sich dieser lange Arm bei Erschütterungen durchbiegt?

Wie vermeidet man mechanische Unfälle?[Bearbeiten]

  • Den PC sollte man so aufstellen, dass er nicht kippelt – auch nicht, wenn man mit dem Knie anstößt. Möglichst geschützt, so dass man gar nicht erst mit dem Knie oder dem Staubsauger anstoßen kann! Erschütterungen und Vibrationen schädigen die Lager.
  • Den PC niemals bewegen, wenn er eingeschaltet ist. Nach dem Ausschalten einige Sekunden warten, bis die Festplatte stillsteht. Das gilt auch für eine externe Festplatte und für Notebooks mit Magnetplatten.
  • Treten und schlagen Sie Ihren PC nicht, wenn er nicht so funktioniert, wie Sie es wollen! (Zumindest nicht, wenn er eingeschaltet ist.) Schlagen Sie auch nicht mit der Faust auf die Tischplatte, auf der Ihr PC steht (oder schalten Sie den PC vorher aus). Werfen Sie keine Aktenstapel schwungvoll auf den Tisch.
  • Den PC immer in Gebrauchslage transportieren (Festplatte waagerecht), damit die Magnetköpfe nicht die Parkposition verlassen und auf der Festplatte herumkratzen. Im Auto gibt es zwei günstige Plätze für den Transport eines Minitower-PC: Stehend angeschnallt auf einem Sitz oder stehend ­festgeklemmt hinter dem Beifahrersitz. Im Kofferraum liegend ist schlecht.
  • Vermeiden Sie Vibrationen. Hoffentlich liegt Ihr Subwoofer nicht auf dem PC oder die externe Festplatte nicht auf dem Subwoofer.

Beachten Sie: Nicht jeder Stoß und jede Überhitzung zerstört Ihre Festplatte sofort. Auch kleinste Schäden addieren sich und verringern die Lebensdauer.

Überhitzung: die verkannte Gefahr[Bearbeiten]

Der Energiebedarf moderner 3,5"-Festplatten liegt im Leerlauf bei etwa 8 Watt, unter hoher Last und beim Anlaufen mehr als das Doppelte. Wenn im Ruhezustand der Antriebsmotor abgeschaltet ist, sinkt der Bedarf auf ein Watt. Die kleineren 2,5"-Platten brauchen etwa halb so viel.

Die Energie wird von der Elektronik und den Antrieben in Wärme umgewandelt. Die Betriebstemperatur einer gut belüfteten Festplatte sollte bei 30 bis 40 °C liegen, kühler wird es im PC-Gehäuse kaum sein. Bei dieser Temperatur wird die maximale Lebensdauer erreicht.

Wenn die Temperatur unter 10 °C sinkt oder über 50 °C steigt, verdoppelt sich die durchschnittliche Ausfallrate. Steigt die Temperatur auf 60 Grad, verdoppelt sich die Ausfallrate noch einmal! Bei manchen Modellen ist die Festplattenelektronik imstande, Abkühlpausen zu erzwingen. Sie können das daran merken, dass der PC bei hoher Festplattenauslastung für einige Sekunden „hängt“ und dann ohne Fehlermeldung weitermacht. Das kann auch mehrmals nacheinander passieren.

Die Wärme muss weg! Aber wohin mit der Wärme?[Bearbeiten]

  • Der Wärmeaustausch mit der umgebenden Luft spielt eine bedeutende Rolle. Die Luft sollte also die Festplatte oben und unten gut umströmen können.
  • Die Wärmeleitung ist recht wirkungsvoll. Achten Sie darauf, dass die Festplatte mit vier Schrauben am Blech des Gehäuses angeschraubt ist, dadurch wirkt das Gehäuse als ­Kühlblech.

Empfehlungen[Bearbeiten]

Sogenannte „grüne“ Festplatten benötigen wenig Energie und werden deshalb nicht heiß. Andere Festplatten sollten zusätzlich gekühlt werden. Sie können selbst prüfen, ob eine Zusatzkühlung nötig ist. Fassen Sie mit dem Finger auf die Festplatte, wenn der PC nach längerem Betrieb heruntergefahren ist. Fühlt sich die Oberfläche deutlich wärmer an als Ihr Finger? Dann ist Zusatzkühlung ratsam. Zwei Arten der Zusatzkühlung haben sich bewährt: ein Lüfter vor der Festplatte (an deren Stirnseite) oder an der Unterseite der Festplatte, wo die meiste Wärme entsteht. Ein Festplatten-Zusatzlüfter kostet 10 bis 15 Euro.

Dauerbetrieb[Bearbeiten]

Gönnen Sie Ihrer Festplatte Pausen! Lassen Sie die Festplatte in längeren Pausen automatisch abschalten! Kaum jemand weiß, dass die meisten handelsüblichen Festplatten nicht für den Dauerbetrieb konzipiert sind. Das Problem hierbei ist die Wärmeentwicklung. Viele Hersteller erlauben nur etwa 10 Stunden Betriebszeit pro Tag, danach sollte die Festplatte mehrere Stunden abkühlen können. Wenn diese Betriebsbedingungen eingehalten werden, erreichen viele Festplatten eine Lebensdauer von mehr als fünf Jahren. Der Zusatzlüfter sollte aber überwacht und bei Bedarf gewechselt werden.

Viele Büro-PCs sind an fünf Tagen pro Woche je neun Stunden eingeschaltet. Zum Vergleich: Würden Sie Ihr Auto 40 Stunden pro Woche mit 100 km/h fahren, hätte es pro Jahr etwa 200 000 km zurückgelegt. Alle 15 000 km wäre eine Wartung mit Ölwechsel fällig, das ergibt 13 Wartungen in einem Jahr. Wann haben Sie Ihrer Festplatte den letzten Ölwechsel gegönnt? (Das ist natürlich ein Scherz! Festplatten sind wartungsfrei. Aber verschleißfrei sind sie nicht.) Gönnen Sie Ihrem PC wenigstens eine Innenreinigung. Blasen Sie einmal im Jahr den Staub mit Pressluft heraus! Eine kleine Pressluftflasche kostet nicht mal zehn Euro.

Verschleiß: das unabwendbare Ende[Bearbeiten]

Was passiert, wenn man den PC ausschaltet?[Bearbeiten]

Fliegen heißt Landen – eine alte Fliegerweisheit, die auch auf die Festplatte zutrifft. Wenn die Festplatte die Drehzahl verringert, verringert sich auch der Auftrieb der Köpfe, und die Magnetköpfe „landen”. Wie geht das ohne Head-Crash ab?

Windows schickt den Befehl „Festplatte parken“ gegen Ende des Herunterfahrens. Die Köpfe werden in die Parkposition in der innersten Spur bewegt. Dort ist die „Geschwindigkeit über Grund“ am kleinsten, außerdem ist die ­„Landebahn“ dort metallisch und hochglanzpoliert. Der Spindelmotor arbeitet jetzt als Generatorbremse und bremst die Scheiben sehr schnell ab. Die Köpfe setzen auf, der Verschleiß ist dabei minimal.

Manche Festplatten setzen ihre Köpfe auf einer Halterung, genannt „Landerampe“, ab. Die Köpfe berühren die Oberfläche nicht und es gibt keinen ­Verschleiß der Köpfe.

Renommierte Hersteller geben an, dass die Köpfe 20 000 bis 40 000 Start-Stopp-Zyklen aushalten. Bei normaler Nutzung sollte das ausreichen. Kommen Sie aber bitte nicht auf die Idee, nach jeweils drei Minuten Leerlauf die Festplatte abzuschalten, um Strom zu sparen! Dann haben Sie Ihre ­Festplatte möglicherweise schon nach einem Jahr kaputtgespart. Und es wird dabei nicht einmal Energie gespart, weil der Anlaufstrom der Festplatte hoch ist.

Wie kündigen sich Probleme an?[Bearbeiten]

Wenn die Festplatte nach dem Einschalten nicht innerhalb von etwa drei Sekunden ihre Normdrehzahl erreicht, schaltet der Antrieb sicherheitshalber wieder ab. Manchmal läuft sie nach mehreren Einschaltversuchen doch noch an. Das sollte Sie aber nicht beruhigen. Reagieren Sie umgehend – ein verschlissenes Lager repariert sich nicht von allein!

Eins der Anzeigelämpchen am Gehäuse, meist ist es rot oder gelb, zeigt die Aktivität der Festplatte an. ­Während der normalen Benutzung flackert die Anzeige. Wenn Windows ohne ersichtlichen Grund für einige Sekunden „stehen bleibt” und auf nichts mehr reagiert, während die Festplattenaktivitätsanzeige Dauerlicht zeigt, kommen hauptsächlich zwei Ursachen dafür in Betracht:

  • Möglicherweise ist die Festplatte überhitzt und die Elektronik erzwingt gerade eine kleine Abkühlpause. Nach einigen Sekunden geht es ohne Fehlermeldung weiter, als wäre nichts geschehen. In diesem Fall sollten Sie die Lüfter kontrollieren und den PC innen reinigen.
  • Die Festplatte hat Oberflächenschäden, und das Betriebssystem versucht unermüdlich, ob sich die Daten vielleicht doch noch lesen lassen. Wenn es gelingt, macht Windows ohne Fehlermeldung weiter. Oft sind mehrere benachbarte Sektoren betroffen.

Wenn die Festplatte die gesuchten Daten nicht findet, fahren die Köpfe mehrmals an den Plattenrand zurück und zählen die Spuren neu ab. Wenn Sie dieses rhythmische Klacken hören, steht eventuell das Lebensende der Festplatte sehr dicht bevor. Wenn das Klacken lauter wird oder sie gar ein Kreischen oder Kratzen hören, müssen Sie sich blitzschnell entscheiden:

  • Falls Sie gewillt sind, 500 oder 1000 Euro für eine professionelle Datenrettung auszugeben, dann knipsen Sie den PC sofort aus! Nicht erst herunterfahren, denn in jeder Sekunde könnte der Schaden größer werden.
  • Falls Sie so viel Geld keinesfalls ausgeben wollen, sollten Sie unverzüglich anfangen, die allerwichtigsten Daten auf einen Speicherstick oder eine externe Festplatte zu kopieren. Machen Sie schnell, vielleicht haben Sie nur wenige Minuten bis zum Totalausfall.

Für Festplattenausfälle gibt es fast immer Warnzeichen – achten Sie stets auf Auffälligkeiten und zögern Sie nicht, umgehend um Rat zu fragen!

Eine neue Festplatte hat in den ersten Wochen eine hohe Frühausfallrate, darauf folgen zwei bis drei Jahre mit einer geringen Ausfallwahrscheinlichkeit. Danach steigt die Ausfallwahrscheinlichkeit wieder an.

Elektronik-Probleme[Bearbeiten]

Die Elektronikplatine unter der Festplatte und ihre Software (die Firmware) hat hochkomplexe Aufgaben zu bewältigen, wie die Optimierung und Präzisionssteuerung der Kopfbewegungen, die Korrektur von Lesefehlern und die Verwaltung des Cache-Speichers. Jede Software, auch diese, ist fehlerhaft. Hier ein Beispiel für einen der spektakuläreren Vorfälle beim Marktführer:

Im Jahr 2009 häuften sich Ausfälle bei Seagate-Festplatten, vor allem der Serie Barracuda 7200.11: Nach wochenlangem einwandfreiem Betrieb booteten die Festplatten nicht mehr. Ein (kleiner) Teil der Festplatten hatte eine fehlerhafte Firmware. Alle Baureihen der Desktop-Festplatten von Seagate waren potentiell betroffen. Um zu erfahren, ob seine Festplatte zu den Risikokandidaten gehört, musste der Anwender die Modellbezeichnung, Seriennummer und Firmware-Version per E-Mail an Seagate schicken. Wenn die Festplatte zu den betroffenen gehörte, bekam der Kunde eine Live-CD mit einem Firmware-Update. Nach Einspielen des Updates funktionierten die Festplatten wieder, Daten waren durch den Fehler in der Firmware nicht verloren gegangen.

S.M.A.R.T. – das Überwachungsprogramm[Bearbeiten]

Das Programm „SMART“ ist ein Teil der Festplattenelektronik. SMART ist die Abkürzung von „Self Monitoring, Analysis and Reporting Technology“. Dieses Statistik- und Diagnoseprogramm wacht ununterbrochen über Ihre Festplatte. Es erkennt beschädigte Blöcke, sperrt sie und ersetzt sie durch Reserveblöcke.

Es gibt Schätzungen, dass eine Festplatte 5 % bis 20 % ihrer nominellen Kapazität als „heimliche Reserve“ zurückhält, um kleine Schäden ausgleichen zu können. Diese Schäden entstehen vor allem durch leichte Kopfaufsetzer. Das bedeutet ja wohl im Umkehrschluss, dass kleine Schäden recht häufig sind.

Wem nutzt es, dass SMART defekte Blöcke unauffällig durch Reserveblöcke ersetzt? Der Hersteller hat zwei Vorteile: Die Zahl der Reklamationen verringert sich, denn von kleinen Fehlern erfährt der Kunde ja nichts. Schlimmer noch: Geringfügig mangelhafte Festplatten brauchen nicht mehr verschrottet zu werden, weil SMART die Mängel versteckt. Und wenn die Festplatte „im Sterben liegt“, erfährt es der Kunde zu spät. Denn im Herstellerinteresse kommt die Warnmeldung erst, wenn die Reservesektoren vollständig oder weitgehend aufgebraucht sind. Das ist viel zu spät. Wenn ein Vorgang im Inneren der Festplatte bereits 5 % bis 20 % ihrer Kapazität zerstört hat, wird der Rest der Festplatte wohl nicht mehr lange durchhalten.

Wenn die S.M.A.R.T.-Funktionalität im BIOS eingeschaltet ist (was bei Auslieferung nicht immer der Fall ist, bitte im BIOS nachschauen), wird bei einem bevorstehenden Versagen der Festplatte möglicherweise eine Warnung erzeugt, die z. B. so aussehen kann:

S.M.A.R.T. Failure Predicted on Primary Master 
Immediately back-up your data and replace the hard disk drive.
A failure may be imminent.

Übersetzung:

SMART prognostiziert den Ausfall der primären Master-Festplatte. 
Sichern Sie Ihre Daten und ersetzen Sie die Festplatte. Ein Defekt könnte unmittelbar bevorstehen.

Anmerkung: Diese Festplatte überlebte die obige Warnmeldung um neun Tage.

Kostenlose Programme können die SMART-Werte lesen, z. B. „HD Tune“, „CrystalDiskInfo“ und „SiSoft Sandra“. Manche Hersteller von Festplatten bieten auf ihrer Website Diagnoseprogramme an. Wenn Ihre Festplatte älter ist oder wenn Sie an ihrer Qualität zweifeln, sollten Sie die SMART-Werte ermitteln.

Google hat die SMART-Werte von 50 000 Festplatten ausgewertet. Einige davon waren schon fünf Jahre im Dauereinsatz. Die Ergebnisse:

  • In den 60 Tagen nach der ersten SMART-Fehlermeldung fielen Festplatten 40-mal häufiger aus als Festplatten ohne Fehlermeldungen.
  • Bei 36 % der defekten Festplatten hatte SMART keine Warnung erzeugt.
  • Fabrikneue Festplatten fallen in den ersten Wochen häufiger aus als später.

Das bedeutet, dass Sie die Festplatte umgehend austauschen sollten, wenn SMART ein Problem meldet. Allerdings bedeutet das Ausbleiben einer SMART-Warnung nicht, dass keine Gefahr droht. Ein Drittel der Google-Festplatten fiel aus, ohne das SMART vorher gewarnt hatte.

Manche Benutzer haben ein Programm installiert, welches den Zustand der Festplatte ständig überwacht. Falls dieses Programm meldet „Der Zustand der Festplatte hat sich geringfügig verschlechtert, doch das ist kein Grund zur Aufregung“, sollten Sie an die obige Google-Statistik denken.

Langlebige Festplatten[Bearbeiten]

Wenn Sie Ihren PC täglich einige Stunden benutzen, halten die meisten Festplatten in einem Standard-PC vier bis acht Jahre durch. Da viele Benutzer alle zwei bis drei Jahre einen neuen PC kaufen, erleben sie das Ende ihrer Festplatte nicht.

Warum sind die Festplatten nicht langlebiger? Es gibt durchaus langlebige Festplatten für anspruchsvolle Betreiber von Rechenzentren, zu einem sehr stolzen Preis. Doch für ein Rechenzentrum ist es wirtschaftlich sinnvoll, preiswerte Festplatten in einem RAID-10-System zu betreiben, dann führen defekte Festplatten nicht zu Störungen.

Und wie sieht es mit langlebigen Desktop-Festplatten aus? Es lohnt für die Hersteller nicht, weil sich die große Masse der Käufer ausschließlich für den Preis interessiert. Oder haben Sie schon einmal das Wort „langlebig“ in der Werbung für Komplett-PCs gesehen oder haben Sie nach der Lebensdauer der Festplatte gefragt? Na also. Einige wenige Festplatten werden als „24 × 7“-Platten zu einem etwa 20 % bis 30 % höheren Preis verkauft, das bedeutet: für Dauerbetrieb geeignet, bei gelegentlichem Betrieb sehr lange haltbar.

Besonderheiten von Notebook-Festplatten[Bearbeiten]

Festplatten vertragen Erschütterungen nur schlecht. Deshalb werden für Notebooks spezielle 2,5"-Festplatten gefertigt. Sie sind 69 mm breit und 100 mm lang. Die häufigste Bauhöhe beträgt 0,375" (9,5 mm). Frühere Bauhöhen von 19, 17 und 12,4 mm sind ganz selten. Seit kurzem gibt es Festplatten von 7 und 5 mm Höhe. Letztere sind zu flach für einen Standardsteckverbinder und sie passen nur in spezielle Notebooks. Für Subnotebooks und MP3-Player gibt es 1,8" Festplatten (54 × 70 mm Grundfläche, Bauhöhe 5, 7, 8 oder 9,5 mm). Noch kleiner ist der „Microdrive“ mit winzigen 30 × 40 × 5 mm, der in MP3-Playern und Digitalkameras zum Einsatz kommt oder kam.

Der kleinere Durchmesser und eine langsamere Drehzahl (4200 bis maximal 5400 Umdrehungen pro Minute) machen die Notebook-Festplatten deutlich weniger empfindlich gegen Erschütterungen. Das Risiko von Oberflächenschäden sinkt. Selbst wenn die Köpfe die Oberfläche leicht berühren, bietet die Gleitbeschichtung einen gewissen Schutz. Leider sind Notebook-Festplatten durch ihre geringere Drehzahl erheblich langsamer als „normale“ Festplatten.

Manche neuere Notebook-Festplatten haben einen „Fall-Sensor“: Wenn das Notebook vom Tisch fällt, registriert das der Sensor. Während das Notebook fällt, wird die Rotation der Magnetscheiben gestoppt und die Köpfe werden geparkt. Selbst wenn das Notebook zersplittert, überleben Ihre Daten den Sturz mit hoher Wahrscheinlichkeit. Lassen Sie aber das Gerät aus einer Höhe von mindestens 50 cm abstürzen, sonst ist die Fallzeit zu kurz und die Festplatte schafft es nicht schnell genug, die Köpfe zu parken.

Es gibt auch 2,5"-Festplatten mit Erschütterungssensor. Bei einer Erschütterung klappt auf dem Bildschirm ein Fenster auf: „Die Festplatte wurde wegen Erschütterungen gestoppt“. Jedesmal müssen Sie „OK“ klicken, damit die Festplatte wieder losläuft. Eine sehr nützliche Schutzvorrichtung, doch sie ist meist überaus empfindlich und „nervt“ möglicherweise. Falls Sie dazu neigen, das Notebook auf den Knien zu schaukeln, sollten Sie besser zu einem anderen Gerät greifen, oder wenn möglich ein Solid State Drive (SSD), einen Flash-Speicher ohne mechanische Bauteile, in Ihr Gerät installieren. Während einer Bahnfahrt werden Sie mit einem solchen Gerät ansonsten nicht arbeiten können.

Eine Magnetfestplatte verbraucht 10 % bis 15 % vom gesamten Strombedarf des Notebooks, auch im Leerlauf sinkt der Strombedarf kaum. Die Energie wird in Wärme verwandelt, was ein großes Problem ist. Das Plastegehäuse leitet die Wärme nicht ab. Oft sind Alibi-Lüftungsschlitze über der Festplatte und dem Arbeitsspeicher vorhanden, doch wenn kein Ventilator für Luftbewegung sorgt, staut sich die heiße Luft. Eine Luftströmung gibt es nur rund um den Prozessor. Selbst unter den hochwertigen Notebooks gibt es nur sehr wenige Konstruktionen, welche einen Teil der Prozessorkühlluft über die Festplatte strömen lassen. Luftkanäle würden das Notebook einige Millimeter dicker machen – das ist nicht erwünscht, jeder Hersteller versucht die Geräte so flach wie möglich zu bauen.

Die überwältigende Mehrzahl der Notebookgehäuse ist, unter thermischen Gesichtspunkten betrachtet, eine klare Fehlkonstruktion, und oft drängt sich mir der Gedanke auf, eine lange Lebensdauer sei nicht gewollt. Am Luftaustritt wurden von mir häufig Temperaturen von 70 °C bis 90 °C gemessen. Wie heiß ist es dann wohl innen? Legen Sie doch einmal Ihr Notebook nach einer längeren Betriebszeit auf den Rücken (vorher natürlich ausschalten). Wo Sie die meiste Wärme fühlen, befindet sich die Festplatte. Es ist kein Wunder, dass Festplattenausfälle so häufig sind (von Cola, „heruntergefallen“ und „über das Kabel gestolpert“ einmal abgesehen).

Vergleich von Backup-Geräten[Bearbeiten]

Welche Geräte kann man benutzen, um eine Datensicherung durchzuführen?



DVD und BD (Blu-ray)[Bearbeiten]

Aufbau[Bearbeiten]

CD, DVD und Blu-ray sind optische Technologien, die sich im Wesentlichen nur im Abstand von Bit zu Bit und damit in der Kapazität unterscheiden. Auf eine CD passen 0,64 Gigabyte, auf viele Rohlinge auch 0,7 oder 0,8 GB. Für eine Datensicherung ist das im Allgemeinen zu wenig, zumal DVD-Rohlinge mit etwa sechsfacher Kapazität kaum teurer als CD-Rohlinge sind.

Auf eine DVD passen 4,7 GB. Das reicht für einen Spielfilm, 2 000 Fotos oder 100 000 Dokumente. Werden zwei Schichten auf einer Seite übereinander angeordnet (Dual Layer), steigt die Kapazität auf 8,5 GB. In der industriellen Produktion werden auch DVDs gepresst mit Daten auf Ober- und Unterseite, doch solche DVDs gibt es nicht als Rohling.

Die gegenwärtig höchste Kapazität haben Blu-ray-Disks. In der Single-Layer-Ausführung haben sie 25 GB Kapazität. Mit mehreren übereinander liegenden Schichten (Dual-Layer und mehr) kann die Kapazität 50 bis 100 GB erreichen.

Lebensdauer[Bearbeiten]

Mit Ihren Kauf-CD oder DVD hatten Sie noch nie Qualitätsprobleme, auch nach vielen Jahren nicht? Das liegt am industriellen Herstellungsverfahren. Ebenso wie früher bei der Herstellung von Schallplatten wird eine Muster-Gussform gefertigt und unter hohem Druck mit Polycarbonat ausgegossen. Man erhält eine Scheibe mit kleinen Vertiefungen (Pits). Dann wird eine metallische Reflexionsschicht aufgebracht. Zum Lesen wird die Oberfläche mit einem Laser abgetastet. Die glatte Oberfläche reflektiert das Licht, an den Vertiefungen wird der Laserstrahl zerstreut. Durch die mechanische Pressung ist die Haltbarkeit sehr hoch.

Zudem sind optische Datenträger unanfällig für Schreibkopfstürze, da sich das Lasergerät deutlich weiter von der Oberfläche befindet als der Schreibkopf einer Festplatte, und eigenständig am Auslesegerät befestigt ist anstatt von einem Luftpolster über die Scheibe. Im Defektfall des optischen Laufwerkes bleibt die Scheibe unversehrt und kann durch andere funktionierende Laufwerke eingelesen werden.

Beschreibbare Rohlinge sind viel weniger robust. Sie enthalten einen organischen Farbstoff, der sich beim punktweisen Erhitzen mit dem Laserstrahl (beim „Brennen“) dunkel färbt. Allerdings dunkelt der Farbstoff auch durch Sonnenlicht, bei Zimmerbeleuchtung und durch die Wärme im Zimmer, wenn auch sehr langsam. Sogar wenn man die selbstgebrannten Scheiben dunkel aufbewahrt, gehen nach zwei bis fünf Jahren die ersten Dateien verloren. Man sollte deshalb von wichtigen Daten alle paar Jahre „frische“ Kopien anfertigen.

Verwendung für Datensicherungen[Bearbeiten]

Einen Brenner hat ja wohl fast jeder, und Rohlinge sind billig. Problematisch ist der hohe Arbeitszeitaufwand: Das Brennprogramm starten, Rohling einlegen, zu sichernde Dateien auswählen, Brennvorgang starten und überwachen. Später das Programm beenden, die DVD beschriften und einlagern. Die Hersteller der Brennprogramme bieten keine praktikable Möglichkeit an, das Brennen von Routinesicherungen zu automatisieren. Allerdings ist das kein Grund, auf jegliche Datensicherung zu verzichten. Von Zeit zu Zeit im Ordner „Users“ bzw. „Dokumente und Einstellungen“ den eigenen Nutzerordner aufzusuchen und den Desktop, die Dokumente, Bilder usw. in das Fenster des Brennprogramms zu ziehen und einige mal auf „Weiter“ zu klicken, dauert etwa zwei Minuten. Bei 8-facher Schreibgeschwindigkeit sollte man etwa 12 Minuten für 4,7 GB einplanen. Damit sind Eigene Dateien, der Desktop und die Favoriten des Internet Explorers gesichert. Das ist zwar nicht alles, aber ein großer Teil Ihrer Daten.

Ein weiterer Nachteil ist die Speicherkapazität, die im Vergleich zur Festplatte gering ist. Auf eine DVD passen etwa 1000 Musikdateien oder 2000 Fotos. Manch einer bringt mehrere tausend Fotos von einer einzigen Urlaubsreise mit. Zur Sicherung eines frisch installierten Windows mit ein paar Anwendungen werden zwei bis drei DVDs gebraucht. Die Daten „von Hand“ auf mehrere DVDs aufzuteilen, ist nicht praktikabel, zumal der Windows Explorer das Kopieren abbricht, sobald er auf eine in Benutzung befindliche Datei trifft. Die Verwendung eines Image-Programms löst das Problem der Aufteilung der Daten und der benutzten Dateien. Das Problem mit der Kapazität aber bleibt. Realistisch betrachtet, wird kein vernünftiger Mensch regelmäßig Daten sichern, wenn er dafür jedesmal zehn DVDs braucht. Es ist zu teuer und vor allem dauert es zu lange.

Blu-ray hat zwar eine erheblich größere Kapazität, aber für heute übliche Datenmengen ist die Kapazität einer Scheibe immer noch nicht groß genug. Zudem gehört ein Blu-ray-Brenner nicht zur Grundausstattung eines PC, und als Zubehör kostet er mehr als eine externe Festplatte.

Wenn man nur eine kleine Datenmenge zu sichern hat (beispielsweise eine Zuwachssicherung), kann die Verwendung einer CD-ROM sinnvoll sein. Sie sind billiger als DVD-Rohlinge und etwas sicherer, weil die Daten weniger dicht gepackt sind.

Doch trotz des möglicherweise hohen Zeitaufwands – die Sicherung auf DVD oder BD hat einen gewaltigen Vorteil: Die Daten können nach dem Brennen nicht mehr verfälscht werden. Selbst wenn ein Trojaner auf der Festplatte wütet und Ihre Daten löscht oder verschlüsselt – den gebrannten Daten kann er nichts mehr anhaben.

Im Kapitel Computerhardware: CD und Nachfolger des Wiki-Buches Computerhardware für Anfänger können Sie mehr über optische Datenträger lesen.

Externe Festplatte[Bearbeiten]

Eine externe Festplatte ist ein Peripheriegerät, welches mit dem Computer verbunden werden kann, ohne dass er aufgeschraubt werden muss. Auch das Abstöpseln ist im laufendem Betrieb möglich, wenn die Festplatte vorher abgemeldet wird. Da externe Festplatten leicht transportiert werden können, werden sie auch als mobile Festplatten bezeichnet.

Kein anderes Medium sichert die Daten schneller. Genug Platz hat die Festplatte meist auch. Eine Sicherung dauert nicht lange: Der Zeitaufwand zum Anstecken und Starten der Sicherung beträgt etwa drei Minuten. Weitere drei Minuten werden nach Abschluss der Sicherung benötigt, um die Festplatte „sicher zu entfernen“, auszuschalten und wegzuräumen.

Allerdings sind externe Festplatten weniger sicher als allgemein angenommen. Es besteht die Gefahr, während des Betriebes aus Versehen an die Festplatte anzustoßen. Erschütterungen beim Umhertragen sind nachteilig. Wenn Sie die Festplatte irgendwohin mitnehmen, sollte sie weich verpackt sein.

Externe Festplatten sind GRUNDSÄTZLICH nicht für längeren Betrieb konzipiert! Sie werden zu heiß. Deshalb sollte die Festplatte nur bei Bedarf angesteckt und nach Gebrauch ausgeschaltet werden. Das erhöht außerdem die Sicherheit: Die Daten auf einer ausgeschalteten Festplatte sind nicht in Gefahr, durch eine Fehlbedienung oder einen Virus vernichtet zu werden. Wenn Sie die Datensicherung auf das Arbeitsende verschieben, sollten Sie bis zum Ende der Datensicherung warten, um hinterher den PC und die externe Platte auszuschalten. Alternativ können Sie den PC mit dem shutdown-Befehl automatisch zeitgesteuert herunterfahren. Wenn Sie eine externe 2,5" Festplatte benutzen, die kein eigenes Netzteil braucht, wird diese zusammen mit dem PC ausgeschaltet.

Auch wenn die Festplatte intakt bleibt, können Daten durch Unachtsamkeit verloren gehen. Denken Sie ausnahmslos immer daran, die Festplatte abzumelden, bevor Sie den USB-Stecker herausziehen? Ein Wackelkontakt, während Windows das Inhaltsverzeichnis der Festplatte aktualisiert, kann alle Daten in Bruchteilen einer Sekunde vernichten.

Eine externe Festplatte sollte nur entweder zur Speicherplatzerweiterung, oder zum Archivdatenträger gewidmet werden. Diese Entscheidung sollte bei der Erstbetriebnahme getroffen werden. Als kostengünstige Speicherplatzerweiterung befindet sich der Datenträger ständig im Betrieb, was durch Verschleiß die Lebenserwartung verkürzt, während ein Archivdatenträger sich nur selten in Betrieb befinden sollte.

Wofür ist eine externe Festplatte ungeeignet?[Bearbeiten]

  • Für die Auslagerung (Archivierung) von Daten, wenn die interne Festplatte zu klein ist. Denn eine externe Festplatte ist ein weniger sicherer Ort als die interne Festplatte. Sie müssen von allen wichtigen Daten mindestens eine Kopie haben, um Verluste zu vermeiden, außer wenn die Daten leicht wiederbeschaffbar sind.
  • Eine zu klein gewordene Festplatte mit einer ständig eingeschalteten externen USB-Festplatte zu ergänzen, ist keine gute Idee: Eine Magnetfestplatte wird in mehrstündigem Betrieb zu heiß. Eine SSD-Festplatte würde zwar nicht heiß werden, wäre aber vom Preis/Leistungsverhältnis eine unsinnige Verschwendung. Außerdem braucht man unbedingt eine USB 3.0 Schnittstelle, denn USB 2.0 mit etwa 40 MByte/s ist viel zu wenig. Eine Magnetfestplatte erreicht an den internen Anschlüssen 100 MB/s Doch auch bei einer schnellen Schnittstelle bleibt das preisliche Argument: Der Einbau einer größeren Festplatte in das PC-Gehäuse erspart den Kauf eines Gehäuses für eine externe Festplatte.

Welche soll ich kaufen?[Bearbeiten]

Baugrößen[Bearbeiten]

Es gibt externe Festplatten in 2,5 Zoll und 3,5 Zoll. Welche Größe ist die richtige?

  • 2,5"-Festplatten vertragen kleine Erschütterungen besser als 3,5"-Festplatten.
  • 2,5"-Festplatten haben etwa die halbe Fläche pro Scheibe wie 3,5"-Festplatten und können daher bei gleicher Datendichte pro Quadratzentimeter nur halb so viel Daten unterbringen.
  • Bei gegebener Datendichte hängt die Lesegeschwindigkeit von der Umfangsgeschwindigkeit ab, also dem Produkt von Durchmesser mal Drehzahl. Deshalb haben kleine Festplatten eine wesentlich geringere Datenübertragungsrate als die großen Platten.
  • Die kleinen Platten wurden für Notebooks entwickelt. Weil beim Beschleunigen und Bremsen der Köpfe mit Akku-Energie gespart werden muss, sind die Positionierzeiten deutlich länger.
  • Die großen 3,5"-Festplatten sind auf maximale Geschwindigkeit optimiert, (fast) ohne Rücksicht auf den Energiebedarf. Die schnellen Beschleunigungs- und Bremsvorgänge beim Positionieren der Magnetköpfe sind sehr energieintensiv und die hohe Drehzahl ist es ebenfalls. Sie brauchen daher eine eigene Stromversorgung, fast immer in Form eines Steckernetzteils. Bald werden 3,5" Festplatten mit einen USB 3.1 Typ C Anschluss auf den Markt kommen. USB 3.1 ist schnell (bis 10 Gbit/s) und ein Anschluss vom Typ C kann bis zu fünf Ampere liefern, so dass ein externes Netzteil nicht mehr benötigt wird.

Sie haben also die Wahl zwischen einer 2,5"-Festplatte mit geringer Geschwindigkeit und geringerer Kapazität, die relativ unempfindlich und leicht zu handhaben ist und in die Hosentasche passt, oder einer großen 3,5"-Festplatte, die zwar schnell und preiswert, aber auch hochempfindlich, klobig und wegen des Zusatznetzteils umständlich in der Handhabung ist.

Wenn die Festplatte ständig neben dem PC liegt, schützt sie Ihre Daten nicht vor Diebstahl, Feuer und Wasser. Wenn man die Festplatte häufig zwischen dem PC und einem sicheren Ort hin- und herträgt, ist eine 2,5"-Festplatte handlicher und auch weniger empfindlich gegen Erschütterungen.

Wenn Sie zum Feierabend die Daten sichern und anschließend nach Hause mitnehmen, muss die Festplatte viele kleine Erschütterungen aushalten. Ein Tipp: Der Hersteller „LaCie“ bietet eine „Rugged USB-C“ Outdoor-HDD an. Für 2 TB zahlen Sie 140 Euro. Die 2,5" Platte übersteht Stürze aus 1,5 Meter auf Beton und das Überrollen durch ein Auto. Auch eine SSD-Festplatte im 2,5" Gehäuse könnte trotz des hohen Preises interessant sein. Einerseits brauchen Sie nicht lange auf das Ende des Backups zu warten. Zweitens sind SSD mechanisch unempfindlich und überstehen problemlos Erschütterungen und Stürze beim Transport.

Kapazität[Bearbeiten]

Wählen sie die Kapazität nicht zu klein. Die Komplettsicherung der letzten Woche, des vorhergehenden Monats und vom Jahresende sollten mindestens darauf passen.

Wenn Sie weder Filme noch umfangreiche Foto- und Musiksammlungen sichern oder transportieren müssen, können Sie vielleicht anstelle einer externen Festplatte einen USB-Speicherstick verwenden. Auf einen 32-GB-Stick, der etwa 20 Euro kostet, passen etwa 15 000 Fotos oder etwa 8 000 Minuten Musik im MP3-Format, das ist Musik für etwa 120 Stunden.

Sonstiges[Bearbeiten]

  • Ein Einschalter an der externen Festplatte ist vorteilhaft, doch er befreit Sie nicht von der Notwendigkeit, die Festplatte vor deren Ausschalten vom System abzumelden.
  • Ein und dieselbe Steckerbauform wird von Netzteilen mit verschiedenen Spannungen verwendet. Falls die Festplatte ein Netzteil braucht, verwechseln Sie es nicht mit den Netzteilen von Smartphone oder Notebook!

Gebrauchslage[Bearbeiten]

Einigen externen Festplatten wird eine Halterung beigelegt, um sie senkrecht aufstellen zu können. Tun Sie das nicht, das verringert die Datensicherheit. Warum?

Der Abstand der Magnetköpfe von der Plattenoberfläche muss genau justiert sein. Bei der Justierung ist der Einfluss der Erdanziehung eingeplant worden. Wenn man die Festplatte hochkant stellt oder gar auf den Rücken legt, wirkt das Eigengewicht der Köpfe in die falsche Richtung und der Kopfabstand ändert sich. Die Stärke des Lesesignals hängt vom Quadrat der Entfernung ab. Eine um 20 % vergrößerte Kopfentfernung verringert die Amplitude des Lesesignals um etwa 44 %. Die Wahrscheinlichkeit von Lesefehlern wächst.

Die Sicherheit externer Festplatten[Bearbeiten]

Die Festplattenhersteller geben in ihren Datenblättern fast immer Werte von 55 °C oder 60 °C als die maximal zulässige Festplattentemperatur an. Ein repräsentatives Sortiment externer Festplatten wurde im Klimalabor von http://www.tecchannel.de getestet.

  • Externe 3,5 Zoll Festplatten im Plastegehäuse hatten bereits bei 20 °C Raumtemperatur eine – gerade noch unbedenkliche – Festplattentemperatur von 50 °C bis fast 60 °C.
  • Im Sommer ist eine Raumtemperatur von 30 °C keine Seltenheit. Bei diesen Temperaturen erreichten die Festplatten bereits kritische Werte von 55 bis 66 °C.
  • Bei 35 °C (Zimmer mit Fenstern in Südrichtung) erreichten die Festplatten, obwohl sie im Schatten lagen, Temperaturen von 59 bis 74 °C. Das ist deutlich außerhalb der Spezifikation!

Eine einzige Festplatte ist nicht genug![Bearbeiten]

Wenn Sie eine einzige Festplatte als alleiniges Backup-Gerät einsetzen, reicht das möglicherweise nicht aus. Nehmen wir an, Sie haben am Montag ein Backup gemacht. Im Laufe des Dienstags beschädigen Sie unbemerkt eine Datei oder Sie löschen einen Ordner durch einen falschen Klick. Das ist nicht schlimm, die Sicherung vom Montag ist ja noch in Ordnung. Doch wenn Sie den Fehler bis zum Termin der nächsten Datensicherung nicht bemerken und die Sicherung immer ins gleiche Verzeichnis der Festplatte speichern, werden Sie das letzte intakte Backup überschreiben und die Daten sind endgültig weg. Deshalb sollten Sie, solange der Speicherplatz reicht, jedes Backup in ein neues Verzeichnis schreiben, damit die Daten des Vortags erhalten bleiben.

Auch damit sind Sie noch immer nicht nicht auf der sicheren Seite. Was passiert bei einer Virusinfektion? Auf eine externe Festplatte kann der Virus überspringen und auch ein Softwarefehler kann das Ende aller Daten bedeuten. Bei Benutzung von Bändern oder DVDs besteht diese Gefahr nicht, denn sie werden nach dem Beschreiben herausgenommen.

Unter anderem deshalb hat sich das Großvater-Vater-Sohn-Prinzip bewährt (siehe Kapitel 5.3.). Mit Festplatten kann man das gleiche Niveau an Sicherheit erreichen, wenn man zwanzig davon verwendet oder wenigstens zwei bis drei, die nach einem durchdachten Plan reihum verwendet werden. Vielleicht zwei im täglichen Wechsel und die dritte nur für Monatssicherungen? Freilich ist das teuer. Vielleicht können Sie die wichtigsten Daten regelmäßig auf eine ältere, kleine Platte sichern und die umfangreicheren Monatssicherungen auf eine neue, größere Platte? Wenn Sie mit nur einer Festplatte auskommen müssen, sollten Sie hin und wieder eine Sicherung auf DVD oder auf einen USB-Stick einschieben.

Aufwand für Sicherung auf externe Festplatte[Bearbeiten]

Vor- und Nachteile Kommentare
Hardware etwa 100€ pro Festplatte
Software keine Kosten So schwierig ist eine Batchdatei nicht, und manuell geht es auch
Automatisierbar nein Das An- und Abstecken der Platte lässt sich nicht automatisieren
Einmaliger Zeitaufwand 30 Min um eine Stapeldatei zu schreiben
Täglicher Zeitaufwand 3+3 Min Anstecken, bis Ende der Sicherung warten, deaktivieren, wegräumen
Externe Gefahren gering wenn die Platte weit entfernt vom PC gelagert wird

Empfehlungen:

  • Benutzen Sie mindestens zwei externe Festplatten im Wechsel.
  • Lassen Sie die Festplatte nicht dauernd eingeschaltet, sonst überhitzt sie.
  • Lagern Sie die Festplatte über Nacht auswärts, im Safe oder zumindest etwas entfernt.

SD-Speicherkarten und USB-Speichersticks[Bearbeiten]

Die Kapazität ist geringer und der Anschaffungspreis auch, alle anderen Eigenschaften sind denen einer „Externen Festplatte“ vergleichbar. Eine große Musik- oder Videosammlung passt nicht darauf, aber für wichtige Dokumente und einige tausend Fotos könnte es reichen. Ein USB-Stick mit 32 GB Kapazität kostet etwa 20 Euro und würde für eine kleine tägliche Sicherung reichen.

In den meisten Notebooks ist ein Kartenleser eingebaut. Vielleicht haben Sie noch eine ältere Speicherkarte herumliegen, die Sie kaum noch verwenden? Für eine kleine Sicherung genügt sie möglicherweise.

Will man sein Backup außer Haus aufbewahren, ist die Unempfindlichkeit gegen Erschütterungen und die Kleinheit dieser Datenträger ein großer Vorteil. Allerdings könnten bei Flash-Datenträgern bei längerer Nichtbenutzung logische Sektorenfehler auftreten, d. h. Datenfehler ohne physikalischen Schaden oder Funktionsverlust des Gerätes, denn die elektrische Ladung in den Transistoren lässt ohne Erneuerung mit der Zeit nach. Dies geschieht schneller bei Datenträgern schlechterer Herstellungsqualität. Außerden sind die Daten im unwahrscheinlichen Fall eines Komponentenversagens, beispielsweise aufgrund einer durch fehlfunktionierenden Netzteiles verursachten Überspannung, am aller unwahrscheinlichsten zu Retten. Daher sind Flash-Datenträger lediglich als Zusatzsicherung geeignet.

Mehr dazu können Sie im Kapitel Flash-Speicher des Wiki-Buches Computerhardware für Anfänger lesen.

Festplatte eines anderen PC[Bearbeiten]

Verfahren[Bearbeiten]

Wenn Sie zwei oder mehr über ein Netzwerk verbundene PCs haben, ist eine erstklassige Datensicherung ohne irgendeine Investition möglich. Kopieren Sie einfach die zu sichernden Daten auf den jeweils anderen PC! Dieses Verfahren basiert auf der Erkenntnis, dass die Festplatten der meisten PC zu weniger als einem Drittel belegt sind. Folglich ist ein genügend großer Bereich frei, um die Datensicherung eines anderen PC unterzubringen. Dazu müssen die Festplatten geeignet partitioniert sein. Richten Sie auf dem ersten PC eine Partition für die Sicherung des zweiten PC ein und umgekehrt. Geben Sie diese Partitionen im Netzwerk frei und kopieren Sie die Daten mit einem geeigneten Programm hin und her. Für ein gelegentliches Backup reicht vielleicht der Windows-Explorer. Für ein regelmäßiges Backup brauchen Sie ein Programm oder Sie schreiben selbst ein Sicherungsprogramm. Dazu brauchen Sie nur noch eine Stapeldatei auf jedem PC, die mit dem Befehl XCOPY oder ROBOCOPY das Kopieren übernimmt. Wie das geht, können Sie in den Kapiteln „Lokale Sicherung“ und „Netzwerk“ dieses Buches lernen. Diese Batch-Datei lassen Sie vom PC täglich automatisch ausführen. Wählen Sie dafür einen geeigneten Zeitpunkt. Es muss ein Zeitpunkt sein, wann mit hoher Wahrscheinlichkeit beide PC eingeschaltet sind und wenn der Leistungsabfall während der Sicherung nicht stört. Wenn Sie den Beginn der Sicherung auf den Beginn der Frühstücks- oder Mittagspause legen, verpassen Sie den Anfang der Pause nicht.

Es ist von Vorteil, wenn sich die PCs in weiter entfernten Zimmern oder auf verschiedenen Etagen befinden. Das verringert die Gefahr, dass durch Feuer, Wasser oder Diebstahl beide PC gleichzeitig verloren gehen.


In manchen Firmen kommt ein Backup-PC zum Einsatz, der keine andere Aufgabe hat, als die Datensicherungen aller anderen PC zu speichern. Als Backup-PC kann durchaus ein älterer, leistungsschwacher PC verwendet werden, wichtig ist nur dessen Festplattenkapazität. Wenn dieser PC zeitgesteuert hochgefahren und nach der Sicherung automatisch heruntergefahren wird, ist der Energieverbrauch gering.

Aufwand für Datensicherung auf anderen PC[Bearbeiten]

Vor- und Nachteile Kommentare
Hardware keine Kosten  
Software keine Kosten So schwierig ist eine Batchdatei nicht, und manuell geht es auch
Automatisierbar ja Ein Eintrag im Taskplaner ist nicht schwer
Einmaliger Zeitaufwand 30 Min um eine Stapeldatei zu schreiben und zu testen
Täglicher Zeitaufwand 1 Min für eine gelegentliche Kontrolle
Externe Gefahren groß Durch Feuer oder Diebstahl gehen vermutlich beide PC verloren

Netzwerkspeicher[Bearbeiten]

Network Attached Storage, abgekürzt NAS, ist ein Netzwerkspeicher für die gemeinsame Nutzung durch mehrere PC. In den einfacheren Geräten steckt nur eine Festplatte und sie sind nicht viel größer als ein dickes Buch. Es handelt sich um einen kleinen Fileserver, oft mit dem Betriebssystem Linux. Weil es sich um PCs ohne Ein- und Ausgabegeräte handelt, werden sie über den Webbrowser eines der angeschlossenen PC konfiguriert. NAS haben außer einem Einschalter keine Bedienelemente.

Mehr über NAS können Sie im Kapitel über Computerhardware lesen.


NAS ist optimal geeignet, wenn mehrere PC unabhängig voneinander auf gemeinsame Daten zugreifen sollen, z. B. Fotos, Musik oder Videos. Der Benutzer kann seine Dateien in Ordnern oder Partitionen ablegen. Außer bei sehr wenigen Einstiegsgeräten gibt es eine Benutzerverwaltung mit der Möglichkeit, Zugriffsrechte zu vergeben. Oft können die Daten verschlüsselt werden. Manche Geräte unterstützen Streaming Media (Web-Radio und Web-TV). Manchmal ist ein USB-Anschluss für einen gemeinsamen Drucker oder für den Anschluss einer externen Festplatte vorhanden. Gespeicherte Videos und Fotos können auf einem iPhone oder auf neueren Fernsehern wiedergegeben werden.

NAS für den Heimgebrauch sind auf geringen Stromverbrauch und günstigen Preis optimiert. Die meisten Geräte haben einen Gigabit-Netzwerkanschluss, der theoretisch 100 MByte/s transportieren könnte. Realistisch erreicht ein Gigabit-Netzwerk nur 40 MByte/s. Doch weil in preiswerten NAS leistungsschwache Prozessoren verbaut werden, schaffen einige NAS nur einen Durchsatz um die 10 MByte/s. Um Musik oder Filme abzuspielen, reicht das aus. Wenn mehrere PC gleichzeitig auf die Daten zugreifen, kann der Datendurchsatz eines NAS deutlich sinken.

NAS werden üblicherweise als gemeinsamer Datenspeicher eingesetzt. Der Benutzer kann seine Dateien in Ordnern oder Partitionen ablegen. Es können Zugriffsrechte vergeben werden. Es spricht nichts dagegen, die lokalen Daten der angeschlossenen PCs auf dem NAS abzulegen. Bedenken Sie aber:

  • Im Unterschied zu externen Festplatten sind NAS für den Dauerbetrieb konzipiert. Man muss sie nach der Datensicherung nicht abmelden und ausstöpseln. Dieser Vorteil ist zugleich ein Nachteil: Wenn ein Virus einen der PC befällt und dessen Daten verschlüsselt oder löscht, macht er das vermutlich auch mit allen Backups auf dem NAS.
  • Einige professionellere Geräte haben mehrere Festplatten, die meist als RAID-Verbund geschaltet sind (beim RAID-Verfahren werden Festplatteninhalte doppelt gespeichert, so dass selbst beim Ausfall einer der Festplatten keine Daten verloren gehen). Gegen Viren oder versehentliches Löschen von Dateien helfen die doppelten Festplatten allerdings nicht. Einige NAS verwenden ein proprietäres (herstellereigenes) Speicherformat, so dass nach einem Defekt an der Geräteelektronik die unversehrten Festplatten möglicherweise nicht ausgelesen werden können.
  • Wohin werden die gemeinsamen Daten der NAS gesichert? Vielleicht auf eine freie große Partition eines der angeschlossenen PC?


Zum Vergleich: Eine externe Festplatte mit USB-2.0-Interface kann theoretisch maximal 60 MByte/s übertragen, eine interne SATA-Festplatte erreicht 300 MByte/s, eine interne SSD-Festplatte 600 MByte/s.

Eine interessante Idee ist es, ein NAS-Leergehäuse zu kaufen. Dann können Sie Festplatten selbst aussuchen und wenn sie in einigen Jahren zu klein werden, diese gegen größere auswechseln. Kaufen Sie leise, energiesparende Festplatten mit 5400 U/min! Diese erreichen beim Lesen etwa 100 MByte/s – das ist weit mehr, als das Netzwerkinterface der meisten NAS transportieren kann. Schnellere Festplatten wären Verschwendung von Geld und Elektroenergie.

Gibt es Alternativen zu NAS?

  • Ist Ihre interne Festplatte zu klein? Eine externe Festplatte am eSATA-Anschluss erreicht 100 MB/s, eine interne Festplatte ist noch schneller. Eine zu klein gewordene interne Festplatte mit einem NAS zu ergänzen ist nur dann sinnvoll, wenn das NAS nur für Daten und nicht für Programme genutzt wird
  • Gemeinsam genutzte Daten könnte man auch auf der Festplatte eines der PCs im Netzwerk ablegen. Dieser PC müsste allerdings ständig eingeschaltet sein, was energie- und lärmintensiv wäre. Eine Energierechnung über 200 Euro wäre nicht ungewöhnlich. Kleine NAS brauchen etwa 10 Watt (20 Euro pro Jahr) und man kann sie in eine Ecke stellen, wo ihr geringes Betriebsgeräusch nicht stört.
  • Eine Alternative zu einem NAS wäre ein „richtiger“ Fileserver. Die Hard- und Software dafür kostet 2000 Euro, die Installation ist kompliziert und die Stromrechnung ist hoch.

Einige professionellere NAS-Geräte haben mehrere Festplatten, die meist als RAID-Verbund geschaltet sind (beim RAID-Verfahren werden Festplatteninhalte doppelt gespeichert, so dass selbst beim Ausfall einer der Festplatten keine Daten verloren gehen). Doch die Werbung verspricht eine oftmals trügerische Sicherheit. Datenretter und Fachhändler berichten, dass überproportional häufig der Speichercontroller ausfällt. Selbst wenn die NAS-Elektronik im Todeskampf die Daten nicht ruiniert hat, können Sie auf die Daten nicht mehr zugreifen. Nach Ablauf der Garantie ist es unrealistisch, ein Ersatzgerät auftreiben zu können.

Die Festplatten ausbauen und direkt an einen PC anstecken? Das ist nicht immer erfolgreich. Wenn Sie Glück haben, hat der Hersteller ein Linux-Dateisystem verwendet und Sie kommen mit einer Linux-Live-Boot-CD an Ihre Daten heran. Wenn Sie Pech haben, hat der Hersteller ein spezielles Dateisystem entwickelt, um ein paar Prozent mehr Geschwindigkeit herauszuholen. Kaufen Sie also besser nur so ein NAS-System, das mit einem Standard-Dateisystem arbeitet!

Datensicherung über das Internet[Bearbeiten]

Eine „Cloud“ (sprich „Klaud“) ist ein digitaler Speicher, auf den Sie über das Internet zugreifen können. Wie praktisch, wenn man überall auf der Welt Zugriff auf seine Daten, Fotos und Musik hat! „Cloud“ wird mit „Wolke“ übersetzt. Wie in einer undurchsichtigen Wolke ist nicht zu sehen, wo sich Ihre Daten befinden – in welchem Rechenzentrum auf welchem Kontinent. Sie haben keine Kontrolle mehr über Ihre Daten. Doch der Speicherplatz in der Wolke ist kostenlos oder billig und erspart Ihnen vielleicht die Anschaffung einer externen Festplatte.

Vorteile und Nachteile[Bearbeiten]

Bei einem sogenannten „Online-Backup“ oder „Web-Backup“ können Sie Ihre Daten im Internet hinterlegen. Auf http://de.wikipedia.org/wiki/Online-Datensicherung#Anbieter finden Sie einige Provider. Bei manchen davon kostet es nicht einmal etwas, eine Kopie seiner privaten Daten im Internet zu speichern, allerdings werden Sie im Gegenzug wahrscheinlich mit Werbung belästigt. Je nach Anbieter sind 5 GB bis 50 GB Speicherplatz für private Verwendung kostenlos. Wer mehr Platz braucht, muss zahlen. Wenn Sie eine externe Festplatte oder ein Antivirenprogramm kaufen, hat der Hersteller manchmal ein kostenloses Angebot für Online-Backup beigelegt.

Achten Sie auf die Merkmale der Backup-Software, wenn Sie nicht nur gelegentlich Daten sichern wollen. Die Sicherung sollte nach Zeitplan erfolgen können und ein Protokoll erzeugen.

Weitere Probleme:

Übertragungsgeschwindigkeit
Ein Problem ist die geringe Datenübertragungsrate. In der Upstream-Richtung (vom Computer zum Internet) ist die Datenübertragung erheblich langsamer als beim Download. Ein typischer DSL-6000-Vertrag bietet in der Upstream-Richtung „bis zu“ 512 kbit/s. Das sind theoretisch 230 MByte pro Stunde, weniger als 2 GByte in einer langen Nacht. Etwas besser schneidet DSL-16 000 ab, mit bis zu 1000 kbit/s beim Upload. Erst bei DSL-50 000 (VDSL-50) erreicht die Upload-Geschwindigkeit von typisch 10 000 kbit/s eine brauchbare Größe, damit könnte man pro Stunde bis zu 3,6 GByte sichern. Doch das sind theoretische Werte, die realen Übertragungsraten sind niedriger und sie schwanken stark. Außerdem hängt die Übertragungsgeschwindigkeit von der Dateigröße ab. Wenn die zu sichernden Dateien relativ klein sind, läuft die Übertragung langsam, bei großen Dateien geht der Upload schneller. Bei kostenlosen Angeboten fällt die Übertragungsrate in Spitzenzeiten stark ab oder sie wird ständig gedrosselt, weil die zahlenden Kunden bevorzugt werden.
  • Trotz der geringen Upload-Rate eines DSL-Anschlusses können sich im Verlauf von Monaten größere Datenmengen auf dem Server des Providers ansammeln. Bei einem Experiment mit DSL 6000 dauerte es 30 Nächte zu je 6 Stunden, 35 GB über das Internet zu sichern. Wie lange würde es im Schadensfall dauern, den gesamten Datenbestand zurückzukopieren?
  • Für die Rücksicherung steht zwar die höhere Downloadrate zur Verfügung, trotzdem hätte die Rücksicherung selbst im 24-Stunden-Betrieb mehrere Tage gedauert. Können Sie sich im Notfall derart lange Wartezeiten leisten? Bevorzugen Sie einen lokalen Anbieter, bei dem Sie Ihre Daten notfalls mit einer externen Festplatte abholen können.
  • Die Telekom trennt jede Nacht die DSL-Verbindung für einige Sekunden, und auch bei anderen Anbietern können kurze Unterbrechungen auftreten. Wenn Sie keine Spezialsoftware haben, welche die Verbindung automatisch wiederherstellt, war's das für diese Nacht.
  • Wenn eine VPN-Verbindung (eine verschlüsselte Verbindung) benutzt wird, muss sie sich automatisch aufbauen lassen. Die Übertragung muss automatisch starten. Dazu ist vermutlich Spezialsoftware nötig.
  • Die Backup-Software darf tagsüber nur einen kleinen Teil der verfügbaren DSL-Bandbreite nutzen, um die Arbeit nicht zu sehr zu behindern. Wenn Sie größere Datenmengen sichern müssen, können Sie das nicht während der Hauptarbeitszeit machen, sie müssen den PC zum Arbeitsschluss eingeschaltet lassen. Beachten Sie, dass nur wenige Festplatten einen Dauerbetrieb zulassen. Eigentlich sollte die Festplatte über Nacht abkühlen können. Eine gute Software fährt den PC nach Abschluss des Backups herunter. Sie können auch das Herunterfahren mit „shutdown“ selbst programmieren für einen Zeitpunkt, wann die Datensicherung erfahrungsgemäß längst beendet ist.
  • Möglicherweise sind einige Dateien so groß, dass sie sich nicht in einer Nacht übertragen lassen. Dann müssen Sie ein Backup-Programm benutzen, welches den sogenannten „Restartable Mode“ beherrscht: Nach einem Abbruch muss das Kopieren der „angefangenen“ Datei in der nächsten Nacht an der unterbrochenen Stelle fortgesetzt werden können.
Dienstabschaltung
Was geschieht mit Ihren Daten, wenn der Provider finanzielle Probleme hat? Werden Ihre Daten gewinnbringend verhökert? Was wird, wenn die Firma ihr Geschäftsmodell ändert, von der Konkurrenz übernommen wird oder pleite geht? In keiner anderen Branche werden Firmen schneller gegründet, umbenannt, aufgespalten, geschluckt, verkauft oder umgestaltet.

In welchen Fällen ist die Sicherung über das Internet sinnvoll? Die geringe Datenmenge, die sich in einer Nacht übertragen lässt, passt locker auf einen USB-Stick. Bei Bedarf eine (mehrfach beschreibbare) DVD zu brennen, geht schneller. Eine externe Festplatte ist bequemer zu benutzen. Den PC am Abend bzw. die ganze Nacht eingeschaltet zu lassen, kostet Sie eine Menge Energie, und der Verschleiß des Computers steigt. Die Festplatte bekommt nie Zeit zum Abkühlen.

Natürlich hat die Internet-Datensicherung auch Vorteile:

  • Bei einigen Anbietern können Sie Ihre Daten mit Freunden teilen oder gemeinsam daran arbeiten.
  • Sie können auch auf Reisen und mit Mobilgeräten Unterwegs auf Ihre Daten zugreifen.
  • Sie stehen nach einem Einbruch oder Feuer nicht ohne Daten da.
  • Sie brauchen nicht daran zu denken, die letzte Datensicherung der Firma nach Hause mitzunehmen. Sie brauchen niemanden zu belästigen, wenn Sie eine Kopie Ihrer privaten Daten außerhalb Ihrer Wohnung deponieren wollen.

Am sinnvollsten scheint die Internetsicherung zu sein,

  • wenn eine Sicherheitskopie der wichtigsten Daten außer Haus gelagert werden soll und sich niemand die Mühe machen will, täglich einen Datenträger nach Hause mitzunehmen oder in den Keller bzw. den Safe zu schaffen,
  • als ergänzende Sicherungskopie zu lokal gespeicherten Daten,
  • wenn die Sicherung erst in der Nacht erfolgen darf, weil einzelne Mitarbeiter länger arbeiten als der Datensicherungsbeauftragte,
  • wenn eine Energieersparnis nicht eintritt, weil der PC ohnehin nie abgeschaltet wird,
  • wenn es nicht wünschenswert ist, dass jeden Abend der letzte Mitarbeiter einen Datenträger mitnehmen muss, denn
    • der Datenträger könnte auf dem Weg verloren gehen und in falsche Hände geraten,
    • der jeweils letzte Mitarbeiter soll vertrauliche Daten nicht in die Hände bekommen.
    • es könnte vergessen werden

Datensicherheit[Bearbeiten]

In den Rechenzentren der großen Anbieter werden hochwertige RAID-Systeme eingesetzt, so dass auch bei Ausfall mehrerer Festplatten keine Daten verloren gehen. Gespiegelte Server werden eingesetzt oder ein räumlich entferntes Zweitrechenzentrum, so dass auch bei Ausfall eines Servers oder des ganzen Rechenzentrums Ihre Daten verfügbar bleiben. Außerdem werden regelmäßig Backups durchgeführt. Ihre Daten sind also sehr sicher. So steht es jedenfalls in der Reklame.

Allerdings sind Zweifel angebracht. Wie oft wird ein Backup durchgeführt? Auch die ausgereifteste Infrastruktur kann nicht vor allen menschlichen und technischen Fehlern schützen. Nehmen wir Microsoft, Gentoo und Amazon als Beispiel.

Als Normalverbraucher nimmt man an, dass es Microsoft weder an Geld fehlt noch an Know-how, um ein Rechenzentrum sicher zu betreiben. Im Jahr 2009 startete T-Mobile den Verkauf eines Smartphones „Sidekick“ in den USA. Es hatte eine attraktive Besonderheit: Kontakte, Termine und Daten wurden nicht auf dem Gerät, sondern im Rechenzentrum eines Tochterunternehmens von Microsoft gespeichert. Das Rechenzentrum funktionierte wie eine riesige Speichererweiterung für das Smartphone. Auf 10 GB kostenlosem Speicherplatz konnte man eine Menge Daten unterbringen und einfach mit dem PC und weiteren Geräte synchronisieren − oder auf einem neuen Smartphone wiederherstellen, wenn das Smartphone verloren oder kaputt geht. Doch plötzlich konnten eine Million Käufer des „Sidekick“ zeitweilig nicht mehr auf ihre Daten zugreifen, ein Teil der Daten war endgültig verloren.

Das Projekt „gentoo linux“ hatte seine Wiki-Datenbank bei einem preiswerten Anbieter gehostet. Als dieser seine Energierechnung nicht mehr bezahlen konnte, wurde der Strom abgedreht − für immer. Leider hatten die Admins des Gentoo-Projekts sich nicht die Mühe gemacht, ein Backup zu erstellen, weil sie an die Professionalität und die Zusicherungen des Providers geglaubt hatten. Zum Glück fand sich ein Anwender, der vom deutschen Teil der Datenbank ein älteres Backup hatte. Die Daten in den anderen Sprachen mussten neu erstellt werden.

Amazon ist ein bedeutender Anbieter von Online-Speicherplatz und Computerkapazitäten. Manche Firmen verzichten auf ein eigenes Rechenzentrum und mieten Computerkapazität bei Internet-Anbietern. Es ist deutlich preiswerter, Rechner- und Speicherkapazität zu mieten, als ein eigenes Rechenzentrum aufzubauen und zu unterhalten. Im April 2011 verloren zahlreiche Kunden ihre auf den Amazon-Servern gespeicherten Daten. Der Analyst Henry Blodget meint dazu, dass Amazon (so wie andere Cloud-Anbieter auch) seine Kunden mit dem Versprechen regelmässiger Backups in falscher Sicherheit wiege. Oft würden die zu sichernden Dateien bei genauerem Hinsehen nur irgendwo auf dem gleichen Server oder im gleichen Server-Raum kopiert – mit einer echten Disaster-Recovery-Strategie habe das wenig gemein. [7]

Doch Amazon traf es am 7. August 2011 erneut. Der Strom fiel aus und die Notstromgeneratoren konnten wegen eines Fehlers in ihrer Steuerungssoftware nicht anspringen. Die Sicherheitskopien waren teilweise unbrauchbar, weil sich auch die Backup-Software als fehlerhaft erwies. Nach 68 Stunden hatten 85 % der Kunden ihre Daten zurück, am vierten Tag 98 %. Kunden, die ihre Daten mehrere Tage nicht benutzen konnten, durften den Amazon-Service 10 Tage lang gratis nutzen. 30 Tage Gutschrift erhielten die Kunden, deren Daten nicht wiederhergestellt werden konnten. Welch unglaubliche Großzügigkeit! Wie hoch waren wohl die Verluste für die betroffenen Firmen, die tagelang nicht arbeiten konnten oder gar ihre Daten neu eingeben mussten?

Es ist vorbildlich, dass Amazon einen Bericht über den Vorfall im Internet veröffentlicht hat, damit die Branche daraus lernen kann.

The human checks in this process failed to detect the error. ... We learned a number of lessons from this event. (Deutsch, sinngemäß: „Die Qualitätskontrolle hat dabei versagt, den Fehler zu finden. Aus diesem Vorfall haben wir einige Lektionen gelernt.“)[8]

Es soll hier auf gar keinen Fall der Eindruck erweckt werden, Amazon hätte schlimmere Probleme als der Rest der Branche. Wer zehntausende Server zusammenschaltet, betritt technologisches Neuland und muss mit unerwarteten Problemen rechnen.

Früher einmal baute man „gespiegelte Rechenzentren“: Zwei identische Rechenzentren an weit voneinander entfernten Orten bearbeiteten alle Programme und Daten gleichzeitig. Wenn eins der Rechenzentren durch Erdbeben oder andere Probleme ausfiel, war ja noch das zweite da. Das ist ein über Jahrzehnte ausgereiftes, aber teures Konzept. Um Kosten zu sparen, muss heute oft ein einziges Rechenzentrum als Reserve für mehrere Zentren ausreichen, ähnlich wie bei einem RAID-5-Festplattensystem. Es ist ein überaus komplexes Zusammenwirken von Hard- und Software notwendig, um die Verteilung und Duplizierung der Daten und Prozesse zwischen den Rechenzentren zu organisieren. Bei der benötigten Hardware handelt es sich oft um Prototypen, und die Sicherheitssoftware enthält Fehler wie jede andere Software auch. Wenn es zu einem Problem kommt, ist dieses meist so komplex, dass es zu mehrtägigen Ausfällen kommt.

Ganz gefährlich wird es, wenn Sie das Internet nicht nur für Backups nutzen, sondern Ihre Originaldaten im Internet speichern. Selbst wenn Sie Ihre Daten nicht verlieren: Wie schlimm wäre es, wenn die Internetverbindung ausfällt? DSL-Verträge für Privatnutzer sichern im Kleingedruckten 99,9 % Verfügbarkeit zu. 0,1 % Ausfallzeit (8 Stunden pro Jahr) sind nicht viel, doch hatte ich bedrückend viele Kunden, bei denen es Wochen dauerte, bis das Internet wieder funktionierte. Ihren DSL-Anbieter deswegen zu verklagen ist keinem von ihnen eingefallen. Meine Computerwerkstatt musste einmal drei Wochen ohne Internet auskommen! Die Umsatzausfälle hat mir die Telekom nicht erstattet. Sie sollten also besser alle Daten auf dem eigenen PC lassen und den Internet-Speicherplatz nur für eine Datensicherung verwenden. Wenn das Internet ausfällt, können Sie einige Tage keine Backups durchführen. Das ist nicht schlimm – solange nicht Ihre lokale Festplatte zeitgleich ausfällt.

Datenschutz[Bearbeiten]

  • Sie wissen nicht, in welchem Land die Server mit Ihren Daten stehen und welche Datenschutzgesetze dort anwendbar sind. Und was die Provider mit Ihren Daten machen, erfahren Sie nicht.
    • In den USA behalten sich einige Anbieter vor, Ihre Daten zu sichten, um Raubkopien oder "anstößige" Daten zu entfernen.
    • In vielen Ländern haben Geheimdienste und Polizei Zugriff.
    • Google durchsucht E-Mails, Dokumente und Tabellen, z. B. um passende Werbung einblenden zu können.

Das deutsche Datenschutzgesetz verpflichtet Firmen,

  • personenbezogene Daten nur innerhalb der EU zu speichern,
  • ihren Kunden jederzeit Auskunft geben zu können, wo ihre Daten gespeichert sind.

Gegenmaßnahmen:

  • Die Daten sollten über eine sichere, verschlüsselte Verbindung (über ein VPN = virtuelles privates Netzwerk) übertragen werden, damit niemand die Verbindung abhören kann.
  • Kontodaten und jegliche Passwörter sollte man nicht im PC speichern, und irgendwohin übertragen sollte man sie schon gar nicht!
  • Deshalb sollten wichtige Daten bereits vor der Übertragung verschlüsselt werden, denn es ist bedenklich, seine wichtigsten, vertraulichen Daten einer unbekannten Firma anzuvertrauen. Es sollte eine exzellente Verschlüsselung mit einem sicheren Passwort sein, denn der Empfänger Ihrer Daten (oder deren Dieb) hat alle Zeit der Welt, den Code zu entschlüsseln.

Es gibt auch positive Ausnahmen.

  • Die beiden Rechenzentren von Strato stehen in Deutschland und unterliegen den strengen deutschen Datenschutzgesetzen. Strato sichert zu, die Daten niemals weiterzugeben. Die Rechenzentren sind auf klassische Art gespiegelt und vermutlich sicherer als bei Konkurrenten mit unüberschaubarer Serverlandschaft.
  • Weitere Anbieter haben den Bedarf nach Speicherkapazität erkannt, die den deutschen Datenschutzbestimmungen unterliegt. Für 1,99 € kann man bei mobilcom-debitel 25 GB Kapazität in der Cloud dazubuchen.

Identitätsdiebstahl[Bearbeiten]

Haben Sie „Das Netz“ mit Sandra Bullock gesehen? Dem US-Journalisten Mat Honan erging es ähnlich, wenn auch nicht ganz so schlimm. Angreifer hatten sich beim Apple-Support erfolgreich als Mat Honan ausgegeben und Zugriff auf sein iCloud-Konto erhalten. Sie meldeten das MacBook als gestohlen und lösten eine Fernlöschung der Festplatte und aller angesteckten Speicher ein. Das E-Mail-Konto wurde missbraucht und 415 000 Twitter-Follower wurden mit anstößigen Inhalten eingedeckt.

Die Zeitschrift ChannelPartner 3/2011 berichtete, dass der Chef von Interpol Opfer eines Identitätsdiebstahls geworden sei. Hohen Beamten war es verboten, einen Facebook-Account zu haben. Kriminelle richteten auf Facebook einen Account unter seinem Namen ein, mit korrekten Angaben zur Person. Einige Kollegen und Freunde des Polizeichefs fielen auf die Facebook-Freundschaftsangebote herein und gaben teilweise berufliche Informationen preis. So gelangten die Kriminellen an interne Daten über Fahndungen nach Schwerverbrechern.

Stellen Sie sich vor, jemand versendet mit Ihrem Absender beleidigende E-Mails an alle Ihre Bekannten! Und hört erst auf, nachdem Sie ein „Schutzgeld“ gezahlt haben!

Datendiebstahl[Bearbeiten]

Die Server der großen Firmen und der Internetprovider sind bevorzugtes Angriffsziel von Hackern. Ein erfolgreicher Einbruch in ein Rechenzentrum hebt das Prestige eines Hackers unter seinen Kumpeln, außerdem kann es finanziell sehr lukrativ sein, die gefundenen Daten zu verwerten. Es vergeht kein Monat, ohne dass einige namhafte Firmen gezwungen sind zuzugeben, dass Daten gestohlen wurden, z. B. Amazon, Ashampoo, Sony Playstation, Mindfactory, Planet4one, Lockheed Martin, Adcell, Citibank, Acer, Sony Pictures, Neckermann, Google Mail, Nintendo.

Selbst die Sicherheitsspezialisten sind nicht sicher.

  • Die US-Sicherheitsfirma Barracuda Networks wurde im April 2011 gehackt[9].
  • Im Juni 2011 wurde die Firma RSA gehackt. RSA verwaltet die Sicherheitsschlüssel von Regierungen, Rüstungsfirmen, Geheimdiensten und Großkonzernen. Die gestohlenen Schlüssel wurden u. a. benutzt, um der Rüstungsfirma Lockheed Martin Konstruktionsunterlagen zu entwenden. RSA musste etwa 40 Millionen Kunden empfehlen, ihre Passwörter zu wechseln [10].

Wenn Sie eine Suchmaschine nach "Datendiebstahl 2016" fragen, finden Sie aktuelle Beispiele.

Aber das ist nur die Spitze eines riesigen Eisberges. Fragen Sie sich einmal:

  • Wie viele Firmen haben nicht gemerkt, dass Daten gestohlen wurden?
  • Wie viele Firmen haben zwar es gemerkt, aber geben es aus Angst vor Imageschaden nicht zu (bzw. geben es erst zu, wenn die Beweise unübersehbar sind?)

Es vergeht kein Monat, ohne dass einige namhafte Firmen gezwungen sind zuzugeben, dass Daten gestohlen wurden.


Verstoß gegen Nutzungsbedingungen[Bearbeiten]

In den Nutzungsbedingungen der Microsoft-Cloud steht u. a., dass Sie sich verpflichten, kein pornografisches oder terroristisches Material einzustellen. Auch andere Datendienste in den USA behalten sich vor, die Daten ihrer Kunden auf „pornografisches“ und terroristisches Material und Raubkopien zu prüfen.

Ein professioneller Fotograf hielt es für eine gute Idee, seine Fotos in der MS-Cloud zu lagern. Darunter waren auch einige Aktaufnahmen. Microsoft sah darin eine Vertragsverletzung und löschte das Konto, einschließlich aller Fotos, Kundenadressen und anderer Daten. Auch die E-Mail-Adresse wurde gesperrt.

Die beanstandeten Fotos befanden sich im privaten Bereich der Cloud, sie waren also für niemanden außer den Fotografen sichtbar. Wieso fühlt sich Microsoft berechtigt, die Privatsphäre ihrer Kunden zu überwachen?

Dass der Fotograf die bestellten Fotos nicht ausliefern konnte, war das kleinere Problem. Der Fotograf hatte jahrelang Visitenkarten und Prospekte verteilt, und nun war die darauf angegebene E-Mail-Adresse für immer ungültig. Wie viele Aufträge mögen deshalb nicht zustande gekommen sein?

Eine kurze Recherche zeigte: Ein Einzelfall ist das nicht.

  • Einem niederländischen Journalisten mit dem Nicknamen „WingsOfFury“ passierte etwa das Gleiche. In seinem Blog fragt er, wie viele Quadratzentimeter Stoff ein Bikini mindestens haben muss, damit er in den USA nicht als anstößig gilt.
  • Dem deutschen Fotojournalisten Dirk Salm wurde der Zugang gesperrt: Vier Fotos hätten gegen die Nutzungsbedingungen verstoßen – wegen „Nacktheit“.

Es trifft natürlich nicht nur Journalisten, aber im Unterschied zu „Normalos“ wissen die, wie und wo man sich öffentlichkeitswirksam äußern kann.

Und es betrifft nicht nur Microsoft. Auch andere Datendienste in den USA behalten sich vor, die Daten ihrer Kunden auf „pornografisches“ und terroristisches Material zu prüfen.


Einige Anbieter von Online-Backup-Speicherplatz
Anbieter Adresse Server in gratis 20 GB 100 GB
Dropbox dropbox.com USA 2 GB 199$
GMX gmx.net USA
Windows Live SkyDrive windowslife.de Irland 25 GB -
Amazon Cloud Drive amazon.com/clouddrive USA 5 GB - 100 $
Strato HiDrive strato.de DE - 24 € 48 €
F-Secure
Norton 360

E-Mail[Bearbeiten]

Sie haben nur sehr wenige Dateien zu sichern, z. B. eine Abschlussarbeit? Sie arbeiten regelmäßig an der Datei und würden Sie gern häufig sichern? Klicken Sie mit der rechten Maustaste auf die Datei, wählen Sie „Senden an“ und dann „E-Mail-Adresse“. Nun ist Ihre Datei der Anhang einer E-Mail. Sie brauchen nur noch Ihre eigene Adresse oder die eines Freundes eintragen und auf „Senden“ klicken. Das geht viel schneller, als einen USB-Speicherstick einzustecken, Daten auf den Stick zu kopieren und den Stick wieder abzumelden. Sie müssen lediglich auf dem PC ein E-Mail-Programm einrichten und einstellen, dass alle E-Mails auf dem Server gespeichert bleiben sollen. Das Kontingent an Speicherkapazität ist auf den Servern der E-Mail-Provider meist reichlich bemessen.

Im studentischen Bereich hat es sich bewährt, Daten zu sichern, indem man sie häufig per E-Mail an sich selbst schickt und weniger häufig an einige seiner Freunde. Die zu sichernde Datenmenge ist meist winzig und die Daten sind nicht im geringsten Geheim. Typischerweise betrifft dies Examensarbeiten von wenigen Megabyte Größe, die mit der Abgabe beim Prüfungsamt sowieso öffentlich einsehbar werden. Schön an diesem Verfahren ist vor allem, dass die Daten auch bei einem Zimmerbrand oder bei einem anderen Totalausfall des PC gesichert sind. Durch den Versand an viele Adressaten stellt auch der Ausfall eines Providers kein Problem dar.

Die eigene Festplatte[Bearbeiten]

Auf den ersten Blick klingt es verblüffend, die eigene Festplatte für eine Datensicherung benutzen zu wollen. Was ist, was die Festplatte kaputt geht? Dagegen hilft natürlich nur eine Datensicherung auf ein externes Medium. Weil aber kleine Datenunfälle weitaus häufiger sind als ein totaler Ausfall der Festplatte, gibt es zwei wichtige Anwendungen für die interne Festplatte:

  • Wenn man sicherheitshalber ein Image seines Betriebssystems (eine Systemsicherung) auf einer zweiten Partition seiner Festplatte aufbewahrt, kann man mit einem geringem Aufwand eine unbeschädigte Version seines Betriebssystems wiederherstellen. Das Erstellen eines Images erfordert nur wenige Minuten Arbeit und eine halbe Stunde Wartezeit, erspart aber viele Stunden, wenn nach einem Virenbefall oder einem anderen Crash eine Neuinstallation notwendig werden sollte.
  • Die eigene Festplatte kann man verwenden, um den Zustand wichtiger Dokumente für einige zurückliegende Tage aufzubewahren. Damit kann man eine versehentlich gelöschte Datei oder die frühere Version eines Dokuments zurückholen. Die Erstellung einer Historie kann man automatisieren, oder man macht vor größeren Aktionen vorsorglich eine Kopie. Windows 7 bis 10 (aber nur in der Variante Professional oder Ultimate) merken sich frühere Dateiversionen automatisch. Jedesmal wenn ein Wiederherstellungspunkt angelegt wird, erzeugt Windows eine sogenannte „Schattenkopie“. Wenn Sie mit der rechten Maustaste auf ein Dokument klicken, können Sie über „frühere Versionen“ bis zu 32 vorhergehende Versionen zurückholen. Ob Sie Schattenkopien erlauben wollen oder nicht und wie viel Festplattenkapazität Sie dafür reservieren wollen, können Sie über System → Computerschutz festlegen. Für das Laufwerk C: wird die Schattenkopie bereits bei der Installation aktiviert. Hat man weitere Partitionen angelegt, muß man sich selbst darum kümmern, die Schattenkopiefunktion zu aktivieren und Speicherplatz dafür zu reservieren. Allerdings: Gelöschte Dateien kann man mit dem Schattenkopie-Konzept nicht zurückholen.

Bandgerät[Bearbeiten]

Bandgeräte sind sehr teuer, trotzdem sind sie für eine professionelle Datensicherung kaum entbehrlich. DVDs haben einfach nicht genug Kapazität, und das Brennen lässt sich kaum automatisieren. Dazu kommt der hohe Zeitaufwand. Um 100 GB Daten zu sichern, müsste jemand fast den ganzen Tag bzw. die Nacht 22 DVDs wechseln und beschriften. 100 GB auf Band zu sichern kann zwar einige Stunden dauern, muss aber nicht beaufsichtigt werden. Mehr noch: Sogenannte „Tape Libraries“ (Bandroboter) können eine Woche lang automatisch die Bänder wechseln.

Die aktuelle Technologie heißt "LTO Ultrium" und wird von IBM, HP und Quantum gemeinsam ständig weiterentwickelt. Die Partner wollen alle zwei Jahre eine neue Laufwerksgeneration mit verdoppelter Kapazität und anderthalbfacher Transferrate vorstellen. Unternehmen müssen immer größere Datenmengen speichern und archivieren, und am preiswertesten geht das mit Bandgeräten.

Typ Kapazität Datenrate Zeit zum
Vollschreiben
Zeit für 5 GB
LTO Linear Tape Open Version Ultrium 7 6400 GB 315 MB/s 5,6 h 16 sek
AIT Advanced Intelligent Tape 400 GB 7 MB/s 16 h 12 min
DLT Digital Linear Tape 300 GB 11 MB/s 8 h 8 min
DVD 8x (zum Vergleich) 4,7 GB 7 MB/s 12 min 13 min

Externes RAID-System[Bearbeiten]

In manchen Firmen sind die zu sichernden Datenmengen so groß, dass sie nicht auf ein Band passen. Nacheinander mehrere Bänder einzulegen scheidet aus: Es wäre zu teuer, mitten in der Nacht einen Mitarbeiter zum Bandwechsel in die Firma zu schicken. Theoretisch könnte sich die Firma einen Bandroboter anschaffen, der die Bänder automatisch wechselt. Praktisch scheitert die Sicherung auf mehrere Bänder oft aus einem profanen Grund: Die Nacht ist zu kurz, denn Bandgeräte sind relativ langsam. Es dauert meist länger als eine Stunde, ein Band vollzuschreiben. Eine Umfrage der Zeitschrift „Computer Reseller News“ zeigte, dass ein Drittel der mittelständigen Betriebe es nicht schaffen, im verfügbaren Zeitrahmen alle ihre Daten zu sichern.

Einen möglichen Ausweg stellen sogenannte „Appliances“ dar. Das sind Computersysteme, die auf das Speichern von großen Datenmengen spezialisiert sind. Die Daten werden auf eine größere Anzahl von Festplatten verteilt, die als RAID-5-System arbeiten, manchmal auch im RAID-6-Modus (das heißt, es dürfen zwei Platten gleichzeitig ausfallen, ohne dass Daten verloren gehen). Diese Appliances werden an das Netzwerk angeschlossen und sinnvollerweise in einen Raum gestellt, der weit genug vom Server entfernt ist.

Deduplizierung[Bearbeiten]

In jedem Backup gibt es große Mengen an ähnlichen Dateien, sowohl vom gleichen Tag als auch von verschiedenen Tagen.

  1. Wenn Sie regelmäßig Vollsicherungen machen, haben Sie jede Menge identischer Dateien.
  2. Wenn Sie beispielsweise eine E-Mail an mehrere Kollegen versenden, möglicherweise mit Anhang, gibt es identische Dateien in mehreren Briefkästen. Auch auf anderem Wege werden Dateien kopiert.
  3. Viele Dokumente sind abschnittsweise identisch. Beispielsweise werden Briefe, Rechnungen und andere Dokumente oft aus Standardbausteinen zusammengesetzt oder ein früheres Dokument wird als Vorlage genommen und leicht verändert.
  4. Wenn Sie regelmäßig an einer Datei arbeiten, werden Sie vermutlich nur Teile der Datei ändern, während weite Bereiche unverändert bleiben. Sicherungen unterschiedlicher Tage haben also gemeinsame Bestandteile.

Das amerikanische Unternehmen Data Domain hat das Verfahren der Deduplizierung entwickelt und patentiert. Die mehrfach enthaltenen Abschnitte werden ermittelt und nur einmal gespeichert, in alle anderen Dateien wird der betreffende Abschnitt durch einen Verweis auf diesen Dateibaustein ersetzt. Im Ergebnis schrumpft der Speicherbedarf der Backups auf ein Bruchteil. Es gibt das Online- und das Offline-Verfahren:[11]

  • Online-Deduplizierung, „Inline“: Das Speichergerät sucht bereits während des Backups nach Dubletten. [12]
  • Offline, „Post-processing“: Im Zeitraum zwischen den Sicherungen versucht die CPU des Backup-PCs ständig, weitere identische Bytefolgen zu ermitteln.

Vergleichende Betrachtung für Firmen[Bearbeiten]

Firmen sichern ihre Daten in der Nacht. Deshalb kommen nur solche Lösungen in Frage, bei denen die komplette Sicherung auf ein Medium passt. Das Wechseln der Datenträger erfolgt am nächsten Tag. Das muss mit möglichst wenig Zeitaufwand erfolgen und ohne Fachwissen möglich sein, beispielsweise durch den Pförtner auf dem nächtlichen Rundgang oder morgens durch die Reinigungskraft.

Bandgeräte, sogenannte „Streamer“, sind immer noch weit verbreitet. Die Bandgeräte sind zwar teuer, aber die Bänder sind billig. Bänder sind unempfindlich, problemlos zu wechseln und zu transportieren.

Ersetzt man die zwanzig Bänder, die für eine Drei-Generationen-Sicherung nötig sind, durch zwanzig externe Festplatten, erreicht man das gleiche Maß an Sicherheit. Um die Festplatte vor dem Auswechseln vom System abmelden zu können, muss man als Administrator angemeldet sein - ein ernstes Sicherheitsrisiko. Zudem sind 20 Festplatten im Wechselrahmen vermutlich teurer als der Gesamtpreis von Bandgerät plus 20 Bändern. Trotzdem sind die festplattenbasierten Lösungen im Vormarsch.

  • Die Sicherung wird wesentlich schneller abgeschlossen.
  • Im Katastrophenfall braucht man kein Bandgerät heranschaffen und auf dem Ersatzserver installieren, denn die externe Festplatte mit dem Backup kann problemlos an jeden PC angeschlossen werden.
  • Die Rücksicherung von Festplatte ist einige Stunden früher als von Band beendet, so dass die Firma früher arbeitsfähig wird.
  • Die Datenmengen auf Firmenservern wachsen von Jahr zu Jahr in einem so schnellen Tempo, dass die Entwicklung größerer, schnellerer Bandgeräte nicht mitkommt.

Die Bedeutung der Festplatten-„Appliances“ nimmt zu. Eine ausgereifte Software macht das Wechseln von Datenträgern unnötig. Das spart Arbeitszeit, und der Serverraum kann verschlossen bleiben, denn niemand braucht mehr zum Bandwechsel hinein.


Die Festplatte ist defekt[Bearbeiten]

Die meisten Festplatten werden nach wenigen Jahren zusammen mit dem Computer entsorgt oder gegen größere Platten ausgetauscht. Deshalb werden Festplatten von ihren Herstellern nicht für einen langjährigen Einsatz konzipiert. Je nach Benutzung (24 oder 8 Stunden täglich) hält eine Festplatte zwei bis fünf Jahre mit erträglicher Wahrscheinlichkeit durch, stromsparende „grüne“ Festplatten etwas länger. Natürlich werden auch extrem langlebige und zuverlässige Festplatten gebaut und zu exorbitanten Preisen verkauft, für Server beispielsweise. Warum aber sollte ein Hersteller seine Festplatten für den Massenmarkt mit hohem Aufwand langlebiger machen?

Im Kapitel Festplatte des Wiki-Buches Computerhardware können Sie nachlesen, wie eine Festplatte funktioniert und welche Anzeichen es für Frühausfälle gibt.

Selbst wenn Sie die Warnzeichen für einen bevorstehenden Ausfall kennen und beachten, eines Tages wird es passieren: Die Festplatte geht kaputt.

Stellen Sie sich bitte mal vor: Jetzt, in diesem Moment, geht Ihre Festplatte unrettbar kaputt. Wie groß wäre der Schaden? Wie wertvoll sind Ihre Daten?

Verlust der Daten[Bearbeiten]

Beginnen wir mit den Daten, die jeder hat:

  • Haben Sie alle Zugangsdaten (DSL, E-Mail, eBay, Messenger, Chat, Facebook, ...) aufgeschrieben? Auch die Daten von allen Online-Shops, in denen Sie vielleicht wieder einmal einkaufen wollen? Auf Papier oder nur in einer Datei auf der nunmehr defekten Festplatte? Oder in einem „Password-Safe“, den Sie nicht mehr öffnen können?
  • Wo sind Ihre E-Mails gespeichert? Auf Ihrem PC oder auf dem Server des Providers? Werden sie dort nach drei Monaten automatisch gelöscht? Vielleicht sind auch E-Mails dabei, mit denen Sie Passworte und Zugangskennungen erhalten haben. Habe Sie diese alle ausgedruckt und abgeheftet?
  • Wie viele Einträge hat Ihr E-Mail-Adressbuch? Wie sieht es mit Skype- und Chatpartnern aus? Wie aufwändig wäre es, diese Adressen wiederzubeschaffen?
  • Wie viele Links hat Ihre Favoritenliste? Wie lange würde es dauern, alle oder wenigstens die wichtigsten davon wiederzufinden?
  • Benutzen Sie ein Lohnsteuerprogramm? Wie lange würden Sie brauchen, die Daten ein zweites Mal zu erfassen?
  • Wie bitter wäre es für Sie, Fotos und Filme von den Urlaubsreisen der letzten Jahre, von der Hochzeit und anderen Familienfeiern und von den heranwachsenden Kindern zu verlieren? Selbst wenn die Originale aller Fotos auf irgendwelchen CDs oder DVDs zu finden sind (und diese noch lesbar sind): Wie lange würde es dauern, sie auf die Festplatte zu kopieren, zu ordnen, fortlaufende Bildnummern durch Bildnamen zu ersetzen und die besten auszusuchen?

Eine geübte Schreibkraft braucht für die Neueingabe einer eng beschriebenen DIN A4-Seite etwa 15 Minuten. Auf eine Diskette (1,44 MB) passen etwa 700 Seiten, was 22 Arbeitstagen zu je 8 Stunden entspricht. Auf einen kleinen USB-Memory-Stick von 1 GB passen etwa 500 000 Seiten (60 Arbeitsjahre). Vermutlich ist ein mehr oder weniger großer Teil der alten Daten entbehrlich, aber bestimmt gibt es auch Daten, auf die Sie nicht gern verzichten würden.

Eine Sicherheitskopie für eine übliche Datenmenge zu erstellen kostet Sie weniger als einen Euro und das erste Mal weniger als eine Stunde Zeit. Bei einem wohldurchdachten Konzept dauert jede nachfolgende Sicherung nur einige Minuten.

Verlust des Betriebssystems[Bearbeiten]

Das Betriebssystem neu installieren zu müssen ist eine langwierige Arbeit. Nicht nur Windows muss installiert werden, sondern auch alle Treiber, alle Updates und alle Anwendungen. Sind Ihre Installations-CDs vollständig und in gutem Zustand? Haben Sie die Seriennummern für alle Programme, die Zugangsdaten und die Lizenzen? Vermutlich haben Sie aktuelle Treiber und zahlreiche nützliche Programme im Internet gefunden und installiert. Haben Sie deren Web-Adressen griffbereit? Falls Sie Abonnements von Antiviren- und anderen Programmen über das Internet verlängert haben, wie können Sie die Zahlung nachweisen?

Eine Schätzung: Wie aufwändig ist eine Neuinstallation?

1,5 h Alle Daten auf DVD o. Ä. sichern, ohne etwas zu vergessen. Die wichtigsten Daten zweimal sichern (die DVD mit Ihrer Datensicherung könnte sich als fehlerhaft herausstellen), am allerbesten mit zwei verschiedenen Verfahren sichern (DVD brennen plus externe Festplatte). Wenn Sie beide Sicherungen auf DVD brennen, sollten Sie Rohlinge verschiedener Fabrikate verwenden. Auf jeder DVD sollte man am Beispiel einiger wichtiger Dateien stichprobenartig prüfen, ob die Sicherung verwendbar ist.
0,5 h Alle Passwörter (T-Online, Ebay, E-Mail, Musicload, ...) heraussuchen. Wenn Sie ein Passwort nicht wissen und Sie das Programm noch mit dem im PC gespeicherten Passwort starten können, wechseln Sie vorsorglich das Passwort und notieren Sie das neue.
0,5 h Zu jedem Programm die Installations-CD und die Seriennummer (den „Product Key“) heraussuchen.
0,5 h Alle Treiber auf einem USB-Stick o. Ä. bereitlegen. Am wichtigsten ist der Treiber für die Netzwerkkarte, damit Sie mit dem neuen Windows ins Internet kommen, um nach weiteren Treibern suchen zu können.
1,0 h Die Partition mit dem alten Windows löschen, Windows installieren und Treiber für Chipsatz, Sound, Netzwerk, Grafikkarte u. a. installieren.
0,5 h Internet-Zugang einrichten, das aktuelle Servicepack herunterladen und installieren. Ein Servicepack ist ungefähr 300 MB groß und liegt vielen Fachzeitschriften bei.
0,5 h Alle Patches und Sicherheitsupdates herunterladen und installieren, das werden wohl mehr als hundert sein. Wenn der Internetzugang über UMTS erfolgt, wird dabei wahrscheinlich das monatliche Download-Kontingent ausgeschöpft und der Download dauert sehr viele Stunden.
5,0 h für Installation, Freischaltung, Updates, benutzerdefinierte Anpassung und Einfügen der gesicherten Daten bei einer Minimalausstattung von zehn Programmen, z. B. Antivirenprogramm, Browser, E-Mail, Brenner, DVD-Player, Adobe Reader, Flash Player, Bildbearbeitungs- oder Bildanzeigeprogramm, Office-Paket oder Schreibprogramm, Kompressionsprogramm.
1,0 h für das Anlernen des Spam-Filters und der Software-Firewall, soweit vorhanden.

Das sind mindestens zehn Stunden, und Sie haben bestimmt noch mehr als nur zehn Programme. Sie werden noch tagelang mit kleinen Nachbesserungen und individuellen Anpassungen zu tun haben. Und wenn Sie nicht ganz genau wissen, wie Sie vorgehen müssen, kann es noch sehr viel länger dauern.

Multiplizieren Sie die Stundenzahl mit dem Stundensatz Ihres Computerexperten, -händlers oder Ihrem eigenen Stundensatz, um den materiellen Schaden abzuschätzen.


Verlust der Handlungsfähigkeit[Bearbeiten]

Für Firmen kann es noch weit schlimmer kommen.

  • Zu dem Wertvollsten, was ein Unternehmen besitzt, gehören Kundendaten: Aktuelle Adressdaten, Ansprechpartner, Besonderheiten, üblicher Bedarf, getätigte Umsätze, Gesamtumsatz, individuell ausgehandelte Preise und Rabatte, aktuelle Angebote, Notizen über mögliche Kaufinteressenten.
  • Wenn Ihre Buchhaltungsdaten verloren sind: Weiß Ihre Buchhalterin auswendig, welche Kunden Ihnen wie viel Geld schulden?
  • Wenn eine Lastschrift Ihres Lieferanten „platzt“, kann es dazu führen, dass Sie nur noch auf Vorkasse oder nie wieder beliefert werden. Können Sie es sich leisten, Ihre Hauptlieferanten zu verlieren?
  • Die Daten der Lieferanten, Preise und Rabatte, Ansprechpartner, Online-Bestelldaten usw. sind ebenfalls sehr wichtig.
  • Die Buchhaltungsdaten des letzten Jahres müssen erneut eingegeben werden.
  • Forschungsergebnisse, Konstruktionszeichnungen, Kalkulationen, Berichte sind weg.
  • Wenn Ihre Unterlagen unvollständig oder unübersichtlich sind, wird das Finanzamt bei der nächsten Betriebsprüfung schätzen. Schätzen Sie mal, wie teuer das für Sie wird.
  • Die Neueingabe einer eng beschriebenen DIN A4-Seite dauert etwa 15 Minuten. Auf eine Diskette (1,44 MB) passen etwa 700 Seiten, was 22 Arbeitstagen zu je 8 Stunden entspricht. Auf einen USB-Memory-Stick von z. B. 1 GB passen etwa 500.000 Seiten (60 Arbeitsjahre). Ein mehr oder weniger großer Teil der alten Daten ist entbehrlich, aber einige Daten sind unverzichtbar.
  • Die Mitarbeiter können viele Stunden oder Tage nicht oder nur eingeschränkt arbeiten und müssen die liegengebliebene Arbeit später mit Überstunden nachholen.
  • Sie werden Termine nicht einhalten und Angebote verspätet abgeben. Vermutlich verlieren Sie Aufträge und Kunden. Das Vertrauen Ihrer verbliebenen Kunden sinkt.


Der Unterschied zwischen Daten- und Systemsicherung[Bearbeiten]

Mit einem Backup können zwei verschiedene Ziele erreicht werden, die genau unterschieden werden müssen.

  • Eine Systemsicherung bringt Ihren PC schnell wieder zum Laufen, wenn Windows beschädigt ist.
  • Die Datensicherung sichert die Ergebnisse Ihrer Arbeit.

Systemsicherung[Bearbeiten]

Eine System  sicherung ermöglicht eine schnelle Wiederherstellung der Arbeitsfähigkeit, wenn das Betriebssystem Schaden genommen hat oder die Festplatte defekt ist. Das Sichern Ihrer Daten ist dabei zweitrangig (das ist die Aufgabe der Daten  sicherung). Um ein solches Backup zu erzeugen, muss ein genaues Abbild des gesamten Festplatteninhaltes (ein Disk Image) abgespeichert werden. Dabei sind vier Probleme zu überwinden.

  1. Einige Dateien sind ständig in Benutzung, als Beispiele seien die Benutzereinstellungen, die Registry und die Auslagerungsdatei genannt. Es ist nicht ohne weiteres möglich, diese Dateien zu kopieren, und mit den Windows-Bordmitteln gelingt das schon gar nicht.
  2. Auch wenn Sie gerade nichts tun – Windows ist nie untätig. Die Speicherbelegung wird optimiert (Auslagerungsdatei), der Suchindex wird aktualisiert, einige Programme suchen im Internet nach Updates und manche Anwenderprogramme speichern alle paar Minuten ihren aktuellen Zustand, um nach einem eventuellen Absturz fast verlustfrei fortsetzen zu können. Das bedeutet: Während eine Systemsicherung läuft, werden immer wieder Dateien verändert, darunter auch einige der bereits kopierten Dateien. Im Ergebnis enthält die Systemsicherung einige Bestandteile, die nicht zueinander passen.
  3. Es würde nicht genügen, alle Dateien zu kopieren und sie bei Bedarf zurückzukopieren. Einige Dateien müssen sich an einer präzise definierten Stelle befinden, sonst startet das Betriebssystem nicht. Der Windows-Explorer und andere Kopierprogramme können das nicht, sie kopieren die Dateien irgendwohin, wo gerade Platz frei ist.
  4. Das Zurückkopieren muss natürlich auch dann möglich sein, wenn Windows nicht mehr startet.

Daraus ergeben sich drei Anforderungen an die Software:

  1. Das Sichern und Zurückkopieren muss nicht Datei für Datei, sondern Spur für Spur, Sektor für Sektor erfolgen. Was ursprünglich im Sektor 1 der Festplatte war, muss nach Sektor 1 zurück.
  2. Das Backup-Programm muss von CD startfähig sein. Dadurch werden die Probleme mit ständig benutzten und geänderten Dateien gelöst: Weil Windows weder beim Backup noch zum Restore gestartet werden muss, bleiben alle Dateien der Festplatte unbenutzt.
  3. Aus 1. und 2. folgt: Das Backup-Programm muss mit jeder gängiger Hardware zurechtkommen, denn es kann nicht auf die Treiberunterstützung des Betriebssystems zurückgreifen. Deshalb sollte das Disk-ImageProgramm nicht älter sein als Ihre Computerhardware. Es passiert nicht selten, dass eine Image-Software meldet, es wären keine Festplatten vorhanden. Vor allem bei Notebooks kommen mitunter Festplattencontroller zum Einsatz, die recht exotische Treiber benötigen.

Programme, die mit diesen Anforderungen zurechtkommen, werden als Image-Programme bezeichnet. Mehr dazu in einem späteren Kapitel.

Für die Systemsicherung wird in der Regel ein Backup-Medium mit hoher Kapazität benötigt, am besten ist eine externe Festplatte geeignet. Windows XP plus einige Anwendungen belegt reichlich 10 GB, Windows 7, 8, 10 und Vista belegen etwa 20 GB und mehr. Zwar können die meisten Backup-Programme die Daten komprimieren, wodurch der Speicherbedarf um etwa 30 % sinkt, aber das ist immer noch zu viel, wenn eine Sicherung auf DVD erfolgen soll. Eine Systemsicherung, für die mehrere DVD benötigt werden, ist deshalb relativ zeitaufwändig.

Datensicherung[Bearbeiten]

Eine Datensicherung bewahrt die Ergebnisse Ihrer Arbeit vor Verlust: Dokumente, Fotos, Musik und Videos. Die einzelnen Dateien sind meist nicht groß: Auf einem Gigabyte Speicherplatz kann man etwa 500 Fotos, 250 MP3-Dateien oder den Inhalt eines 10 m hohen Bücherstapels unterbringen. Bei vernünftiger Planung reicht die Speicherkapazität einer CD oder DVD für ein Daten-Backup aus. Eine häufige Sicherung sollte deshalb kein Problem sein. Je öfter die Sicherung erfolgt, desto weniger Arbeit haben Sie bei der Wiederherstellung nach einem Verlust. Wenn Ihre letzte Datensicherung beispielsweise einen Monat zurückliegt, werden Sie nach einem Verlustfall die Arbeit des letzten Monats noch einmal erarbeiten müssen oder darauf verzichten müssen.

Vergleich[Bearbeiten]

Eine gute Datensicherung ist noch wichtiger als die Systemsicherung. Wenn Sie kein Systembackup haben, können Sie die Computerinstallation auch ohne jedes Backup wiederherstellen, durch Wiederaufspielen der Installationsmedien. Sie müssen Windows und alle Ihre Anwendungen von Grund auf neu installieren, Updates installieren und das System an Ihre Bedürfnisse anpassen. Das dauert einen ganzen Arbeitstag oder mehr. Aber eine Katastrophe ist das nicht. Außer einer großen Menge Ihrer Arbeitszeit geht nichts verloren. Deshalb braucht eine Systemsicherung nur in größeren Abständen durchgeführt werden, vorzugsweise nach der Installation neuer Programme oder nach größeren Änderungen am Betriebssystem.

Wenn Sie jedoch keine Daten sicherung haben, ist Ihre Arbeit verloren.

Wenn das Betriebssystem beschädigt oder infiziert ist und Sie eine Systemsicherung haben, können Sie den PC schon nach einer halben Stunde wieder benutzen. Wenn Sie Daten auf der Systempartition haben, die Sie seit dem letzten Systembackup verändert haben, dauert es nur wenig länger: Sie sichern schnell noch die kürzlich veränderten Daten, stellen das Betriebssystem samt der alten Daten wieder her und kopieren dann die neuesten Daten zurück.

Fast alle Notebooks werden mit einer Systemsicherung ausgestattet: Mit einer „Recovery-DVD“ oder einer Recovery-Partition. Bei vielen Komplettsystemen werden Sie nach der ersten Inbetriebnahme dazu aufgefordert, diese DVD selbst zu erstellen. Es handelt sich dabei um ein Image, mit dem Sie den Neuzustand des Geräts wiederherstellen können. Wobei der Neuzustand meist unter Verlust Ihrer Daten hergestellt wird.

Die aufwändige Sicherung des Betriebssystems nur selten durchzuführen und die Daten häufiger zu sichern – das wäre optimal. Dafür ist es aber zwingend notwendig, die Festplatte zu unterteilen – in einen Bereich für Betriebssystem und Programme, der möglichst keine Daten enthält, und einen anderen Bereich nur für Daten. Das lässt sich am besten durch eine Aufteilung der Festplatte in mindestens zwei Partitionen erreichen, mehr dazu im Kapitel über Partitionen.

Für die Systemsicherung ist ein Image-Programm am besten geeignet. Doch für die Sicherung der Daten ist ein Image wenig geeignet: Selbst wenn nur eine einzelne Datei aus einem Image benötigt wird, muss man bei vielen Image-Programmen das komplette Image irgendwohin auspacken, um an einzelne Dateien heranzukommen. „Acronis True Image“ ist eine löbliche Ausnahme: Damit kann man einzelne Dateien oder Ordner aus einem Archiv extrahieren, ohne das ganze Archiv auspacken zu müssen.

Doch trotzdem ist ein Image nicht die beste Lösung für die Sicherung der Daten. Die gesamte Partition sichern, auch wenn die meisten Dateien seit längerem unverändert sind, ist zeit- und speicherplatzaufwändig. Nötig ist eine Backup-Software, die nur die veränderten Dateien sichert, aber das möglichst oft: Eine „Version-Backup-Software“. Es gibt keine Software, die beide Aufgaben optimal löst.

Welche Gefahren drohen Ihren Daten[Bearbeiten]

Ein Defekt der Festplatte ist nur eine von vielen Möglichkeiten, seine Daten zu verlieren.


Risikofaktor Mensch[Bearbeiten]

  • Bedienfehler (versehentliches Löschen einer Datei oder einer Dateiversion),
  • Auswahl eines falschen Zieldatenträgers zum Zurückschreiben eines Datenträgerabbildes,
  • Nichtbeachtung der Garantiebedingungen (viele Reparaturbetriebe stellen routinemäßig den Zustand beim Kauf wieder her und löschen dabei Ihre Daten),
  • Fehler aus mangelndem Wissen über Computer und Software,
  • unberechtigte Benutzer (Haustiere, die über die Tastatur laufen, und Kinder),
  • falsche Anwendung von Hilfsprogrammen, vor allem von Partitionierungs-Tools,
  • Nichtbeachtung von Warnhinweisen,
  • Diebe räumen Ihre Wohnung aus,
  • Ungenehmigte Entsorgung von Datenträgern durch Mitbewohner,
  • Sie vergessen das Notebook im Taxi oder in der Bahn,
  • der Memory-Stick ist nicht mehr zu finden sowie
  • „Schabernack“ oder Vandalismus durch Kinder, Kollegen oder Nachbarn beim Blumengießen.

Risiken durch Hardware[Bearbeiten]

Zu den Risiken durch Hardware zählen Ausfälle bei Geräten mit fest verbauten Datenträgern, physikalisch-chemische Vorgänge, Softwarefehler der Firmware, Verstöße gegen Spezifikationen, Umwelteinflüsse, Spannungsspitzen und Spannungsausfälle, Chemische Einflüsse, und Steck- und Lötverbindungen. Einzelheiten können Sie auf der Unterseite „Hardware“ lesen.

Risiken durch Malware (Schadsoftware)[Bearbeiten]

  • Viren, Würmer, Trojaner, Datendiebstahl (Phishing), Hacker-Attacken

Risikofaktor Software[Bearbeiten]

  • Fehler im Betriebssystem und Sicherheitslücken,
  • inkompatible Programme,
  • veraltete Hilfsprogramme,
  • fehlerhafte oder unpassende Treiber,
  • Datenverlust durch ein Update oder durch die Installation eines Servicepacks,
  • fehlgeschlagene Schreibvorgänge aufgrund eines Absturzes eines Programmes oder Betriebssystems oder erschöpftem Speicherplatzes, sowie
  • Programmierfehler im Dateiverwalter, z.B. die fahrläßige vorzeitige Löschung eines Quellverzeichnisses ohne sorgfältige Überprüfung des Zielverzeichnisses.[13]

Der Mensch (als Bediener oder als Programmierer von nützlicher oder schädlicher Software) verursacht statistisch etwa 85% aller Schäden. Es bleiben nur 15%, die auf die technische Umwelt sowie auf Elementarschäden entfallen.

Risiken durch Umwelt- und andere äußere Einflüsse[Bearbeiten]

Energieversorgung[Bearbeiten]

  • Blitzschlag in Strom-, Daten- und Telefonleitungen
  • Überspannungen durch Schaltvorgänge des Energieversorgers
  • Ausgleichsströme durch falsche Verkabelung

Flüssigkeiten[Bearbeiten]

  • Die Waschmaschine in der Wohnung über Ihnen läuft aus.
  • Ein Sturm beschädigt das Dach und ein Wolkenbruch folgt.
  • Ein „Jahrhundert-Hochwasser“ kann öfter als alle hundert Jahre auftreten.

Feuer[Bearbeiten]

  • Nicht nur die Flammen sind gefährlich. Durch steigende Umgebungstemperatur kann ein eingeschalteter PC überhitzen.
  • Aggressive Rauchgase können Leiterzüge zerfressen, Kriechströme verursachen und Kontakte korrodieren lassen.
  • Nach dem Löscheinsatz ist die Luftfeuchtigkeit für einige Tage erhöht. Sie lässt Platinen aufquellen und Kontakte korrodieren.


Überhitzung und Elektronik-Ausfälle[Bearbeiten]

  • Überhitzung schnell drehender Festplatten,
  • Dauerbetrieb von Festplatten, die nicht für Dauerbetrieb ausgelegt sind,
  • Vibrationen im Betrieb oder Erschütterungen beim Transport können bei Festplatten zu Kopfaufsetzern führen,
  • Überhitzung des Prozessors (der sogenannte „plötzliche P4 Tod“ [14]) und andere Elektronik-Ausfälle können zu Schäden am Dateisystem führen. Falls der Datenträger fest im Gerät verbaut ist, wie es bei Mobiltelefonen und neueren Laptops der Fall ist, könnten die Daten bei einem Defekt sofort verloren oder nur mit großem Aufwand zu retten sein.

Physikalisch-chemische Vorgänge[Bearbeiten]

Durch welche physikalisch-chemischen Vorgänge werden magnetisch gespeicherte Daten zerstört?
  • Das Erdmagnetfeld wirkt zwar schwach, aber ausdauernd auf die Magnetisierung ein.
  • Die Magnetfelder benachbarter, unterschiedlich magnetisierter Bits wirken aufeinander ein und schwächen sich gegenseitig:
    • Bei Magnetbändern wirkt die Magnetisierung durch das Trägermaterial hindurch und schwächt die Aufzeichnung ab. Deshalb sollten Magnetbänder jedes Jahr umgewickelt werden und alle zwei bis drei Jahre umkopiert werden.
    • Die Bits auf einer Festplatte sind so winzig und liegen so dicht hintereinander in der Spur, dass sie sich allmählich gegenseitig ummagnetisieren. Es dürfte eine gute Idee sein, eine „abgelagerte“ Festplatte jedes Jahr anzuschließen und zu defragmentieren, um dadurch die Daten neu zu schreiben.
  • Wenn eine Festplatte jahrelang nicht benutzt wird, kann das Schmiermittel der Festplattenlager hart werden und verharzen.
Durch welche physikalisch-chemischen Vorgänge werden Datenträger zerstört?
  • Chemische Prozesse führen zur Zersetzung:
    • Das Trägermaterial zerfällt allmählich. Besonders anfällig ist das für CD/DVD verwendete Polycarbonat.
    • Das Trägermaterial trübt sich ein.
    • Die Klebstoffe zersetzen sich, mit denen die Schichten verklebt sind.
    • Chemische Reaktionen mit der Verpackung der Datenträger
  • Auch die Elektronik der Laufwerke ist anfällig:
    • Elektrolytkondensatoren trocknen aus
    • Das BIOS von Festplatten und optischen Laufwerken ist in EPROMs gespeichert, die eine Haltbarkeit in der Größenordnung von zehn Jahren haben, bis die Bits verloren gehen.
    • Energiereiche kosmische Teilchen dringen gelegentlich bis zur Erdoberfläche vor. Hier können sie zu Einzelbit-Datenfehlern führen[15]. Auf hohen Bergen und im Flugzeug ist die Strahlung um ein Vielfaches stärker.
    • Kontakte können durch Korrosion oder nachlassende Federkraft unsicher werden. Ein einziges falsches Bit kann in einem unpassenden Moment in Sekundenbruchteilen die Verwaltungstabellen der Festplatte zerstören, wodurch der gesamte Festplatteninhalt verloren geht.[16]
    • Kontaktprobleme können auch innerhalb der Festplattenelektronik auftreten.

Softwarefehler der Firmware[Bearbeiten]

Jede nicht-primitive Software enthält Fehler, auch die Firmware (das BIOS der Festplatte) macht keine Ausnahme. Die Festplatte verwaltet einen eigenen Cache-Speicher. Dazu kommen die S.M.A.R.T. Funktionen, die sehr komplex sind. Die SMART-Software entdeckt und behebt kleine Fehler rechtzeitig und kann bei einer allmählichen Verschlechterung der Festplattenparameter warnen, wenn die Parameter kritisch werden. Leider nimmt mit der Komplexität der Firmware auch deren Ausfallwahrscheinlichkeit zu. Hier einige Fehlerbeschreibungen, die alle auf fehlerhafte Firmware zurückzuführen sind:


Verstöße gegen Spezifikationen[Bearbeiten]

Gegen Spezifikationen wird sowohl aus Unkenntnis, fahrlässig als auch absichtlich verstoßen.

  • Auf Seagate-Festplatten brannte eine Schutzdiode durch, wenn ein Netzteil zu langsam auf gelegentlich auftretende Überspannungsspitzen reagiert hat. Der Hersteller der Schutzdiode hatte es nicht für möglich gehalten, dass es derart schlechte Netzteile geben könnte. [17]
  • Auf zahlreichen Platinen werden Kondensatoren mit ungenügender Spannungsfestigkeit verbaut. Eine um den Mittelwert von 12 Volt schwankende Spannung mit Kondensatoren stabilisieren zu wollen, die maximal mit 12,6 Volt belastet werden dürfen, ist fahrlässig, aber es senkt die Herstellungskosten.
  • Der überwiegende Teil der externen Festplatten wird bei mehrstündigem Betrieb zu heiß.
  • Bei der Hälfte der untersuchten PCs war die Kühlung des Computers und vor allem der Festplatte ungenügend, obwohl eine geringfügige Änderung am Gehäuse oder eine veränderte Einbauposition der Festplatte die Kühlung deutlich verbessert hätte. Überhitzung ist langfristig der größte Feind der Festplatte.
  • Auf zahlreichen Maxtor-Festplatten kam es zu Überhitzungen eines Chips. Nach kurzzeitigen „Aussetzern“ brannte schließlich der Chip durch. [18]

Umwelteinflüsse[Bearbeiten]

Wird der Computer, eine externe Festplatte, ein optisches oder magnetisches Laufwerk nach einem längeren Aufenthalt in der Kälte in einen warmen Raum getragen, droht Gefahr:

  • Es kann sich Kondenswasser auf der Elektronikplatine bilden, was zu Kriechströmen und Kurzschlüssen führen kann.
  • Kondenswasser kann sich sogar im Inneren der Festplatte bilden. [19] Ein Zusammenstoß eines Wassertröpfchens mit dem Lesekopf kann diesen beschädigen.
  • Bauteile dehnen sich bei Erwärmung aus, je nach Material unterschiedlich: Kupfer 16, Aluminium 23, Zink 36, Polyethylen 100 bis 250, Porzellan 3 (Angaben in Millionstel der Länge pro °C). Das scheint sehr wenig zu sein. Zum Vergleich: Der Schwenkarm der Festplatte ist etwa zwei Millionen mal länger als der Abstand der Köpfe von der Festplatte. Schon eine kleine Verbiegung kann zu einem Aufsetzen des Kopfes führen.

Außerdem sollte man nie vergessen,

  • dass eine erhöhte Betriebstemperatur die Lebenserwartung der Festplatte verkürzt [20]
  • dass sich das Trägermaterial von optischen, magnetischen und anderen Datenträgern bei höherer Lagertemperatur schneller zersetzt
  • dass speziell bei externen Festplatten äußere Krafteinwirkungen (Runterfallen etc..) im Betrieb den Datenträger beschädigen könnten

Spannungsspitzen und Spannungsausfälle[Bearbeiten]

Einige Beispiele, wodurch gefährliche Überspannungen entstehen können:

  • Blitzeinschlag
    • in den Blitzableiter des eigenen Hauses oder des Nebenhauses
    • in die Überlandleitung
  • Überspannungsspitzen durch Schaltvorgänge auf Hochspannungsleitungen
  • Überspannungen auf der Telefon/DSL-Leitung
  • Elektrostatische Aufladungen

Selbst ein kurzer Stromausfall von ein 50 bis 100 Millisekunden kann zum Absturz des Computers führen. Wenn der PC zum Zeitpunkt des Stromausfalls mit dem Schreiben auf die Festplatte beschäftigt ist, sind Schäden an einigen oder vielen Dateien wahrscheinlich. Wobei treten solche Unterbrechungen auf?

  • Schaltvorgänge des Stromversorgers
  • Sicherung „brennt durch“ wegen
    • Überlastung des Stromkreises
    • Anschließen eines defekten Gerätes, z. B. Austausch einer defekten Glühlampe
  • Elektrikerarbeiten im Haus

Chemische Einflüsse[Bearbeiten]

Die Chemie magnetischer Datenträger

Die Magnetschicht besteht aus magnetisierbaren Partikeln, die in eine Polymerschicht eingebettet sind. Als magnetisierbares Material werden Fe2O3, CrO2, BaFe oder Metallpartikel (MP) verwendet. Für das Trägermaterial wird oft Polyester-Urethan verwendet. Unter Einfluss von Feuchtigkeit zerfällt das Material im sogenannten „Hydrolyse“-Prozess zu Alkohol und Carboxylsäure. Bei 20°C und 30% Luftfeuchtigkeit erreicht der Hydrolyseprozess ein Gleichgewicht, bei dem der Datenträger funktionsfähig bleibt. Bei feuchter Lagerung wird der Datenträger klebrig, der Abrieb verstärkt sich, schließlich löst sich die Schicht ab. Durch lange Lagerung in völlig trockener Wärme kann dieser Schaden teilweise rückgängig gemacht werden. [21]

Aggressive Gase wie Stickoxid, Chlor und Schwefelwasserstoff führen zu Korrosionsschäden an den Magnetpartikeln. Deren Magnetismus lässt nach, wodurch sich die Signalstärke beim Lesen verringert. [22]

Die Chemie optischer Datenträger

Als Trägermaterial für CD und DVD wird ein Polycarbonat verwendet. Dieses Material wird selbst bei normaler Lagerung allmählich spröde, es kann zu Ausgasungen kommen. Die Sprödigkeit stört beim Lesen mit geringer Drehzahl wenig, bei hoher Drehzahl kann aber das Material zerreißen. [23]

Ein weiteres Problem ist der bei beschreibbaren Scheiben verwendete Farbstoff. Hauptsächlich verfärbt er sich durch die Hitze des Brenn-Laserstrahls. Allerdings verfärbt er sich auch bei geringeren Temperaturen, wenn auch sehr langsam. Langzeitversuche ergaben eine Vergrößerung der Blockfehlerrate und der Spurstabilität. [24] Mittlerweile verwenden die Hersteller eine große Anzahl verschiedener Farbstoffverbindungen. Die Stiftung Warentest hat festgestellt, dass die meisten einmal-beschreibbaren Rohlinge eine miserable Lichtbeständigkeit haben, während die RW-Rohlinge höchst empfindlich gegen Wärme und Kälte sind. [25] Die Scheiben im Dunkeln zu lagern sollte kein Problem sein, aber jahreszeitliche Temperaturschwankungen bei der Lagerung lassen sich kaum vermeiden. Deshalb sind die weniger temperaturempfindlichen einmal beschreibbaren Medien besser für eine lange Lagerung geeignet als mehrmals beschreibbare.

Chemie und die Elektronik

Bei Fujitsu-Festplatten kam es zu Kurzschlüssen der Elektronik, weil ein Zulieferer ein ungeeignetes Flammschutzmittel verwendet hatte. [26]

Für das Gehäuse des Schaltkreises „Cirrus Logic CL-SH8671-450E“ wurde ein neuartiges Polymer verwendet. Unter erhöhter Temperatur und Feuchtigkeit zersetzte sich ein Teil des Gehäusematerials. Die dabei entstehende Phosphorsäure korrodierte die Kontakte, bis die Festplatte vom BIOS nicht mehr erkannt wurde. Wenn der Fehler auftrat, war die Garantie meist gerade abgelaufen. Durch Reinigen der Kontakte von Chip und Fassung konnten oft die Daten gerettet werden. [27]

Steck- und Lötverbindungen[Bearbeiten]

Wo sich Metalle lange Zeit berühren, beginnen Oberflächenatome zu diffundieren. Vermutlich kennen Sie das Problem: Sie ziehen eine Schraube mäßig an, und nach ein paar Monaten oder Jahren sitzt sie fest wie angeschweißt. Im Computer stört es kaum, wenn die Schrauben fest sitzen. Es gibt ein anderes Phänomen: Es bilden sich sogenannte „intermetallische Phasen“, welche den Übergangswiderstand vergrößern.

Steckt man eine Zink- und eine Kohleelektrode in eine leitfähige Lösung, erhält man eine Batterie. Das geht nicht nur mit Zink und Kohle, sondern zwischen beliebigen Metallen [28]. An jeder Lötstelle, aber auch an Schraub- und Steckkontakten, treffen zwei oder drei verschiedene Metalle aufeinander. Wo sich Silber und Gold berühren, entsteht eine Spannung von 0,6 Volt. Zwischen Kupfer und Zinn sind es 0,21 Volt. Sobald Spuren von Feuchtigkeit dazukommen, bildet sich ein galvanisches Element. Der entstehende Stromfluss führt zu einer unabwendbaren Korrosion.

Thermisch beanspruchte Lötverbindungen

Die elektronischen Bauteile sind auf Leiterplatinen aufgelötet. Jeder PC hat tausende Lötstellen. Nach dem Einschalten erwärmt sich der PC von 20° auf stellenweise bis 70° C. Die im PC verwendeten Materialien dehnen sich unterschiedlich aus, dabei entstehen mechanischen Belastungen. Große, heiß werdende Widerstände und Leistungshalbleiter (die Spannungsregler im Netzteil und auf der Hauptplatine) sind besonders belastet. Bei herkömmlichem Bleilot gibt es nach zehn bis fünfzehn Jahren die ersten Wackelkontakte (sogenannte „kalte“ Lötstellen), was Ihnen jeder Fernsehmonteur bestätigen kann.

Leider gilt seit 2005 in Europa die RoHS-Verordnung, welche die Verwendung von Blei zum Löten verbietet. Es gibt zahlreiche alternative Lötlegierungen, doch keine reicht qualitativ an Bleilot heran. Die meisten bleifreien Lote sind schwierig zu verarbeiten und haben eine schlechte Langzeitstabilität. Ausnahme: Gold-Zinn-Lot ist langzeitstabil, hat aber einen zu hohen Schmelzpunkt, mal abgesehen vom Preis.

Wir müssen also langfristig mit anfälliger werdenden Lötstellen rechnen. Deshalb darf ausnahmsweise für sicherheitsrelevante Anwendungen (medizinische Geräte, Überwachungs- und Kontrollinstrumente, Autoelektronik und das Militär) weiterhin Bleilot verwendet werden.

Ungeahnte Risiken durch neueste Technologien

Notebooks werden in einem beträchtlichen Ausmaß verloren oder gestohlen. Um einen Konkurrenten auszuspionieren, braucht man heute nicht mehr in die Firma einzubrechen – einem der Ingenieure nachts das Notebook aus der Wohnung zu stehlen oder es ihm auf dem Parkplatz zu entwenden ist erheblich weniger riskant. Wenn vertrauliche Forschungs- und Finanzunterlagen in die Hände der Konkurrenz gelangen, kann der Schaden gewaltig sein. Deshalb verschlüsseln neuere Notebook-Festplatten sämtliche Daten beim Schreiben und Lesen automatisch. Sofort nach dem Einschalten des Notebooks muss der Schlüssel eingegeben werden. Wer den Schlüssel nicht kennt, kommt nicht an die Daten heran. Theoretisch jedenfalls.

Allerdings verwenden die meisten Benutzer viel zu simple Passwörter, die von Profis in wenigen Minuten oder Stunden zu „knacken“ sind. Die Industrie hat sich auch dagegen etwas einfallen lassen: Bei einigen der neuesten Notebook-Festplatten wird der Schlüssel automatisch gelöscht, wenn das Notebook in falsche Hände fällt. Wenn jemand die Festplatte ausbaut oder der neugierige Sohn ein paar Passwörter durchprobiert, begeht die Festplatte vollautomatisch „Selbstmord“ und der Festplatteninhalt ist weg – unwiderruflich, für immer.


Verlustarten[Bearbeiten]

Welche Methode der Datensicherung schützt gegen welche Risiken?

Die Risiken kann man in drei Gruppen einteilen, die jeweils ganz verschiedene Sicherungsstrategien erfordern.

  • Spektakuläre Ausfälle, die mit Sicherheit sofort bemerkt werden.
    • Der Computer riecht verbrannt, die Festplatte klackert, das Notebook wurde gestohlen. Der Schaden ist meist verheerend.
  • Schwer zu entdeckende, unerwartete Verluste.
    • Sie haben beim Aufräumen ein wenig die Übersicht verloren und versehentlich zu viel gelöscht.
    • Sie suchen eine Datei (oder die DVD mit Ihrer Datensicherung) und können sie nicht finden. Der Schaden ist meist überschaubar, kann Sie aber trotzdem eine Menge Zeit kosten.
  • Unbemerkte Verluste bei der Langzeit-Archivierung.
    • Sie holen eine fünfzehn Jahre alte Foto-CD aus dem Schrank und müssen feststellen, dass sich die Schicht abgelöst hat.
    • Weitaus häufiger: Ihr alter Brenner war nicht mehr im Bestzustand, die zuletzt gebrannten Scheiben lassen sich mit dem neuen Laufwerk nicht lesen.
    • Weniger spektakulär: Ihre neue Software kann die alten Dateien nicht öffnen, und die alte Software lässt sich auf Ihrem neuen Computer nicht installieren.

Spektakuläre Ausfälle[Bearbeiten]

Dass der Computer hinüber ist, wenn ein Blitz in die Stromleitung einschlägt, wird niemanden verwundern. Dass ein Stromausfall zum Datenverlust führen kann, ist ebenfalls vorstellbar. Es gibt unzählige weitere, unerwartete Möglichkeiten, alle seine Daten auf einen Schlag zu verlieren. Das Schicksal ist erfinderisch, in vielen Berufsjahren habe ich so manches erlebt. Ein kleiner Querschnitt, von gewöhnlichen zu extravaganten Vorfällen geordnet:

  • Beim Bücken nach der Klobürste fiel das Smartphone aus der Brusttasche ins Klo.
  • Ein Virus löschte die Festplatte.
  • Ein Trojaner verschlüsselte alle Dokumente und Bilder. Den Code zum Entschlüsseln konnte man im Internet kaufen. Hat 100 € gekostet, funktioniert hat er nicht.
  • Die Benutzung eines ungeeigneten Hilfsprogramms oder die fehlerhafte Bedienung eines geeigneten Programms.
  • Totalverlust durch falsche Benutzung von Partitionierungssoftware kommt häufig vor.
  • Während der Reorganisation der Festplatte fiel kurz der Strom aus, die Daten waren verloren. Weitere Stromausfall-Varianten: Das falsche Stromkabel herausgezogen, den falschen Schalter betätigt, über das Kabel gestolpert, Notebook herunterfallen lassen.
  • Reset-Taster, Netzschalter oder der Schalter der Steckdosenleiste wurden versehentlich betätigt. Außer mit dem Finger passierte es auch mit dem Knie, dem Fuß oder durch Anstoßen mit der Handtasche.
  • Durch das Anstecken einer externen USB-Festplatte oder eines Speichersticks änderten sich die den Partitionen zugewiesenen Laufwerksbuchstaben. Das führte zu Verwechslungen. Statt der externen Festplatte wurde irrtümlich die interne Festplatte gelöscht.
  • Alle Computer der Firma wurden in der Nacht gestohlen.
  • Ein Kunde kopierte ein Video. Als die Festplatte voll war, wurde wegen eines Programmierfehlers im Microsoft-Dateisystem am Anfang der Festplatte weitergeschrieben. Die Verwaltungstabellen waren verloren und damit der ganze Inhalt der Festplatte.
  • Vor einer geplanten Neuinstallation hatte der Kunde sorgfältig seine Daten gesichert und dann den Fahrer beauftragt, den PC zum Händler zu bringen. Der Händler löschte wie abgesprochen die Festplatte und installierte das Betriebssystem neu. Leider hatte der Fahrer den falschen PC in die Werkstatt gebracht.
  • Die neue, schnelle Festplatte wurde in ein zu kleines Computergehäuse eingebaut und dieses Gehäuse wurde in ein enges Fach unter der Kasse verstaut. Durch den Wärmestau war es im PC ständig zu heiß, schon nach sechs Wochen war die neue Festplatte defekt.
  • Ein Kurzschluss in der Hausstromversorgung zerstörte das Netzteil, welches im Todeskampf die gesamte Elektronik zerstörte. Nur der CPU-Lüfter und das Blech vom Gehäuse hatten überlebt.
  • Ein Netzwerkkabel zwischen den Etagen verlief im Abstand von 10 Metern parallel zum Blitzableiter. Ein Blitzeinschlag induzierte eine Überspannung im Netzwerkkabel und verwandelte alle direkt angeschlossenen Netzwerkgeräte in rauchenden Schrott.
  • Ein Kugelblitz verursachte eine hohe Überspannung auf dem Schutzleiter. Bei allen Mietern des Hauses hatten Fernseher und andere Geräte Totalschaden. In meiner Wohnung waren nahezu alle mit Schukostecker angesteckten Geräte defekt, sogar der ausgeschaltete Drucker. Der PC mitsamt Festplatte und auch die angeschlossene Backup-Festplatte waren zerstört. Zum Glück habe ich jederzeit mehr als nur ein Backup.
  • Ein- bis zweimal pro Jahrzehnt versammeln sich am Morgen nach einem schweren Gewitter ein Dutzend Kunden mit ihren PCs in meiner Werkstatt, alle aus einem 100-Meter-Bereich rund um einen mächtigen Blitzeinschlag, und sie tauschen sich aus, bei wem welche weiteren Geräte kaputt sind.
  • Der eingeschaltete PC stand (mit abgenommener Seitenwand) unbeaufsichtigt unter dem geöffneten Fenster und wurde während eines heftigen Gewitters nass.
  • Durch einen Rohrbruch im Heizungsrohr wurde der eingeschaltete, unbeaufsichtigte PC besprüht.
  • Der Kunde stellte den PC nach der Reparatur in den Kofferraum und vergaß, die Klappe zu schließen. Beim Anfahren fiel der PC heraus und die Festplatte war hinüber.

Ergänzend noch einige Vorfälle in Firmen:

  • Im Serverraum fiel die Klimaanlage aus. Der Temperaturanstieg zerstörte mehrere Festplatten.
  • Der Behälter für das Kondenswasser der Klimaanlage wurde nicht rechtzeitig geleert. Das Wasser lief über und tropfte in den darunter stehenden Server.
  • Eine harmlos scheinende Installation eines Druckertreibers (von der mitgelieferten Treiber-CD) führte zu einem Serverabsturz. Dabei gingen die Daten des RAID-Systems unrettbar verloren.
  • Vor einer Neuinstallation sollte die Festplatte formatiert werden. Vorher wurden die Daten auf eine externe Festplatte kopiert, welche üblicherweise für die nächtliche Datensicherung verwendet wird. Die Neuinstallation wurde bis zum Feierabend nicht fertig. Ein Warnhinweis auf der Festplatte unterblieb. Ein uneingeweihter Kollege steckte abends die Festplatte routinemäßig an den Server an, und nachts wurden die gesicherten Daten überschrieben.
  • Die Putzfrau zog wahllos irgendeinen Stecker heraus, um den Staubsauger anschließen zu können. Leider war es der Stecker des Hauptservers. Ähnliches passierte einem Hausmeister, als er eine Steckdose für die Bohrmaschine brauchte. Ein Warnhinweis am Stecker war nicht vorhanden.
  • Der Elektriker drehte die falsche Sicherung heraus.
  • In einer großen Firma fiel täglich etwa 9:00 Uhr für etwa drei Minuten ein Teil des Netzwerks aus. Es dauerte einige Tage, die Ursache zu finden: Ein Angestellter bevorzugte die Steckdose, an die ein Netzwerk-Kabelverstärker angeschlossen war, um sich mit dem Wasserkocher einen Kaffee zu machen.

Wenn Sie weitere Horrorgeschichten hören wollen, fragen Sie einen Computerhändler oder Ihre Versicherung. Oder schauen Sie einmal in die gruselig-amüsante „Hall of Fame“ des Datenretters Ontrack: https://www.krollontrack.co.uk/services/data-recovery/top-10/hall-of-fame/ (englisch)

Gegen derartige „sofort bemerkbare Schäden“ hilft eine tägliche, stündliche oder permanente Datensicherung, möglichst verbunden mit einer auswärtigen Lagerung der Sicherungsmedien.

In die Kategorie der Totalverluste gehören auch Nachlässigkeit bei Reparaturen. Viele (vorwiegend junge) Leute benutzen ihren PC nur zum Spielen, Chatten und Surfen. Daten haben sie nicht, außer vielleicht den letzten Spielstand. Sie sind es gewohnt, bei Problemen einfach mal die Festplatte zu formatieren und Windows neu zu installieren. Wenn Sie einen netten Neffen oder Nachbarn um Hilfe bitten, machen Sie ihm deutlich, dass Sie an Ihren Daten hängen!

Erstaunlicherweise gibt es auch Existenzgründer in der Computerbranche, die aus Gedankenlosigkeit oder purer Unfähigkeit die Daten ihrer Kunden löschen. Eine typische Ausrede: „Ich konnte doch nicht wissen, dass auf dem PC Daten sind! Das hätten Sie mir sagen müssen!“

Sichern Sie also vor jeder Reparatur Ihre Daten. Wenn das nicht mehr möglich ist, versehen Sie den PC mit einem gut klebenden Warnhinweis. Ein mündlicher Hinweis auf die Existenz wichtiger Daten reicht manchmal nicht aus. Überreden Sie den Servicetechniker, Ihre Daten sofort, in Ihrem Beisein zu sichern (weil Sie an einem anderen PC damit weiterarbeiten wollen)!

Unerwartete Verluste[Bearbeiten]

Verluste, die erst nach Stunden, Tagen oder Monaten entdeckt werden, sind ein großes, meist unterschätztes Problem. Wie kann es dazu kommen?

Bei einem Windows-Absturz kann es zu Problemen im Dateisystem kommen. Wenn es eine Datei trifft, die gerade in Benutzung war, merkt man das meist nach dem nächsten Start. Manchmal erwischt es zufällige Dateien. Vielleicht merken Sie es ein halbes Jahr später, dass die Datenbank Ihres Lohnsteuerprogramms kaputt ist. Noch schlimmer, wenn die Verwaltungstabellen der Festplatte beschädigt werden. Das passiert häufiger, als man denkt. Wie kann so etwas passieren?

Am Beginn der Festplatte befindet die File Allocation Table (FAT) mit der Liste, wo genau sich jedes Stück jeder Datei befindet. Nach jedem Schreibvorgang müssen diese Tabellen entsprechend geändert werden. Die Magnetköpfe müssen dazu jedesmal zeitaufwändig an den Anfang der Festplatte bewegt werden. Im Interesse einer höheren Geschwindigkeit führt Windows diese Schreibvorgänge nicht sofort aus, sondern sammelt die Schreibanforderungen im sogenannten Schreibcache (das ist eine Liste im Arbeitsspeicher). Wenn sich genug Schreibaufträge angesammelt haben, wird die Festplatte auf den neuesten Stand gebracht. Bei einem Absturz unterbleibt die Aktualisierung, und die Verwaltungstabellen der Festplatte stimmen nicht mehr mit deren Inhalt überein. Beim nächsten Start versucht Windows das Dateisystem zu reparieren. Das klappt nicht immer. Trümmerstücke, die nicht mehr zusammengefügt werden können, sammelt Windows im Verzeichnis C:\DIR0000 und weiteren Verzeichnissen mit ansteigenden Nummern.

Es gibt aber noch zahlreiche weitere Möglichkeiten, Daten zu verlieren. Einige Beispiele:

  • Sie haben beim Aufräumen vor dem Urlaub die Übersicht verloren und löschen versehentlich wichtige Daten.
  • Sie tragen irrtümlich falsche Werte in eine Tabelle ein. Wenn Sie es bemerken, ist der Zettel mit den korrekten Werten schon geschreddert.
  • Sie löschen oder verändern versehentlich einen Teil eines Dokuments oder Sie löschen versehentlich die falsche Datei. Sie bemerken das erst nach Tagen oder Monaten, wenn Sie die Datei das nächste Mal brauchen.
  • Ein Computerschädling ersetzte jeden Tag in einer wichtigen Datei jede tausendste Ziffer „9“ durch die Ziffer „8“. Vermutlich handelte es sich um einen zielgerichteten Angriff gegen die Firma. Was meinen Sie, wie lange es gedauert hat, bis niemand mehr an Tippfehler geglaubt hat?
  • Sie haben eine Datei gelöscht, von der Sie sicher waren, sie würde nicht mehr benötigt. Plötzlich wird sie vom Chef oder von der Steuerprüfung benötigt.
  • Sie haben einige Dateien auf eine mehrtägige Dienstreise mitgenommen, um daran zu arbeiten. Die in der Firma verbliebene Datei ist zwischenzeitlich von einer Kollegin auf den neuesten Stand gebracht worden. Zurück von der Reise, kopieren Sie die Datei mit Ihren Änderungen auf den Firmen-PC. Ohne es (zunächst) zu wissen, überschreiben Sie dabei die Arbeit Ihrer Kollegin.
  • Ihre Festplatte ist fast voll. Sie haben deshalb einige Dateien ausgelagert und sie dann von der Festplatte gelöscht. Einige Monate sind vergangen, und Sie brauchen eine der ausgelagerten Dateien. Oh weh!
    • Die DVD mit den Daten ist nicht mehr lesbar oder nicht auffindbar.
    • Die Beschriftung ist inkorrekt, die Datei ist nicht drauf.
    • Die Daten waren auf einer externen Festplatte, die inzwischen anderweitig verwendet worden ist.

Ich habe diese Verluste als unauffällig bezeichnet, weil der Zeitpunkt des Verlustes lange zurückliegen kann und meist nicht feststellbar ist.

Was auch passieren kann:

  • Eine Woche lang haben Sie an einem Dokument herumgeändert und entscheiden schließlich, dass eine frühere Version die bessere war.

Derartige Verluste treten recht häufig auf, der Schaden ist im Einzelfall meist gering, aber trotzdem ärgerlich. Gegen derartige „schleichende“ Schäden hilft eine häufige, regelmäßige Datensicherung, verbunden mit einer möglichst langen Aufbewahrung der Sicherungsmedien. Idealerweise sollte eine Firma täglich alle Daten sichern und jedes Sicherungsmedium (mindestens) zehn Jahre lang aufbewahren. Privat genügt es möglicherweise, je nach Computernutzung, die Daten einmal wöchentlich zu sichern.

Langzeit-Verluste[Bearbeiten]

Dieses Kapitel ist in Vorbereitung

Einige Risiken kann man verringern[Bearbeiten]

Viele Risiken lassen sich durch Vorsicht und Umsicht verringern. Auf dieser Seite geht es um weitere Möglichkeiten, Datenverluste zu vermeiden.

Stromversorgung[Bearbeiten]

Die Energieversorger müssen manchmal Umschaltungen vornehmen, beispielsweise um Überlandleitungen für Wartungsarbeiten stromlos zu schalten. Jeder Schaltvorgang verursacht eine sehr kurze Spannungsschwankung in den Leitungen. Diese dauert meist weniger als eine halbe Sekunde und wird durch die Pufferkondensatoren des Netzteils abgemildert, das Computernetzteil sollte damit problemlos klarkommen. Wenn der Strom aber eine Sekunde oder länger ausfällt, geht der PC aus und nicht gespeicherte Daten sind verloren.

Gefährlicher ist es, wenn Ihr Wohngebiet von einem großräumigen, länger andauernden Stromausfall betroffen ist. In dem Moment, wenn der Strom wiederkommt, ist der Strombedarf extrem hoch. Beispielsweise laufen sämtliche Kühlschrankmotoren gleichzeitig an. Dieser Motortyp braucht im Anlaufmoment einen vielfach größeren Strom als im Dauerbetrieb. So kommt es zu mehreren Stromstößen, sogenannten „Einschwingvorgängen“, die kurzzeitig mehr als 1000 Volt erreichen können. Dadurch können der PC und andere elektronische Geräte beschädigt werden.

Auch eine durchgebrannte Schmelzsicherung kann zu Problemen führen. Beim Einschrauben der neuen Sicherung gibt es praktisch immer mehrere Stromstöße (Achten Sie mal darauf, wie oft dabei das Licht flackert). Störspannungen können auch durch Blitzschläge entstehen. Nicht nur direkte Blitzschläge sind gefährlich, auch Einschläge in der Nachbarschaft können hohe Störspannungen erzeugen.

Deshalb ist es eine gute Idee,

  • zum Arbeitsende
  • wenn die Sicherung durchgebrannt oder der Strom aus anderem Grund ausgefallen ist
  • wenn der Elektriker im Haus ist
  • wenn ein schweres Gewitter im Anzug ist
  • bevor Sie in Urlaub fahren

den PC (und weitere elektronische Geräte) vom Stromnetz zu trennen.

Den Telefonstecker oder den DSL-Anschluss können Sie gleich mit herausziehen.

Wenn Sie sich angewöhnen, PC, Bildschirm und Lautsprecher (aber nicht den Tintendrucker![29]) mittels schaltbarer Steckdosenleiste bei jedem Arbeitsschluss vom Stromnetz zu nehmen, können Sie mindestens 30 € pro Jahr sparen und schützen außerdem Ihren PC vor Überspannungen.

RAID[Bearbeiten]

Wikipedia hat einen Artikel zum Thema:

Der Begriff RAID steht für eine Technologie, bei der mehrere Festplatten zu einem Verband zusammengeschaltet werden. Für den privaten Bereich sind vor allem RAID-0 und RAID-1 interessant. Bei RAID-0 werden die Daten auf zwei oder mehr Festplatten möglichst gleichmäßig verteilt. Mehrere gleichzeitig arbeitende Festplatten bewältigen in der Summe eine erheblich größere Datenmenge pro Sekunde, was besonders für Videoschnitt-PCs interessant ist. Das Risiko eines Datenverlustes steigt: Wenn eine der Festplatten des Verbandes ausfällt, kann man mit den Fragmenten auf den restlichen Festplatten nichts mehr anfangen.

Das Verfahren RAID-1 ist auch unter der Bezeichnung „Spiegelung“ bekannt. Es werden zwei identische Festplatten benutzt und alle Daten werden gleichzeitig auf beide Festplatten geschrieben. Bei Ausfall einer der Festplatten sind die Daten nicht verloren, es kann sogar ohne Unterbrechung weitergearbeitet werden. Das ist nützlich für Firmen, wo ein Ausfall wichtiger Computer zu kostspieligen Betriebsstörungen führen kann. Allerdings sollte man bedenken, dass ein RAID-System nicht vor Viren und Bedienfehlern schützt. Es schützt auch nicht davor, dass durch einen Fehler im Netzteil oder einen Blitzeinschlag in der Nähe beide Festplatten gleichzeitig durchbrennen. Ohnehin gehen die meisten Daten durch andere Ursachen verloren, weniger als 10% aller Datenverluste werden durch einen Festplattenausfall verschuldet. Die Wahrscheinlichkeit, dass die Hauptplatine kaputt geht, ist weitaus höher. Ein neueres Modell oder gar die Platine eines anderen Herstellers kommen eventuell mit der Datenstruktur Ihres RAID-Systems nicht zurecht. Insoweit ist ein RAID-System kein Ersatz für eine Datensicherung. Eine regelmäßige Sicherung auf DVD oder ein anderes Medium ist unbedingt notwendig!

Um die Festplatten „zusammenzuschalten“, ist spezielle Hardware notwendig. Auf vielen modernen Hauptplatinen ist ein einfacher RAID-Controller integriert. Für professionelle Lösungen gibt es RAID-Controller als Steckkarte, die mehrere tausend Euro kosten können.

Wenn Sie beispielsweise vier Festplatten mit Daten haben, würden Sie weitere vier Festplatten für deren Spiegelung brauchen. Das ist teuer. Wenn Sie eine Hauptplatine mit integriertem RAID-5-Controller haben oder einen speziellen RAID-Controller kaufen, kommen Sie statt mit vier mit nur einer einzigen zusätzlichen Festplatte aus, ohne Sicherheit zu verlieren. Bei „RAID-5“ wird zu einer Anzahl von Festplatten nur eine einzige zusätzliche Platte hinzugefügt. Der Controller sorgt für eine solche Verteilung der Daten auf die Platten, dass bei Ausfall einer beliebigen Festplatte die Daten verfügbar bleiben.

Für noch höhere Ansprüche gibt es „RAID-6“. Dabei werden zwei Reservefestplatten verwendet, so dass selbst bei Ausfall beliebiger zwei Festplatten weitergearbeitet werden kann. Bei RAID-10 können die Platten zu mehreren Gruppen mit unterschiedlicher Ausfallsicherheit zusammengeschaltet werden.

Nachteil:

  • Man braucht einen speziellen Festplattencontroller, der sehr teuer sein kann. Deshalb sind RAID-5-Lösungen (und höher) vor allen in Servern zu finden.

Vorteile:

  • Da sich die Leseanforderungen auf mehrere Festplatten verteilen, steigt der Datendurchsatz des Systems deutlich an. Je mehr Festplatten, desto schneller.
  • An einfachere Controller können bis zu 15 Festplatten angeschlossen werden, teure Modelle können 45 Platten ansteuern. Es können mehrere Controllerplatinen in einem PC betrieben werden.
  • Wenn der Speicherplatz knapp wird, ergänzt man den RAID-Verband um eine oder mehrere zusätzliche Festplatten. Der Controller kann die vorhandenen Daten bei laufendem Betrieb umverteilen. Einige Stunden später steht die größere Kapazität zur Verfügung.
  • Weil RAID mit weniger Festplatten auskommt als eine Spiegelung, wird Energie gespart.

Ein RAID-System schützt nur vor dem Ausfall einer Festplatte und der damit zusammenhängenden Betriebsunterbrechung. Die meisten Daten gehen durch andere Ursachen verloren, weniger als 10% aller Datenverluste werden durch einen Festplattenausfall verschuldet. Insoweit ist ein RAID-System kein Ersatz für eine Datensicherung. Eine regelmäßige Sicherung auf Band oder ein anderes Medium ist unbedingt notwendig!

Der erste von mir verkaufte RAID-Controller kostete 4500 DM. Zehn Festplatten waren angeschlossen, das System war unglaublich schnell. Ich werde nie den Tag vergessen, an dem der Lüfter des RAID-Controllers ohne jedes Warnsignal ausfiel. Der Controller hatte zwar einen eigenen Piepser für Fehlermeldungen, aber die Funktion des Lüfters wurde nicht elektronisch überwacht. Jedenfalls überhitzte sich die CPU des Controllers, und die Verwaltungstabellen der Festplatten wurden beschädigt. Alle Daten waren rettungslos verloren! Ohne die Bandsicherung der letzten Nacht hätte ich wohl mein Testament schreiben müssen, bevor mich der Inhaber der betroffenen Firma erschießt.

Wenn eine der Festplatten eines RAID-Verbandes ausgefallen ist, ersetzt man sie einfach durch eine neue. Je nach Hardware darf das im laufenden Betrieb erfolgen, oder man muss den PC kurz herunterfahren. Der Controller integriert die neue Festplatte automatisch, d. h. er verteilt sämtliche Daten neu. Dabei gibt es eine wenig bekannte Gefahr:

  • Alle Platten des Verbundes sind möglicherweise im Abstand weniger Minuten vom Fließband gelaufen. Sie sind deshalb mechanisch sehr ähnlich und haben etwa die gleiche Lebenserwartung. Während des Betriebes hatten sie immer die gleiche Belastung auszuhalten. Nach dem Ausfall der ersten Festplatte könnten die nächsten bald nachfolgen!
  • Die Festplatten eines RAID-Systems sind im Normalbetrieb relativ wenig beansprucht, denn die Leseanforderungen werden nahezu gleichmäßig auf alle Platten verteilt. Nach dem Einsetzen der Ersatzfestplatte ändert sich das: Der RAID-Controller wird stundenlang mit Höchstlast laufen müssen, um die Daten umzustrukturieren und die neue Platte zu integrieren. Noch nie zuvor sind Ihre Festplatten derart beansprucht, derart heiß geworden! Das führt nicht selten zum Ausfall einer weiteren Festplatte, siehe vorherigen Hinweis. Besonders häufig sind derartige Pannen bei Plattenspiegelungen von S-ATA-Festplatten in Heimcomputern. Die hier üblicherweise verwendeten Festplatten sind nicht für derartige lang andauernde Belastungen konzipiert.

Deshalb sollten Sie zuerst eine komplette Sicherung durchführen und erst danach die Festplatte auswechseln.

Gespiegelte Server[Bearbeiten]

Wenn die CPU oder das Netzteil ausfällt, nützen Ihnen gespiegelte Festplatten oder ein RAID-System gar nichts. In solchen Fällen können gespiegelte Server eingesetzt werden. Dabei sind zwei meist identische PCs mit einer Spezialsoftware über eine schnelle Netzwerkverbindung zusammengeschaltet, so dass sämtliche Eingaben gleichzeitig an beide PC gehen und sie die gleichen Daten verarbeiten. Nur einer der Server, der primäre, gibt die Daten an die Benutzer aus. Wenn der primäre Server ausfällt, übernimmt der andere Server innerhalb einiger Sekunden und wird zum neuen primären Server.

Wenn der ausgefallene Server repariert und wieder hochgefahren ist, holt er sich von dem in Betrieb gebliebenen Server die aktuellen Daten und steht nun als Ersatzserver zur Verfügung.

Bei allerhöchsten Anforderungen an die Ausfallsicherheit werden gespiegelte Rechenzentren eingesetzt. Für den Fall von Überschwemmungen, Erdbeben und Terroranschlägen sollte das Ersatz-Rechenzentrum viele Kilometer entfernt sein.

Wo sollten die Datenträger gelagert werden?[Bearbeiten]

Welches Medium Sie auch immer verwenden, achten Sie darauf, dass möglichst viele der Sicherungsmedien räumlich weit entfernt vom PC gelagert werden. Was nützt Ihnen eine Sicherung, wenn sie zusammen mit dem PC bei einem Diebstahl mitgenommen oder durch Brand oder Hochwasser zerstört wird?

Die privaten Daten auf einer DVD können Sie vielleicht einem Freund oder Verwandten zur Aufbewahrung geben. Eine DVD luftdicht verpackt im Keller zu lagern ist auch eine brauchbare Idee (wenn der nicht überschwemmungsgefährdet ist). Allerdings sollte man in beiden Fällen über eine Verschlüsselung nachdenken.

Für eine Firma ist ein anderes Gebäude oder ein Platz auf der anderen Seite einer Brandschutztür optimal. Der Chef oder der mit der Datensicherung beauftragte Mitarbeiter könnten die Daten nach Hause mitnehmen.

Die Sicherheitskopien im Tresor der Firma vor Unbefugten zu schützen ist eine gute Idee. Das schützt aber nicht vor allen Gefahren. Bei einem Brand sind die Kopien gefährdet. Übliche Tresore sind dafür gebaut, Papier zu beschützen. Papier entzündet sich erst bei 185 °C. Polycarbonat, das Trägermaterial von DVDs und Magnetbändern, hat sich bei dieser Temperatur bereits verformt. Mehr als 125 °C verträgt es nicht. [30]

Was kann man tun? Lagern Sie nicht alle Kopien im Tresor. Stellen Sie eine wärmedämmende Box für die Datenträger in den Tresor. Es gibt spezielle Datenträgertresore, in denen Ihre Daten ein Feuer überstehen können.

Bedenken Sie, dass Sie nach einem Brand oder Einbruch eventuell tagelang keinen Zugang zu ihren Räumen mit den möglicherweise unversehrten Datenträger haben, solange die Spurensicherung am Werk ist.

Wenn Sie Bänder verwenden, droht eine andere Gefahr: Was ist, wenn Ihr Bandgerät defekt ist? Wenn das Bandgerät samt Server gestohlen oder verbrannt ist, woher bekommen Sie ein neues Bandgerät zum Einlesen der Bänder? Sie sollten sich fragen

  • Wie viele Tage würde es dauern, ein Ersatzgerät zu beschaffen?
  • Wie exotisch ist Ihr Bandgerät? Wäre es überhaupt wiederbeschaffbar?
  • Sie haben jemanden gefunden, der das gleiche Bandgerät benutzt und es Ihnen im Notfall leihen würde. Würde das Ersatzgerät Ihre Bänder lesen können? Haben Sie das getestet?

Besprechen Sie das Thema mit Ihrem Hardware-Händler. Vielleicht können Sie mit einem anderen Kunden Ihres Händlers vereinbaren, die Bandgeräte im Störfall gegenseitig auszuleihen. Testen Sie mit wenigsten einem Band, ob das fremde Gerät Ihr Band lesen kann. Wenn Sie Pech haben, ist Ihr Bandgerät schlecht justiert und liest nur die selbst beschriebenen Bänder.

An diese Stelle passt ein unter Administratoren gebräuchlicher Witz: „Unsere Backups waren in Ordnung, nur die Rücksicherung hat nicht geklappt!“


Drei-Generationen-Sicherung[Bearbeiten]

Tägliche Sicherung[Bearbeiten]

Gegen Festplattenausfälle hilft eine regelmäßige, ausreichend häufige Datensicherung. Wenn man jedesmal ein anderes Sicherungsmedium nimmt und die Medien anschließend möglichst lange aufbewahrt, hat man sich auch gegen die unauffälligen, „schleichenden“ Schäden geschützt. In Firmen ist es üblich, an jedem Arbeitstag ein Backup zu erstellen, von denen einige zehn Jahre lang aufbewahrt werden, um gesetzliche Vorgaben zu erfüllen.

Es wäre ein nahezu ideales Verfahren der Datensicherung, jeden Tag den gesamten Festplatteninhalt zu sichern und jedes Sicherungsmedium (mindestens) zehn Jahre lang aufzubewahren.

Jeden Datenträger aufzuheben würde allerdings 365 Datenträger pro Jahr erfordern. Das ist natürlich kaum praktikabel, der Arbeits- und Kostenaufwand wäre sehr hoch, so wiegen z.B. (unverpackte) DVDs für 10 Jahre knapp 60kg. Wie kann man die Zahl der benötigten Datenträger verringern, ohne die Sicherheit wesentlich zu verringern?

Sicherung hochverfügbarer Systeme[Bearbeiten]

Für manche Anwendungen reicht es nicht aus, die Daten nur einmal täglich zu sichern. Stellen Sie sich das Chaos vor, wenn das weltweite Flug-Reservierungssystem ausfällt und alle Buchungen der letzten Stunden verloren sind! Für derartig kritische Anwendungen reicht nicht mal eine stündliche Sicherung. Es wäre absolut ideal, wenn jede Datei unmittelbar nach jeder Änderung gesichert wird. Alle diese „Schnappschüsse“ werden aufbewahrt. Dieses Verfahren heißt „Continuous Data Protection (CDP)“. Im Recovery-Fall kann der Zustand des Datenträgers auf jeden beliebigen Zeitpunkt zurückgesetzt werden.

Wenn Datenverluste von einigen Minuten zugelassen werden können, kann das „NCDP“-Verfahren verwendet werden. Near Continuous Data Protection sichert den Datenbestand in größeren Zeitabständen, beispielsweise stündlich oder alle fünf Minuten. Dazwischenliegende Zeitpunkte lassen sich nicht wiederherstellen, aber in vielen Fällen stört das nicht.

Beide Verfahren (CDP und NCP) erfordern allerdings einen gewaltigen Aufwand und sind für Privatanwender und die meisten Firmen nicht praktikabel. Deshalb beschränken wir die weiteren Betrachtungen auf eine maximal tägliche Datensicherung.

Das Prinzip der Drei-Generationen-Sicherung[Bearbeiten]

Wikipedia hat einen Artikel zum Thema:

Magnetbänder

Eine jahrzehntelang bewährtes Verfahren beruht auf dem „Drei-Generationen-Prinzip“, das oft auch als „Großvater-Vater-Sohn-Prinzip“ bezeichnet wird. Seit Jahrzehnten werden die Daten in den Rechenzentren der Welt nach diesem Prinzip auf Magnetbänder gesichert, auch heute noch.

Der Vorteil des Magnetbandes hat aber mit dem GVS-Prinzip an sich nichts zu tun. Er liegt in der Tatsache begründet, dass ein Mechanischer defekt ("normale" benutzung vorausgesetzt) nie das ganze Band betrifft, sondern maximal kurze Abschnitte des Bandmaterials. Im gegensatz zur Festplatte fällt also niemals ein ganzes Band am Stück aus. Bänder werden prinzipiell redundant beschrieben. Die redundanzen werden bewusst "auseinandergezogen" so dass Informationen immer über einen längeren Bandabschnitt mehrfach verteilt sind. Ist ein kurzes Stück nicht mehr lesbar, so kann die entsprechende Information an einer etwas versetzten Stelle erneut gelesen werden.

Das Generationenprinzip

Angenommen Sie möchten Montag bis Freitag (nicht Samstag und nicht Sonntag) in jeder Woche sichern. Für die erste Generation verwenden Sie dann vier Bänder: Mo, Di, Mi, Do. Der Freitag ist Teil der Wochensicherung und damit die zweite Generation: In jeder Woche eines Monats gibt es ein Freitags-Band: Fr_1, Fr_2, Fr_3, Fr_4
Die erste Generation (Mo bis Do) wird jede Woche erneut verwendet. Damit werden diese Bänder jede Woche am jeweiligen zugeordneten Tag überschrieben.
Die zweite Generation (hier die Freitags-Bänder) werden immer nach 28 Tagen am entsprechenden Freitag im Monat überschrieben.

Der Freitag ist eine Ausnahme. Dieses Band legen sie für jede Woche im Monat zur Seite. Damit brauchen Sie fünf Freitagsbänder, vier davon bewahren Sie einen Monat lang auf. Diese vier Bänder bilden die zweite Generation.

Von jedem Monatsanfang wird eine Sicherung drei Monate lang oder - besser noch - für ein ganzes Jahr aufbewahrt. Dafür brauchen Sie drei oder zwölf Bänder. Dies ist die dritte Generation.

Vernünftigerweise bewahrt man das Band mit dem Jahresabschluss noch zehn Jahre auf, das wäre die vierte Generation.

Insgesamt benötigen Sie etwa zwanzig Bänder für das erste Jahr und eins für jedes Folgejahr. Berücksichtigt man den Verschleiß, werden pro Jahr vier weitere Bänder benötigt.


Optische Medien

Anstelle von Bändern können natürlich auch andere Sicherungsmedien verwendet werden, beispielsweise optische Datenträger. Für die tägliche und wöchentliche Sicherung verwenden Sie zweckmäßigerweise mehrfach beschreibbare DVDs. Jedes Brennprogramm bietet einen Dateivergleich nach dem Brennen an. Nutzen Sie diese Funktion zumindest hin und wieder, um unzuverlässige DVD rechtzeitig aussondern zu können.

Für die Monats-CDs sollten Sie zu hochwertigeren einmal- oder mehrfach-beschreibbaren Scheiben greifen. Immerhin müssen diese Datenträger ein Jahr lang aufgehoben werden.

Für die Jahressicherungen sind hochwertige DVD-R mit UV-Schutz empfehlenswert. Wenn Ihr Brenner damit umgehen kann, sollten Sie zu DVD-RAM greifen. DVD-RAM haben die besten Fehlerkorrekturmechanismen und sind darüber hinaus die einzigen optischen Scheiben, für die in der Spezifikation eine Mindesthaltbarkeit gefordert ist: Sie müssen mindestens 30 Jahre haltbar sein.

Möglicherweise ist es ratsam, für die Monatssicherungen grundsätzlich einmal-beschreibbare Scheiben zu verwenden. Stellen Sie die geringen Preise für DVD-R ins Verhältnis zum Aufwand, die DVD-RW vor Gebrauch zu löschen. Für die Sicherheit und die Langzeitlagerung ist es ohnehin besser, alle Monate aufzubewahren. Die Jahressicherungen können dann entfallen.

Es ist immer empfehlenswert, mindestens zwei verschiedene DVD-Fabrikate zu verwenden. So sind Sie selbst dann noch auf der sicheren Seite, wenn eine Charge einen versteckten Fehler hat und sämtliche DVDs einer Spindel nach einigen Monaten nicht mehr lesbar sind. Wenn Sie mehr als einen DVD-Brenner haben, sollten Sie hin und wieder den anderen Brenner verwenden. Vielleicht ist Ihr bevorzugter Brenner nicht mehr präzise justiert? Vielleicht produziert er seit Monaten DVDs, die außer ihm kein anderes Gerät lesen kann? Sie sollten von Zeit zu Zeit mit einer Ihrer DVDs ausprobieren, ob sie sich in einem anderen Laufwerk lesen lässt.

Ja, ja, ich weiß, das ist paranoid. Aber wenn es um die Sicherheit geht, sollte man wenigstens zeitweise ein wenig paranoid sein.

Die Protokollierung[Bearbeiten]

Jede durchgeführte Datensicherung sollte protokolliert werden. Das Protokoll sollte enthalten:

  • Datum, evtl. Uhrzeit
  • Bezeichnung des Datenträgers, sofern nicht offensichtlich
  • Art der Sicherung: Voll, differenziell oder inkrementell
  • Eventuelle Auffälligkeiten
  • Irgendeine Angabe, die einen Vergleich mit Vortagen ermöglicht, z. B. Anzahl der gesicherten Dateien, benötigte Zeit oder benötigter Speicherplatz. Wenn die Datensicherung funktioniert, sollten diese Zahlen allmählich wachsen, außer jemand hat „groß aufgeräumt“.

Welchen Sinn hat die Protokollierung?

  • Sie hilft dabei, Unregelmäßigkeiten zu entdecken.
  • Sie hilft Ihnen zu bestimmen, welche Dateiversionen auf welchem Datenträger sind. Das ist ganz besonders wichtig, wenn Sie die Datensicherung nicht täglich vornehmen.
  • Sie hilft Ihnen, die zu einer inkrementellen Sicherung zugehörige vorangehende Vollsicherung zu ermitteln.
  • Sie führt Ihnen selbst (und eventuell Ihrem Chef) vor Augen, wie zuverlässig Sie die Sicherungen vornehmen.

Die Haltbarkeit von Bändern

Vom „Montagsband“ bis zum „Donnerstagsband“ wird jedes Band 52 mal im Jahr verwendet, jedes „Freitagsband“ maximal zwölf mal im Jahr. Theoretisch halten die Bänder einige hundert Schreibvorgänge aus. Es darf jedoch keinesfalls passieren, dass sich ein ausgeleiertes Band im Bandgerät verklemmt. Bandgeräte sind sehr teure, überaus empfindliche feinmechanische Erzeugnisse. Es ist leichtsinnig, ein teures Bandgerät zu ruinieren, weil man am Bandmaterial gespart hat. Deshalb empfiehlt sich ein regelmäßiger Wechsel der Bänder. Eine Möglichkeit ist es, jedes Jahr prophylaktisch die Montags- bis Donnerstags-Bänder gleichzeitig auszutauschen. Man kann auch das bisher meistbeanspruchte Tagesband für die Quartalssicherung nehmen und es dadurch aus dem Zyklus herausnehmen. Dadurch bleiben die am meisten beanspruchten Bänder nur ein Jahr im Einsatz. Nebeneffekt: Sie haben für die zurückliegende Zeit nicht nur ein, sondern vier Bänder pro Jahr. Falls eins der alten Bänder nicht mehr lesbar sein sollte, haben Sie mehr Ausweichmöglichkeiten.

Dieses Austauschverfahren wird allerdings nur dann zuverlässig über Jahre klappen, wenn Sie über die Verwendung der Bänder Buch führen. Mindestens sollten Sie jedes Band mit dem Datum der ersten Verwendung beschriften.

Um den Austausch der Freitagsbänder brauchen Sie sich keine Sorgen zu machen. In acht Jahren würde jedes von ihnen erst 96 mal benutzt sein. Sie werden deutlich früher Ihr Bandgerät durch ein neues mit erheblich größerer Kapazität auswechseln müssen, welches dann ohnehin andere Bänder braucht. Das neue Bandgerät wird die alten Bänder vielleicht noch lesen, aber nicht beschreiben können.

Vollsicherung[Bearbeiten]

Mit den Begriffen „Vollsicherung“ und „Teilsicherung“ ist nicht gemeint, die gesamte Festplatte zu sichern. Gemeint ist, dass von einem ausgewählten Teil der Festplatte (Partition oder Verzeichnis mit Unterverzeichnissen) alle Dateien kopiert werden, ohne in ältere und neue Dateien zu unterscheiden.

Bei einer Vollsicherung werden alle vorhandenen Daten kopiert: Neue und uralte Dateien, früher bereits gesicherte Dateien und neue, noch nie gesicherte Dateien, ohne irgendwelche Ausnahmen.

Vorteil bei der Sicherung: Es wird keine Datei vergessen.
Vorteil bei der Wiederherstellung: Alle Dateien liegen komplett vor und können leicht gefunden werden. Es ist die schnellste der Methoden.
Nachteil bei der Sicherung: Der Bedarf an Sicherungsmedien und der Zeitaufwand für die Sicherung sind am größten. Wer ausschließlich Vollsicherungen erstellt, wird gezwungen sein, seine Backups nur wenige Tage aufzubewahren oder seine Daten nur selten zu sichern. Beides ist schlecht.

Teilsicherung[Bearbeiten]

Wenn die Daten nicht komplett auf ein einziges Medium passen, wird eine Vollsicherung derart aufwändig, dass sie viel zu selten durchgeführt wird. Eigentlich ist es ja Unsinn, Dateien erneut zu sichern, von denen es bereits eine Kopie gibt. Führt man die Datensicherung täglich durch, beträgt der Unterschied zweier aufeinander folgender Datensicherungen nur wenige Prozente. Liegt ein Abstand von 30 Tagen zwischen zwei Sicherungen, steigt der Unterschied keinesfalls auf das dreißigfache, weil viele Dateien täglich verändert werden.

Welche Möglichkeiten gibt es, die veränderten unter der Masse der unveränderten Dateien herauszusuchen? Wenn man nur wenige Dateien zu sichern hat, kann man mit ein paar Mausklicks auswählen, was gesichert werden soll. Unter zehntausenden Dateien die zu sichernden Dateien herausfinden ist allerdings viel zu aufwändig und fehlerträchtig. Das „Heraussuchen“ muss automatisierbar sein. Zum Glück haben die Programmierer rechtzeitig daran gedacht und das „Archivbit“ vorgesehen.

Das Archivbit[Bearbeiten]

Jede Datei hat in zahlreiche Eigenschaften: Name, Typ, Länge, Datum und Uhrzeit. Zusätzlich verfügt jede Datei über einige Attribute, von denen das „Read Only“ („Nur Lesen“) das bekannteste ist. Ein weiteres Attribut ist das „Archivattribut“. Klicken Sie mit der rechten Maustaste auf eine beliebige Datei und dann mit der linken Maustaste auf „Einstellungen“. In der rechten unteren Ecke finden Sie das Dateiattribut „Archiv“. Normalerweise ist dort immer ein Haken zu sehen. Das Betriebssystem setzt den Haken jedesmal, wenn die Datei verändert, umbenannt oder in ein anderes Verzeichnis verschoben wird. Jede neu erstellte Datei erhält ebenfalls den Haken. Dieses Kennzeichen zeigt den Datensicherungsprogrammen, dass die Datei gesichert werden muss.

Jedes Datensicherungsprogramm kann dieses Bit auswerten. Je nach Voreinstellungen kann ein Backup-Programm das Bit zurücksetzen (den Haken entfernen) oder belassen.

Wie benutzen Datensicherungsprogramme dieses Attribut?

Inkrementelle Sicherung[Bearbeiten]

Bei einer vorangehenden Vollsicherung werden alle kopierten Dateien als gesichert gekennzeichnet, indem das „Archiv“- Attribut zurückgesetzt (gelöscht) wird. Bei einer inkrementelle Sicherung werden nur diejenigen Dateien gesichert, die seit der letzten Vollsicherung oder einer vorhergehenden inkrementellen Sicherung erstellt oder geändert worden sind. Während der inkrementellen Sicherung wird das Attribut-Archiv deaktiviert (entfernt).

Wenn beispielsweise am Montag eine Vollsicherung erfolgte, werden am Dienstag die seit Montag geänderten Dateien gesichert. Am Mittwoch werden die seit Dienstag geänderten Dateien gesichert usw.

Vorteil: Zeit- und Platzbedarf für die Sicherung ist gering.
Nachteil: Hoher Wiederherstellungsaufwand, denn im Katastrophenfall müssen zuerst die letzte Vollsicherung und anschließend alle nachfolgenden inkrementellen Sicherungen zurückkopiert werden.

Differenzielle Sicherung[Bearbeiten]

Bei einer vorangehenden Vollsicherung müssen alle kopierten Dateien als gesichert gekennzeichnet werden, indem das „Archiv“- Attribut zurückgesetzt (gelöscht) wird. Alle Dateien, die nach dem Zeitpunkt der letzten Vollsicherung erstellt bzw. geändert werden, bekommen vom Betriebssystem das Archiv-Attribut gesetzt. Die Anzahl der gekennzeichneten Dateien wächst von Tag zu Tag. Die differenzielle Sicherung erfasst alle Dateien mit Archivattribut, ändert aber das Archivbit nicht.

Wenn beispielsweise am Montag eine Vollsicherung erfolgte, werden am Dienstag die Veränderungen seit Montag gesichert, am Mittwoch die Änderungen von Montag bis Mittwoch usw.

Vorteil: Der Zeit- und Platzbedarf für die Sicherung ist anfangs gering. Für eine Wiederherstellung werden nur die letzte Vollsicherung und die letzte Differentialsicherung benötigt.
Nachteil: Der Zeit- und Platzbedarf für die Sicherung wächst jeden Tag mehr. Je nach Umfang der täglichen Änderungen wird immer wieder mal eine Vollsicherung notwendig.

Inkrementell oder differenziell - welche ist vorzuziehen?[Bearbeiten]

Das ist ganz klar die differenzielle Sicherung.

  • Bei einer Wiederherstellung nach einem Totalverlust ist der Aufwand an Zeit und Nerven geringer.
  • Wenn man eine einzelne verlorene Datei sucht, muss man nur auf zwei Medien nachsehen.
  • Wenn man mehrfach beschreibbare Medien verwendet, braucht man weniger davon. Zwei abwechselnd verwendete DVD-RW genügen. Wenn die Wiederherstellung älterer Revisionen von Dateien wichtig ist, nimmt man drei Bänder oder geht zur Drei-Generationen-Sicherung über (Erläuterung folgt).

Unter welchen Bedingungen ist ein Wechsel zur inkrementellen Sicherung sinnvoll?

  • Wenn die Änderungen nicht mehr auf ein einzelnes Medium passen.
  • Wenn der wachsende Zeitaufwand für die Sicherung unzumutbar wird.

Unter welchen Bedingungen ist die inkrementelle Sicherung von Anfang an besser?

  • Man möchte viele Revisionen der Dateien gespeichert haben.
  • Die verwendeten Medien sind teuer und nur einmal verwendbar, deshalb soll die zu sichernde Datenmenge klein sein.

Gemischte Verwendung[Bearbeiten]

Falls Sie es schaffen, dabei die Übersicht zu behalten, ist folgendes Vorgehen sinnvoll:

  • Beginn mit einer vollständigen Sicherung.
  • Differenzielle Sicherungen durchführen, solange die Änderungen auf ein einzelnes Medium passen.
  • Eine inkrementelle Sicherung einschieben. Sicherheitshalber sollten Sie diese Zwischenstand-Sicherung zweimal durchführen, um bei zufälligen Schäden am Datenträger nicht ohne Daten dazustehen.
  • Ab dem Datum der inkrementellen Sicherung wird, ausgehend vom erreichten Stand, wieder differenziell gesichert.
  • Von Zeit zu Zeit eine Vollsicherung, z. B. zum Jahresende.

Beispiel[Bearbeiten]

Die Medien könnten folgendermaßen beschriftet sein:

Nr Typ Beschriftung
1 Voll Vollsicherung vom 1.1.2010
2 Diff Änderungen seit 1.1.2010 (bis tt.mm.jjjj)
3 Ink Änderungen vom 1.1.2010 bis 1.4.2010
4 Diff Änderungen seit 1.4.2010 (bis tt.mm.jjjj)
5 Ink Änderungen vom 1.4.2010 bis 1.7.2010
6 Diff Änderungen seit 1.7.2010 (bis tt.mm.jjjj)
7 Ink Änderungen vom 1.7.2010 bis 1.10.2010
8 Diff Änderungen seit 1.10.2010 (bis tt.mm.jjjj)
9 Ink Änderungen vom 1.10.2010 bis 1.1.2011
10 Voll Vollsicherung vom 1.1.2011
11 Diff Änderungen seit 1.1.2011 (bis tt.mm.jjjj)

Die in den Schritten 1, 3, 5, 7 und 9 benutzten Medien müssen mindestens so lange aufbewahrt werden, bis wieder einmal eine Vollsicherung durchgeführt wird. Wenn auch nur eins dieser Medien fehlerhaft ist, lassen sich Ihre Daten nicht vollständig wiederherstellen. Deshalb sollten Sie jedes dieser Medien sicherheitshalber doppelt haben oder eine Kopie davon auf eine externe Festplatte schreiben.

Die in den Schritten 2, 4, 6, 8 und 11 verwendeten Medien werden vor jeder Benutzung gelöscht. Sie könnten mit einer einzigen DVD-RW auskommen, die Sie das ganze Jahr täglich benutzen. Besser und nicht viel teurer wäre es, 5 DVD-RW zu verwenden, die mit Mo, Di, Mi, Do, Fr beschriftet werden und am jeweiligen Wochentag zum Einsatz kommen.

Angenommen, am 3.10.2010 geht die Festplatte kaputt. Auf die neue Festplatte müssten Sie die Daten in folgender Reihenfolge aufspielen: 1, 3, 5, 7, 8.

Angenommen, am 3.1.2011 geht die Festplatte kaputt. Auf die neue Festplatte müssten Sie die Daten in folgender Reihenfolge aufspielen: 10, 11. Falls das Medium mit der Vollsicherung vom 1.1.2011 defekt ist, könnten Sie notfalls 1, 3, 5, 7, 9, 11 aufspielen. Das dauert zwar länger, doch das Resultat ist das gleiche.

Durchführung[Bearbeiten]

Sie müssen die „Eingabeaufforderung“ starten und die Befehle eintippen.

Das Beispiel geht von folgenden Annahmen aus:

  • Das zu sichende Verzeichnis oder Laufwerk wird mit QUELLE bezeichnet. Ersetzen Sie QUELLE beispielsweise durch "C:", "C:\USERS", "C:\Dokumente und Einstellungen" o. ä.
  • Mit ZIEL wird der Datenträger bezeichnet, auf den die Sicherung erfolgt. Das kann ein Stick, eine externe Festplatte oder ein Laufwerk mit DVD-RAM sein. Ersetzen Sie ZIEL beispielsweise durch "R:", "R:\2010", "R:\2010-11" o. ä.

Erläuterungen zu den Befehlen:

  • Für eine Vollsicherung müssen nacheinander zwei Befehle ausgeführt werden: Der Befehl ATTRIB setzt das Archivbit für alle Dateien, dadurch lässt der anschließende XCOPY-Befehl keine Datei aus.
  • Die Parameter /S /C bewirken, dass Unterverzeichnisse kopiert werden und bei Fehlern der Kopiervorgang nicht abgebrochen wird.
  • /M bedeutet: Alle Dateien mit gesetztem Archivbit kopieren, anschließend das Archivbit zurücksetzen.
  • /A bedeutet: Alle Dateien mit gesetztem Archivbit kopieren, das Archivbit nicht verändern.
  • Wenn ein Dateiname Leerzeichen enthält bzw. enthalten kann, muss er von Anführungszeichen eingeschlossen werden.
Variante mit XCOPY-Befehl
Nr Befehl
1,10 ATTRIB "QUELLE\*.*" +A
XCOPY "QUELLE*.*" ZIEL*.* /S /C /M
2,4,6,8,11 XCOPY "QUELLE*.*" ZIEL*.* /S /C /A
3,5,7,9 XCOPY "QUELLE*.*" ZIEL*.* /S /C /M
  • /MIR bedeutet, dass alle Unterverzeichnisse im Ziel in exakte Übereinstimmung mit der Quelle gebracht werden.
  • /R:1 /W:1 bedeutet, dass bei Fehlern nach einer Wartezeit von 1 Sekunde ein Wiederholungsversuch (Retry) unternommen wird.
Variante mit ROBOCOPY-Befehl
Nr Befehl
1,10 ATTRIB "QUELLE\*.*" +A
ROBOCOPY "QUELLE*.*" ZIEL*.* /MIR /R:1 /W:1 /M
2,4,6,8,11 ROBOCOPY "QUELLE*.*" ZIEL*.* /MIR /R:1 /W:1 /A
3,5,7,9 ROBOCOPY "QUELLE*.*" ZIEL*.* /MIR /R:1 /W:1 /M

Sicherung außer der Reihe[Bearbeiten]

Wenn wegen einer bevorstehenden Installation sicherheitshalber eine außerplanmäßige (Voll-)Sicherung gemacht werden soll, kann man die Daten auf eine externe Festplatte kopieren. Das geht wesentlich schneller als eine Sicherung auf Magnetband oder gar auf DVD. Dabei darf aber das Archivbit nicht verändert werden, sonst gerät die reguläre Datensicherung durcheinander.

Allgemeine Empfehlungen[Bearbeiten]

  • Notieren Sie, welche Sicherungen welcher Art wann auf welchen Datenträger gespeichert worden sind. Am besten auf Papier. Wenn Sie das in eine Datei schreiben, sollten Sie dafür sorgen, dass diese Datei auf keiner Sicherheitskopie fehlt.
  • Kontrollieren Sie von Zeit zu Zeit, ob immer noch alle wichtigen Daten gesichert werden. Passen Sie Ihre Datensicherung an neue Programme und andere Veränderungen an.
  • Testen Sie zumindest auszugsweise, ob die Daten auf dem Sicherungsmedium tatsächlich fehlerfrei lesbar sind.
  • Vertrauen Sie Ihrer Datensicherung nie zu 100%. Bänder oder DVDs können sich als nicht lesbar herausstellen.

Es gibt keine allgemeingültigen Empfehlungen, wie häufig und wie umfangreich eine Datensicherung sein sollte. Es ist wie bei der Kasko-Versicherung vom Auto: Möglicherweise zahlen Sie viele Jahre ein, ohne etwas herauszubekommen. Vielleicht kommt aber morgen ein Hagelschlag ...

Letztlich kann man eine Datensicherung wie eine Versicherung betrachten: Sie investieren jahrelang Zeit und Geld in der Hoffnung, dass der Schaden nie eintritt. Bisher hatten Sie Glück, vielleicht bleibt es eine lange Zeit so, aber gewiss nicht für immer. Vergleichen Sie den Aufwand zwischen den Kosten (materiellen und ideellen) des seltenen Ereignisses „Datenverlust“ und dem regelmäßigen vorbeugenden Aufwand und entscheiden Sie dann über Umfang und Häufigkeit.



Eine Festplatte statt vieler Bänder[Bearbeiten]

Auf dieser Seite geht es um die Möglichkeit, ein Bandgerät und viele Bänder durch eine einzige Festplatte zu ersetzen und trotzdem auf frühere Versionen einer Datei zurückgreifen zu können.

Ein großes Plus der Drei-Generationen-Sicherung ist die Möglichkeit, auf tage-, wochen- und monatealte Versionen einer Datei zurückgreifen zu können. Wenn Sie eine externe Festplatte verwenden, ist vermutlich Platz für viele Sicherungen. Wenn Sie Ihre Dateien jeden Tag in ein anderes, neu angelegtes Verzeichnis sichern, können Sie bald auf viele frühere Dateiversionen zurückgreifen.

Allerdings müssen Sie

  • jeden Tag ein neues Zielverzeichnis anlegen
  • jeden Tag den Namen des neuen Zielverzeichnisses in den Befehl eintragen, mit dem die Datensicherung erfolgt.

Diese tägliche Änderung manuell durchzuführen ist natürlich völlig unakzeptabel. Wie könnte man das automatisieren?

In den Beispielen verwendete Bezeichnungen und Annahmen[Bearbeiten]

C: Das Laufwerk mit dem Betriebssystem
Q: Das Quellen-Laufwerk mit den zu sichernden Daten
Z: Das Ziel-Laufwerk, wohin die Daten gesichert werden
DVD: Der Laufwerksbuchstabe Ihres Brenners

Für diesen Zweck ist eine der Windows-Variablen gut geeignet. Windows stellt die Variable %DATE% zur Verfügung, die während der Ausführung durch das aktuelle Datum in der Form tt.mm.jjjj ersetzt wird. Mit einem einfachen DOS-Befehl

md  \%DATE%

kann man jeden Tag ein neues Verzeichnis erstellen. Probieren Sie es einfach mal aus: Öffnen Sie ein DOS-Fenster (Start-Ausführen-cmd-OK), tippen Sie den Befehl ein und überzeugen Sie sich, dass im aktuellen Laufwerk ein neues Verzeichnis entstanden ist! Wenn Sie anschließend den Befehl

xcopy  Q:\*.doc  \%DATE%\*.doc /s

eintippen und Enter drücken, werden alle Ihre Word-Dokumente in ein Datumsverzeichnis kopiert.

Nachteil dieses Verfahrens: Pro Jahr würden 365 Kopien entstehen, die wohl kaum auf die Festplatte passen würden. Eine Möglichkeit wäre es, länger zurückliegende Sicherungen zu löschen. Das müsste aber automatisch geschehen, sonst taugt das ganze Konzept nichts.

Eine sinnvolle Möglichkeit wäre es, nur ein Teil des Datums zu verwenden. Wenn man vom Datum nur die beiden Ziffern des Tages verwendet, erhält man jeden Tag ein neues Verzeichnis, insgesamt 31 Verzeichnisse pro Monat. Am entsprechenden Tag des nächsten Monats würden die im Vormonat kopierten Daten überschrieben werden. Dadurch bliebe einerseits der Platzbedarf in Grenzen, andererseits kann man bis zu 31 Tage rückwärts jeden Tag rekonstruieren. Das sollte wohl für alle praktisch relevanten Fälle ausreichen.

Für die meisten Anwender würde es genügen, den Datenstand der letzten zehn Tage rekonstruieren zu können. Auch das ist problemlos möglich. Dafür braucht man die Einer-Ziffer des Tages. Die Variable %DATE:~1,1% liefert diese eine Ziffer. Mit den folgenden Befehlen

md  \%DATE:~1,1%
xcopy  Q:\*.doc  z:\%DATE:~1,1%\*.doc  /s

erfolgt die Sicherung am 1., 11., 21. und 31. Tag des Monats in das Verzeichnis mit dem Namen "1". Am 2., 12. und 22. Tag des Monats erfolgt die Sicherung in das Verzeichnis mit dem Namen "2" usw.

Weil Verzeichnisnamen, deren Namen nur aus einer Ziffer besteht, verwirrend wären, ändern wir das Programm etwas ab:

md  \Tag_x%DATE:~1,1%
xcopy  Q:\*.doc  z:\Tag_x%DATE:~1,1%\*.doc  /s

erfolgt die Sicherung am 1., 11., 21. und 31. Tag des Monats in das Verzeichnis mit dem Namen "Tag_x1". Am 2., 12. und 22. Tag des Monats erfolgt die Sicherung in das Verzeichnis mit dem Namen "Tag_x2" usw.

Image[Bearbeiten]

Ein Speicherabbild - Was ist das?[Bearbeiten]

Ein Speicherabbild (engl. Image) ist eine 1:1 Kopie einer oder mehrerer Partitionen der Festplatte. Betriebssystem, Programme und Daten werden einschließlich ihrer Position auf der Festplatte gespeichert. Kopiert man das Image auf eine Festplatte zurück, entsteht ein exaktes Abbild, Bit für Bit identisch mit dem Original.

Nach einem Datenverlust oder wenn man seine alte Festplatte gegen eine größere wechseln möchte ist es sehr praktisch, ein Image zu haben. Das Image wird mit einem geeigneten Programm auf die neue Festplatte kopiert, und das Betriebssystem ist ohne jede Anpassung sofort einsatzfähig. Das Rückkopieren dauert je nach Datenmenge typischerweise 15 bis 30 Minuten.

Das ist ein gewaltiger Zeitvorteil. Bei einer „normalen“, dateiweisen Datensicherung muss zuerst das Betriebssystem samt Treibern installiert werden, anschließend die Anwendungen und viele Sicherheitsupdates. Das dauert mehrere Stunden, oft mehr als einen Tag. Erst wenn das Datensicherungsprogramm installiert worden ist, kann begonnen werden, die Daten zurückzusichern.

Bei der klassischen Datensicherung wird Datei für Datei gesichert. Wenn die Festplatte 10.000 Dateien enthält, so hat auch die Kopie 10.000 Dateien. Einer der Vorteile dieser klassischen Datensicherung ist, dass man eine verlorene Datei ganz leicht wiederfinden kann. Das Verfahren hat aber auch Nachteile:

  • Das Betriebssystem kann auf diese Weise weder gesichert noch wiederhergestellt werden. Das hat zwei Ursachen:
    • Einige Dateien des Betriebssystems sind ständig in Benutzung, wie z. B. die Dateien der Registry. In Benutzung befindliche Dateien lassen sich nicht kopieren, außer mit teuren Spezialprogrammen.
    • Einige Dateien müssen sich an einer genau definierten Stelle der Festplatte befinden, wie z. B. einige Startdateien und die Auslagerungsdatei. Mit einem Kopierbefehl ist es aber nicht möglich, eine Datei an eine bestimmte Position der Festplatte zu kopieren.
  • Nach dem Kopieren jeder einzelnen Datei müssen die Verwaltungstabellen (Inhaltsverzeichnis und Belegungstabellen) auf dem Ziellaufwerk geändert werden. Wenn viele kleine Dateien zu sichern sind, werden diese Tabellen sehr umfangreich. Wenn die Verwaltungstabellen nicht mehr in den Arbeitsspeicher passen, werden sie immer wieder auf Festplatte ausgelagert und wieder eingelesen. Der Zeitbedarf für das Kopieren geht drastisch in die Höhe, auf das Zehnfache oder mehr. Eventuell steht so viel Zeit nicht zur Verfügung.

Diese Probleme lassen sich mit der Technologie eines Speicherabbildes (engl.: Image) lösen. Bei einem Image wird neben den Dateien deren Struktur und Anordnung mitkopiert. In der Regel erfolgt das Kopieren Sektor für Sektor, unabhängig von der Verzeichnisstruktur der Partition.

Wie wird das Problem der ständig in Benutzung befindlichen Dateien gelöst? Es gibt zwei Möglichkeiten:

  1. Windows wird heruntergefahren, dann wird das Image-Programm direkt von CD oder Stick gestartet. Das Image-Programm braucht also nicht installiert werden. Dadurch ist eine Sicherung selbst dann noch möglich, wenn das Betriebssystem defekt ist und nicht mehr hochfährt.
  2. In manchen Fällen kann oder soll der PC nicht heruntergefahren werden. Ein Image bei laufendem Betrieb beherrschen nur wenige Programme. Es wird ein Verfahren „Schattenkopie“ genutzt, mit dem sich auf Windows-Servern die Registry und andere ständig benutzte Dateien sichern lassen. Mit Datenbanken anderer Hersteller funktioniert das mitunter nicht ohne Zukauf von Spezialmodulen. Bei der Entscheidung für ein Programm sollte man den Leistungsumfang sehr genau prüfen.

Für den Privatanwender kommt üblicherweise nur das erste Verfahren in Frage. Soll ein Image automatisch in regelmäßigen Abständen erstellt werden, bleibt nur das zweite Verfahren.

Zum Kopieren werden schnelle Hardwarefunktionen verwendet, dadurch geht das Erstellen (und auch das Rücksichern) meist viel schneller als das dateiweise Kopieren. Der größte Vorteil aber ist die Möglichkeit, ein funktionsfähiges Betriebssystem zu sichern, welches nach einer Rücksicherung sofort startbereit ist. Einige weitere Vorteile eines Images sind:

  • Die Daten können in Portionen gewünschter Größe aufgeteilt werden, beispielsweise in Portionen von 4,7 GB. Bei Bedarf können sie leicht auf DVD archiviert werden.
  • Die Daten werden standardmäßig komprimiert, jedoch kann die Komprimierung abgeschaltet werden.
  • Das Archiv kann mit einem Password geschützt werden.
  • Nicht benutzte Sektoren werden in der Standardeinstellung nicht gesichert, aber in Spezialfällen (z. B. vor einem Datenrettungsversuch oder zu Beweiszwecken) ist es möglich.

Für welche Sicherungen ist ein Image geeignet?[Bearbeiten]

Bei der Sicherung kompletter Festplatten sind Geschwindigkeit, Komprimierung, Verschlüsselung und Unabhängigkeit vom Zustand des Betriebssystems die großen Vorteile eines Imageprogramms. Ihre größte Stärke spielten Imageprogramme bei der Sicherung des Betriebssystems aus.

Je nach Ihrer Arbeitsweise kann ein monatliches Image des Betriebssystems sinnvoll sein, oder einmal pro Quartal. Wenn Sie größere Änderungen am Betriebssystem planen, ist davor und eventuell zusätzlich danach der günstigste Zeitpunkt. Ein Image bringt Ihnen Vorteile:

  • Wenn die anschließende Installation fehlschlägt, können Sie einfach zu einem unbeschädigten Windows zurückkehren.
  • Wenn Ihr System durch Schadsoftware oder eine Fehlbedienung beschädigt ist, kann es leicht auf eine lauffähige Version zurückgesetzt werden.
  • Sie haben eine Sicherung derjenigen Dateien, die von anderen Sicherungen möglicherweise nicht erfasst werden.

Allerdings sollte ein Image niemals Ihre einzige Datensicherung sein. Ein einziges defektes Bit kann das gesamte Archiv unbrauchbar machen, insbesondere wenn es auf der Dateisystemstruktur des Archives liegt, oder das Archiv solide komprimiert ist, was bedeutet, dass sich mehrere komprimierte Dateien die gleichen Bytes innerhalb des Archives entgegen von Datenredundanz teilen. Auch wenn das Archiv auf einer eigentlich zuverlässigen Festplatte abgelegt ist, passiert es mitunter, dass sich eine Archivdatei nicht öffnen lässt. Das Internet ist voll von solchen Leidensberichten[31], selbst bei Testsieger-Programmen. Geradezu verheerend riskant ist es, ein Archiv auf mehrere DVDs zu verteilen. Wenn nur eine der DVDs einen Lesefehler hat, sind auch die restlichen DVDs wertlos. Wenn man die Festplatte auf klassische Weise Datei für Datei kopiert, verliert man bei einem zufälligen Fehler nur eine Datei, die man möglicherweise in einer älteren Sicherung finden kann.

Für eine sichere Archivierung Ihrer Daten ist ein Image aus einem weiteren Grund denkbar ungeeignet. Die Sicherung erfolgt in einem proprietären (herstellereigenem) Dateiformat. Wer weiß, ob Ihr Image-Programm unter Windows 8 und 9 noch lauffähig ist.

Teilsicherungen[Bearbeiten]

Ein Imageprogramm kann statt einer kompletten Partition auch nur ausgewählte Verzeichnisse kopieren. Viel interessanter ist die Möglichkeit, aus einem vollständigen Image einzelne Dateien oder Verzeichnisse zurückzuholen. Sie können wählen, ob Sie an den ursprünglichen Speicherort zurückkopieren wollen oder Sie können ein anderes Zielverzeichnis wählen. Kopieren Sie keinesfalls in das ursprüngliche Verzeichnis zurück, denn wenn dabei etwas schief geht, wissen Sie nicht nur, dass Ihr Backup nichts getaugt hat, sondern Sie sind vermutlich auch die noch intakten Daten los.

Forensisches Backup[Bearbeiten]

Beim Löschen einer Datei wird nur der Dateiname gelöscht und der von der Datei belegte Speicherplatz wird als „frei“ markiert. Die eigentlichen Daten sind nicht gelöscht, sie sind lediglich nicht mehr ohne weiteres auffindbar. Diese als frei markierten Bereiche werden vom Imageprogramm in der Standardeinstellung nicht gesichert. In der Regel gibt es eine Betriebsart „Forensik“ o.ä., bei der auch die als unbenutzt deklarierten Bereiche gesichert werden. Ein solches Backup ist nützlich, wenn man nach einem Zwischenfall die Schuldfrage klären will.

Welche Image-Programme gibt es?[Bearbeiten]

„Drive Image“ von der Firma PowerQuest war das erste Programm dieser Art. Nachdem die Firma Powerquest von Symantec aufgekauft wurde, heißt das Programm jetzt „Symantec ImageCenter“. Weitere bekannte Programme sind Norton Ghost und Acronis True Image. Mitunter gibt es zeitlich begrenzte Versionen im Internet und in Fachzeitschriften. „Active System Recovery“ von Symantec beherrscht die Sicherung bei laufendem Betrieb.

Zurücksichern[Bearbeiten]

Das Sichern von Daten ist ungefährlich, selbst wenn Sie Fehler machen. Schlimmstenfalls sichern Sie die falschen Daten oder zu wenig Daten. Beim Rücksichern können Sie allerdings Schaden anrichten.

  1. Das Image-Programm ordnet den Partitionen mitunter andere Laufwerksbuchstaben zu als das Betriebssystem. Das kann dazu führen, dass Sie beim Rücksichern irrtümlich die falsche Partition überschreiben. Geben Sie deshalb den Partitionen im Vorfeld sinnvolle Namen. Verschaffen Sie sich vor dem Start des Image-Programms einen Überblick über Größe und Namen aller Partitionen.
  2. Haben Sie alle Dateien gesichert, die seit dem Erstellen des Images geändert worden sind? Beim Rücksichern werden alle neueren Daten zuverlässig und endgültig mit den alten Daten überschrieben. Wenn Sie diesbezüglich nicht sicher sind, erstellen Sie ein Image der kaputten Partition. Darin können Sie nötigenfalls alle Dateien finden, die Sie vielleicht noch brauchen.
Achtung!
Sichern Sie die auf Laufwerk C: verstreuten Daten, bevor Sie die Partition auf einen früheren Zustand zurücksetzen!

Daten sinnvoll ordnen[Bearbeiten]

Programme und Daten trennen[Bearbeiten]

Festplatten sind Datenspeicher mit einem gewaltigen Fassungsvermögen. Heutige Festplatten fassen einige hundert DVDs. Um derartige Datenmengen besser ordnen zu können, kann die Festplatte in Bereiche, sogenannte Partitionen unterteilt werden. Bei den meisten PCs wird diese Möglichkeit allerdings nicht genutzt.

Wenn man die Festplatte in mindestens zwei Partitionen teilt – die erste Partition für das Betriebssystem, der Rest für die Daten –, und die Daten auf die zweite Partition verlagert, kann man Übersichtlichkeit, Geschwindigkeit und Sicherheit gewinnen. Außerdem wird die Datensicherung erleichtert. Betrachten wir, wieso.

Mehr Übersicht[Bearbeiten]

Zu diesem Thema gibt es nicht viel zu sagen. Kaum jemand steckt Schriftstücke (= Dokumente) zwischen die Bücher (= Programme). Normalerweise ist es sinnvoll, Bücher und Dokumente getrennt aufzubewahren.

Mehr Geschwindigkeit[Bearbeiten]

Wieso gewinnt man Geschwindigkeit durch Partitionierung der Festplatte?

Windows protokolliert ständig viele Vorgänge und Veränderungen (Logbücher, Registry, Wiederherstellungspunkte u. a.). Mehr als 90 Prozent aller Festplattenzugriffe betreffen das Schreiben von Protokolldateien sowie das Lesen von Dateien des Betriebssystems und der installierten Programme, weniger als 10% entfallen auf Lesen und Schreiben von Daten. Ein Beispiel dazu: Wenn Sie eine Word-Datei anklicken, braucht der PC einige Sekunden, bis Word geöffnet ist. Maximal 100 ms davon hat der PC für das Lesen der Word-Datei gebraucht, die vielen anderen Zugriffe dienen zum Lesen der benötigten Programmdateien.

Wenn Windows freien Platz für irgendeine Datei benötigt, wird die Festplatte, am Anfang beginnend, nach der ersten freien Lücke durchsucht. Dorthin wird die Datei gespeichert. Wird durch das Löschen einer Datei Platz frei, kommt die nächste Datei dort hin. Im Laufe der Zeit werden Programme und Daten vermischt und weiträumig über den gesamten belegten Bereich verteilt.

Wenn man nun beispielsweise von einer 400 GB Festplatte die ersten 20 GB für die Systempartition mit Windows und anderer Software reserviert und den großen Rest von 380 GB für Daten verwendet, entfallen 90% der Zugriffe auf einen kompakten Bereich von 5% der Festplattenfläche. Nun muss man wissen, dass die Magnetköpfe für kurze Bewegungen nur 2 bis 3 Millisekunden benötigen, ein Spurwechsel von ganz außen (wo die Programme sind) bis zu den mittleren Spuren dauert 15 – 20 ms, bis nach ganz innen 20 – 25 ms - die zehnfache Zeit wie im Nahbereich!

Durch die Partitionierung der Festplatte können also 90% der Festplattenzugriffe in weniger als 3 ms erfolgen. Dabei gilt: Je voller die Festplatte wird, desto größer ist der Geschwindigkeitsvorteil. Zugegeben, es gibt nur einen geringen Vorteil, solange die Festplatte fast leer ist, aber sie wird ja nicht immer leer bleiben. Bei einer halb vollen, partitionierten Festplatte wird die Festplatte im statistischen Mittel um 20% bis 30% schneller.

Werden durch eine Unterteilung möglicherweise Daten langsamer gelesen? Nein. Selbst wenn es so wäre: Sogar der langsamste Computer kann die Daten um Größenordnungen schneller liefern, als Sie diese anhören oder betrachten können. Wartezeiten entstehen nur dadurch, dass Windows die zum Betrachten der Daten benötigten Programme laden und konfigurieren muss. Genau das wird durch eine sinnvolle Partitionierung beschleunigt.

Mehr Sicherheit[Bearbeiten]

Der Schreibvorgang einer Datei besteht aus mindestens vier Etappen: Die Belegungstabelle durchsucht, um freiem Speicherplatz für die Datei zu finden. Die Datei wird dorthin geschrieben, das Inhaltsverzeichnis wird aktualisiert und die Belegungstabelle der Festplatte wird ergänzt. Wenn der PC wegen einer Störung den Vorgang nicht abschließen kann, ist mindestens eine Datei oder ein Verzeichnis beschädigt. Beim nächsten Start des PCs sehen Sie die Meldung

Eine Datenträgerüberprüfung ist geplant
Festplatten müssen überprüft werden

Zu diesen Abstürzen kommt es durch Inkompatibilitäten, Programmfehler, Updates und Bedienungsfehler. Windows versucht eine automatische Reparatur. Manchmal gelingt die Reparatur nicht oder nur teilweise. Eventuell entstehen Dateitrümmer, die in Verzeichnissen mit den Namen „C:\File0001“, „C:\File0002“ usw. abgelegt werden. Schäden an den Verwaltungstabellen des Dateisystems treten glücklicherweise nur selten auf. Im schlimmsten Fall ist die Partition kaputt und alle darauf befindlichen Daten sind verloren.

Wenn die Platte jedoch in Betriebssystem- und Datenpartition unterteilt war, geht fast immer nur die Partition mit dem Betriebssystem kaputt, während die Daten auf den restlichen Partitionen erhalten bleiben. Schlimmstenfalls muss man „nur“ Windows neu installieren.

Die Partitionierung hat einen weiteren Vorteil: Veränderungen am Betriebssystem werden weniger riskant. Die Installation eines Treibers oder eines Programms kann Windows beschädigen. Kleine Verbesserungen, Reparaturen oder die Beseitigung von Schadsoftware können zu Problemen führen. Das Betriebssystem legt zwar von Zeit zu Zeit Wiederherstellungspunkte an, um nach einem Fehler zu einem früheren, fehlerfreien Zustand zurückkehren zu können, aber die Rückkehr klappt nicht immer. Deshalb ist es vor Installationen und nichttrivialen Reparaturen ratsam, vorher eine Kopie (ein Image) des Betriebssystems anzufertigen. Wenn die Festplatte unterteilt ist, braucht nur die kleine Betriebssystem-Partition gesichert werden. Ein bis zwei DVD reichen dafür aus. Noch bequemer und sehr viel schneller (nur etwa 10 Minuten) geht es, wenn man das Image der Systempartition auf der Datenpartition ablegen kann.

Wenn die Festplatte nicht unterteilt ist, sind die Dateien des Betriebssystems mit den Daten vermischt. Es bleibt kein anderer Weg, als den gesamten Inhalt der Festplatte zu sichern. Wie viel wäre das bei Ihnen? Auf DVD sichern ist unsinnig, denn mit weniger als einem halben Dutzend DVD kommen Sie nicht aus. Sie brauchen also eine externe Festplatte und eine Stunde Zeit, denn so lange könnte es dauern. Das Zurückkopieren (wenn der erste Reparaturversuch fehlschlägt) dauert genau so lange.

Zusammenfassung: Wie kommt also der Gewinn an Sicherheit zustande?

  • Wenn Schäden an einer Partition auftreten, betrifft das fast immer die Systempartition. Die Datenpartition(en) bleiben intakt.
  • Der anfälligste Teil der Festplatte - das Betriebssystem - lässt sich mit geringem Aufwand sichern, denn es passt meist auf ein bis zwei DVDs. Noch bequemer ist es, wenn Sie das Image auf die Datenpartition der Festplatte oder auf eine externe Festplatte schreiben können. Es wird Ihnen leicht fallen, die Systempartition öfter zu sichern.

Datensicherung mit weniger Aufwand[Bearbeiten]

Bei den meisten PCs belegt das Betriebssystem weniger als 15 GByte, dann reichen zwei DVD für ein Image aus. Andererseits schafft es kaum ein Privatanwender, mit seiner Hände Arbeit mehr Dateien zu erstellen, als auf eine einzige DVD passen. Nehmen wir mal an, Ihr Betriebssystem passt auf zwei DVD und alle wichtigen Daten auf eine DVD.

Wenn die Festplatte nicht unterteilt ist, hat ein Normalanwender zwei Möglichkeiten, seine Daten zu sichern:

  1. Er sucht die auf der Festplatte verteilten Verzeichnisse zeitaufwändig zusammen und brennt sie auf eine DVD.
  2. Er sichert die gesamte Festplatte. Dafür werden mehrere DVD benötigt, es dauert entsprechend lange.

Wenn jedoch die Daten auf die Datenpartition verlagert sind, sollten auf C: keine Daten mehr sein.

  1. Folglich ist es nicht zwingend nötig, die Betriebssystempartition zu sichern. Wenn die Festplatte versagt, baut man eine neue ein und installiert das Betriebssystem und die Anwendungen neu.
  2. Für die Datensicherung wird nur eine DVD benötigt. Das Brennen geht schnell.

Man kann sich und andere relativ leicht zu einer Datensicherung überreden, wenn es nur einen Rohling und zwei Minuten Zeit kostet. Ein paar Klicks und eine Kaffee- o.a. Pause, und man ist fertig. Wenn mehrere DVD zu brennen sind, steigt nicht nur der Materialaufwand, sondern vor allem der Zeitbedarf. Jede Viertelstunde die DVD wechseln und den PC eine Stunde lang nicht sinnvoll nutzen zu können, ist lästig.



Die Einteilung der Festplatte ändern[Bearbeiten]

Möglicherweise haben Sie nun beschlossen, Ihre Festplatte zu partitionieren. Wie macht man das?

„Partition Magic“ von der Firma Powerquest war das erste Programm, mit dem Partitionen ohne Datenverlust verändert werden konnten. Präziser formuliert: Wenn alles optimal klappt, gehen die Daten dabei nicht verloren. Inzwischen gibt es weitere Programme, zum Beispiel

  • MS-Diskmanager (erst ab Vista)
  • Acronis Disk Director Suite
  • Paragon Partition Manager
  • Partition Commander
  • Ranish Partition Manager
  • Smart FDISK
  • GDisk

Diese Programme kosten meist weniger als 50 Euro, teilweise gibt es die Programme als funktionsfähige Demo im Internet oder als Beilage von Fachzeitschriften. Einige dieser Partitionierprogramme können keine Festplatten bearbeiten, auf denen ein (Windows-) Serverbetriebssystem installiert ist. Für die Umgestaltung von Server-Festplatten gibt es spezielle Serverversionen mit Preisen im hohen dreistelligen Bereich.

Alle Programme sind angeblich „ganz leicht“ zu bedienen. Sie sollten sich von so einer Behauptung nicht beruhigen lassen, sondern – im Gegenteil – warnen lassen. Haben Sie jemals in der Computerbranche eine Werbung gesehen, in der ein Produkt als „schwierig zu bedienen“ und „gefährlich“ angepriesen worden wäre?

Da das Partitionieren nur selten durchgeführt wird, ist es schwer, darin Routine zu bekommen.

Es sollte Ihnen zu denken geben, dass Sie in jeder Anleitung aufgefordert werden, vor der Partitionierung unbedingt Ihre Daten zu sichern. Dadurch trifft den Hersteller keine juristische Verantwortung, wenn beim Partitionieren etwas schief geht. Nehmen Sie die Datensicherung ernst. Erschreckend viele Leute, die sich auszukennen glaubten, haben bei den ersten Versuchen mit einer Partitionierungssoftware ihre Daten verloren.

Achtung!
Bearbeiten Sie nie eine Partition mit wichtigen Daten ohne vorherige Datensicherung!
Selbst bei fehlerfreier Verwendung eines Partitionsmanagers kann es leicht zum Totalschaden kommen.
Bei einem Stromausfall oder einer anderen Störung sind die Daten hoffnungslos verloren!

Wie man es die Partitionierung ändert, können Sie im Abschnitt Werkzeuge lesen:

Es gibt zahlreiche weitere Programme zum Partitionieren der Festplatte, darunter auch kostenlose.


Die Datenpartition noch weiter unterteilen[Bearbeiten]

Sie haben gelesen, dass die Zweiteilung der Festplatte in System- und Datenpartition mehr Sicherheit, Übersichtlichkeit und Geschwindigkeit bringt. Außerdem werden Reparaturen am Betriebssystem erleichtert, und die Datensicherung wird erleichtert.

Aus dem Blickwinkel der Datensicherung ist jedoch eine weitere Unterteilung der Daten sinnvoll. Der Grund dafür ist, dass es unterschiedliche Datentypen gibt und für jeden Typ eine andere Sicherungsstrategie optimal ist. Manche Daten sollten häufig gesichert werden, bei anderen darf es seltener sein. Betrachten wir die Unterschiede:

  • Die größte Sicherungshäufigkeit sollte auf Textdateien und andere selbst erstellte, oft veränderte, besonders wichtige Daten entfallen. Sinnvoll ist sowohl eine tägliche Sicherung als auch die Möglichkeit, auf Sicherungen von Vortagen zurückgreifen zu können.
  • Sammlungen nicht-selbsterstellter Daten, die wiederbeschaffbar sind oder auf die man notfalls verzichten kann, z. B. MP3. Deren Sicherung ist solange kein Problem, wie die Datenmenge auf eine DVD passt. Wenn der Umfang größer wird, gibt es mehrere Möglichkeiten:
    • Die Sicherung nur selten vornehmen und akzeptieren, dass Sie im Schadensfall einen möglicherweise großen Teil der Daten verlieren
    • Das Archivbit ausnutzen, um nach einer Vollsicherung zukünftig inkrementelle Sicherungen vorzunehmen
    • Dateien trennen nach schwer und leicht wiederbeschaffbaren Dateien und zukünftig nur die schwer beschaffbaren Dateien sichern.
    • Nur noch die kleinen Dateien sichern, die großen weglassen. Im Verlustfall ist es weniger aufwändig, eine große statt zehn kleine Dateien wiederfinden zu müssen.
  • Kauf-DVD und -CD, die aus Komfortgründen auf die Festplatte kopiert worden sind. Man sichert nicht deren Kopie als Teil der gesamten Festplatte, sondern macht eine 1:1 Kopie vom Original.
  • Fotos und andere selbst erstellte nicht-kleine Daten. Wenn Sie die Fotos nicht bearbeiten, brauchen Sie frühere Versionen nicht sichern, denn es gibt sie nicht. Eine Sicherung ist besonders nach wichtigen Ereignissen (Urlaub) sinnvoll. Wenn die Datenmenge nicht mehr auf eine DVD passt, kann man einen Teil archivieren oder man sichert zukünftig nur die Veränderungen. Fotos lassen sich chronologisch sinnvoll ordnen. Wenn man den PC privat und geschäftlich nutzt, kann man getrennte Bereiche für Privates und Geschäftliches vorsehen.

Um die Datenarten zu trennen, gibt es zwei Möglichkeiten:

  • getrennte Partitionen
  • Unterverzeichnisse

Möglicherweise ist es am Besten, eine Grobeinteilung in Partitionen vorzunehmen und eine vielleicht später notwendige feinere Unterteilung mit Unterverzeichnissen vorzunehmen.

Ganz bestimmt ist es sinnvoll, MP3-Dateien, Filme und andere sehr große Dateien in einer Archiv-Partition oder in speziellen Partitionen zu sammeln. Außerdem kommt auch alles andere ins Archiv, was man notfalls wiederbeschaffen oder erneut aus dem Internet herunterladen kann. Dadurch wird die Datenpartition relativ klein und man kann sie mit nur geringem Zeitaufwand regelmäßig auf CD oder DVD brennen. Die Archivpartition wird nur selten gesichert, wenn überhaupt.

Wie viele Partitionen Sie auch einrichten - jede Einteilung ist besser als gar keine Unterteilung der Daten. Ohne Aufteilung muss man bei jeder Datensicherung jedes einzelne Verzeichnis mit unersetzlichen Daten finden und zum Brennauftrag hinzufügen. Die Gefahr ist groß, etwas zu vergessen, und der Aufwand ist typischerweise so hoch, dass die meisten Leute erfahrungsgemäß viel zu selten oder nie ihre Daten sichern. Welche Unterteilung für Ihre Festplatte sinnvoll ist, hängt von sehr vielen Bedingungen und Einschränkungen ab. Lassen Sie sich beraten!


Beispielhafte Einordnung einiger Datentypen:

Typ Eigenschaften typische Menge wie häufig sichern
Office, E-Mail häufig verändert 1 DVD reicht täglich, Versionierung nötig
Fotosammlung unveränderlich, nur Zuwachs wenige DVD gelegentlich den Zuwachs sichern
eigene Videos unveränderlich, nur Zuwachs viele DVD manuell thematisch sichern
MP3-Sammlung unveränderlich, nur Zuwachs viele DVD gelegentlich den Zuwachs sichern
Spielfilm-Sammlung unveränderlich zu viel nicht sichern, weil wiederbeschaffbar

Beim Festlegen der Größe der Partitionen kann es sinnvoll sein, sich an der Kapazität einer DVD zu orientieren. Dann ist eine Sicherung auf DVD jederzeit problemlos möglich.

Überlegen Sie, welche der nachfolgenden Partitionen Sie einrichten wollen:

  • Systempartition C: mit 20 bis 40 GByte. Dort ist Platz für das Betriebssystem und alle Programme.
  • Datenpartition mit 5 bis 20 GB für wichtige, veränderliche Daten.
  • Eventuell Spezialpartitionen, z. B. für Fotos oder MP3-Dateien
  • Archivpartition für wichtige Daten, die nie oder nur sehr selten verändert werden
  • Kopien-Partition für Daten, die wiederbeschaffbar sind
  • Reserve-Partition, etwas größer als die Systempartition. Ein bis zwei Images der Systempartition sollten hineinpassen.

Bringt das Aufsplitten Ihrer Daten auch Nachteile mit sich?

  • Nein, denn die Datensicherung wird übersichtlicher.
  • Ja, denn man muss sich Gedanken über seine Daten machen und die Daten sinnvoll aufteilen.
  • Ja, denn man muss möglicherweise hin und wieder die Größe der Partitionen anpassen, wenn man das Wachstum der Datenmengen falsch eingeschätzt hat.

Falls Sie nun beschlossen haben, Ihre Daten auf mehrere Partitionen aufzuteilen - wie macht man das?

Am einfachsten ist es natürlich, gleich beim Einrichten der Festplatte die Partitionen anzulegen. Andernfalls müssen vorhandene Partitionen verändert werden.


Prioritäten setzen[Bearbeiten]

Die Daten passen nicht auf das Sicherungsmedium. Was kann man tun?
Wie kann man den Aufwand verringern, ohne große Abstriche an der Sicherheit zuzulassen?
  1. Daten nach Wichtigkeit sortieren
  2. Aktuelle Daten von den alten Daten trennen
  3. Veränderliche Daten von den unveränderlichen Daten trennen
  4. Die Häufigkeit der Datensicherung reduzieren

Betrachten wir nacheinander diese Methoden.

Daten nach Wichtigkeit sortieren[Bearbeiten]

Die Wichtigkeit von Daten kann man nach verschiedenen Kriterien beurteilen:

  • Wie viel Arbeit wurde für die Erstellung der Daten aufgewendet?
  • Ist es überhaupt möglich, die Daten wiederherzustellen?
  • Wenn es möglich ist: Wie schwierig wäre es, die Daten wiederherzustellen?

In selbst erstellten Texten und anderen Office-Dokumenten steckt in der Regel viel Arbeit. Wenn Sie das Dokument ausgedruckt und abgeheftet haben, ist es im Prinzip wiederherstellbar, wenn auch mit beträchtlichem Aufwand. Wenn kein Ausdruck existiert, ist es nicht wiederherstellbar.

Verloren gegangene Fotos können in der Regel nicht ersetzt werden, ein Verlust könnte emotional schwerwiegend sein.

Downloads können meist mit einem erträglichen Aufwand erneut heruntergeladen werden.

Das Betriebssystem und die Programme sollten vorrätig oder leicht beschaffbar sein. Eine Neuinstallation kann zwar aufwändig sein, ist aber nicht allzu schwierig.

Aktuelle Daten von den alten Daten trennen[Bearbeiten]

Die Zahl der auf Ihrer Festplatte gespeicherten Dokumente wächst von Jahr zu Jahr. Entsprechend wächst der Zeitaufwand für eine komplette Datensicherung sowie der Speicherplatzbedarf. Ein gelegentliches Aufräumen (Löschen) alter Dateien mildert das Problem, behebt es aber nicht. Andererseits können Sie pro Tag nur eine begrenzte Menge an Dokumenten bearbeiten. Ein immer größer werdender Teil der gespeicherten Dokumente ist schon „seit Ewigkeiten“ nicht mehr verändert worden. Typischerweise sind deutlich weniger als 10% der Daten in den letzten 30 Tagen verändert worden. Die Aufteilung der Daten in aktuelle, die häufig gesichert werden, sowie alte Daten, die nur selten gesichert werden brauchen, ist eine der möglichen Lösungen des Problems.

Wie trennt man diese Daten? Manuell oder automatisch?

  • XCOPY, ROBOCOPY und andere Dienstprogramme können Dateien abhängig von ihrem Alter kopieren. Beispielsweise kann man alle Dateien, die älter als drei Jahre sind, an einen anderen Speicherort verlagern. Beim Kopieren entsteht am neuen Speicherort die gleiche Verzeichnisstruktur wie am alten Ort. Diese Methode ist nicht allzu schwierig und erfordert kaum Zeitaufwand. Die Methode hat aber schwere Mängel:
    1. Dateien, die thematisch zusammengehören, werden auseinander gerissen. Findet man eine Datei im bisherigen Verzeichnis nicht mehr, muss man aufwändig in ein anderes Verzeichnis wechseln.
    2. In der täglichen Arbeit werden Dateien und Verzeichnisse umbenannt, verschoben und anders geordnet. Im Laufe der Jahre ändert sich die Verzeichnisstruktur und wird der früheren Struktur immer unähnlicher. Dadurch wird das Wiederfinden alter Dateien zunehmend schwieriger.
  • Besser, wenn auch aufwändiger, ist die manuelle Methode. Abgeschlossene Vorgänge, alte Rechnungen und Steuererklärungen, Kündigungen und Bestellungen, abgeschlossenen Briefwechsel und ähnliches kann man von Zeit zu Zeit auf eine andere Partition verschieben, die weniger oft gesichert wird. Am früheren Speicherort hinterlässt man eine Verknüpfung zum neuen Speicherort, dadurch können die Daten jederzeit leicht wiedergefunden werden.

Veränderliche von den unveränderlichen Daten trennen[Bearbeiten]

Manche Daten werden nach dem erstmaligen Speichern nicht verändert. Dazu gehören E-Mails, PDF-Dokumente, ZIP-Archive, MP3-Dateien und Downloads. Es ist sinnvoll, diese Dateien von Anfang an separat anzuordnen. Bei diesen Daten braucht man keine früheren Versionen

Häufigkeit der Datensicherung reduzieren[Bearbeiten]

Manche Datenarten werden nicht jeden Tag verändert. Ein typisches Beispiel sind Fotos. Fotos werden in der Regel nicht bearbeitet, Veränderungen bestehen meist nur im Hinzufügen neuer Fotos. In den meisten Fällen werden neue Fotos nicht jeden Tag hinzugefügt, sondern in mehrtägigen Abständen. Es genügt vollauf, Fotos an den Tagen nach Veränderungen zu sichern.



Häufige Sicherungen schützen vor kleinen Unfällen[Bearbeiten]

Die von Ihnen häufig bearbeiteten Dateien sollten Sie vor den kleinen Alltagspannen schützen, indem Sie diese täglich oder zumindest öfter sichern, und zwar jedes Mal in ein anderes Verzeichnis. Weil dabei nur wenige Dateiarten gesichert werden brauchen, ist der Zeitaufwand und der Speicherbedarf gering. Es ist nicht mal eine externe Festplatte notwendig, für diese Art der Sicherung genügt eine separate Partition oder ein Verzeichnis auf der internen Festplatte.

Wichtig ist dabei, dass diese Sicherung automatisch oder mit einem einzigen Klick gestartet werden kann, ohne dass weitere Eingaben gefordert sind. An dieser Hürde scheitern die manche Datensicherungsprogramme. Die Sicherung wird immer öfter weggelassen, wenn sie zu zeitaufwändig ist. Erfahrungsgemäß wird nach einem Vierteljahr kaum noch daran gedacht, die Daten zu sichern.

Gelegentliche Sicherungen zum Schutz vor Katastrophen[Bearbeiten]

Hier geht es vor allem darum, nach einem Defekt der Festplatte oder ähnlichen Katastrophen nicht ohne Daten dazustehen. Die Daten müssen unbedingt auf eine andere Festplatte (eine externe oder die eines anderen PCs) oder auf einen (optischen) Datenträger gesichert werden.

Lebensdauer digitaler Daten[Bearbeiten]

Sie möchten im Alter die Musik hören können, nach der Sie in der Jugend getanzt haben? Ihr Hochzeitsfoto und den Film, als Ihr Kind die ersten Schritte machte, möchten Sie ein halbes Jahrhundert später Ihren Enkeln und Urenkeln zeigen können?

Sie haben ein Problem. Ein sehr großes Problem.

  • Sie holen eine fünfzehn Jahre alte Foto-CD aus dem Schrank und müssen feststellen, dass sich die Schicht abgelöst hat.
  • Ihr alter Brenner war nicht mehr im Bestzustand und Sie haben es nicht rechtzeitig gemerkt. Sie haben nun einen neuen PC oder einen neuen Brenner, doch der kann die mit dem alten Brenner gebrannten Scheiben nicht lesen.
  • Ihre neue Software kann die alten Dateien nicht öffnen. Die alte Software hätte die Daten lesen können, aber sie lässt sich auf Ihrem neuen Computer nicht installieren.

Nicht nur Sie haben ein Problem. Es trifft auch große Firmen mit wichtigen Daten. 10 % bis 20 % der NASA-Datenbänder von der 1976er Viking-Mission zum Mars haben signifikante Fehler. [32] Was glauben Sie, wie viele Milliarden Dollar diese Mission gekostet hat?

Die digitale Welt wird vermutlich noch lange eine Welt der flüchtigen Informationen bleiben. Die beliebten Datenträger CD und DVD werden innerhalb weniger Jahre unbrauchbar. Selbst bei optimaler Einlagerung verlieren Festplatten und Magnetbänder die Magnetisierung. Externe Festplatten haben eine erschreckend hohe Ausfallrate. Die Haltbarkeit der Daten auf USB-Sticks ist nicht groß, Datenverluste sind häufig. In fünfzig Jahren wird der Großteil der heutigen Daten verloren, „in den Wind geschrieben“ sein. [33].

Das bedeutet: Digitale Informationen bleiben nur dann erhalten, wenn sie oft genug kopiert werden.

Bei Dokumenten von besonderer Wichtigkeit sollte man über eine zusätzliche nicht-digitale Kopie nachdenken. Papier und andere nicht-digitale Medien sind relativ lange haltbar und überstehen ein halbes oder ganzes Jahrhundert in brauchbarer Qualität. Selbst wenn zahlreiche kleine Beschädigungen auftreten, bleibt ein Text, Bild oder Musikstück noch verwendbar. Im Unterschied dazu kann schon ein einziges falsches Bit eine Datei für normale Nutzung unbrauchbar machen.

Ein klassisches Schwarz-Weiß-Foto auf gutem Fotopapier hat eine Haltbarkeit von mehr als 100 Jahren, auch Farbfotos auf hochwertigem Material haben eine brauchbare Haltbarkeit. Bedingung ist aber, dass sie im Dunkeln und nicht zu warm gelagert werden. Aber selbst wenn zahlreiche kleine Beschädigungen auftreten, bleibt ein Text, Bild oder Musikstück noch verwendbar.

In der ersten Hälfte des 20. Jahrhunderts waren die meisten Papiersorten säurehaltig und sind deshalb nur sehr begrenzt haltbar. Heutige Papiere sind weitgehend säurefrei. Für die Archivierung sollte man gezielt nach hochwertigen Materialien suchen. Papyrus ist sehr lange haltbar, aber heute wohl nicht mehr zu bekommen.

Ein weiteres Problem ist die Tintenqualität. Viele Tinten enthalten Eisen, welches verrostet und Löcher in das Papier frisst. Hochwertiges Papier, mit einem Laserdrucker bedruckt, hat eine sehr gute Chance auf Langlebigkeit. Einige Hersteller von Tintendruckern machen Langzeittests mit ihrer Tinte und erreichen ebenfalls eine recht hohe Haltbarkeit.

Eins haben Fotos, Papier, Magnetbänder und optische Datenträger gemeinsam: Wärme und Licht verkürzen die Haltbarkeit drastisch, direkte Sonneneinstrahlung wirkt geradezu verheerend. Die Verwendung billiger Materialien reduziert ebenfalls die Haltbarkeit.

Kopieren, Kopieren, Kopieren ...[Bearbeiten]

Es gibt zwei bewährte Verfahren, um Informationen dauerhaft haltbar zu machen.

Die erste Methode wurde bereits von den Pharaonen verwendet. Sauber in Granit gemeißelt und vor Umwelteinflüssen gut geschützt (z. B. im Inneren einer Pyramide) bleibt die Information nahezu ewig erhalten, zumindest einige tausend Jahre.

Die zweite bewährte Methode wurde Jahrtausendelang von Priestern und Mönchen benutzt und ist im Computer-Zeitalter aktueller denn je: Ganze Bibliotheken wurden wieder und wieder und wieder präzise abgeschrieben. Die Bibel abzuschreiben dauerte etwa drei Arbeitsjahre. Die Kopien wurden weiträumig in Europa verteilt.

So haben einige von der ungeheuren Anzahl dieser Kopien alle Kriege, Feuersbrünste, Naturkatastrophen sowie den „Zahn der Zeit“ überlebt. Diese Methode ist noch immer aktuell. In einigen der großen digitalen Bibliotheken sind Roboter damit beschäftigt, Datenträger automatisch zu duplizieren. Wenn der Roboter das Ende des Bestandes erreicht hat, fängt er von vorn an.

In Ermangelung an Granit und Zeit und weil Stellplätze für Pyramiden hierzulande schwer zu finden sind, bleibt für den Alltagsgebrauch nur die zweite Methode:

  • Alle paar Jahre neue Kopien anfertigen, aber die früheren Medien nicht wegwerfen.
  • Die Datenträger nicht alle an einem Platz aufbewahren.


Für den Alltagsgebrauch gibt es folgende Möglichkeiten:

  • Differenzielle und inkrementelle Backups von Daten
  • Spiegelungen von Datenträgern via Software und Hardware (Raid)
  • Regelmäßiges Überspielen der Daten auf aktuelle Speichermedien, alte Speichermedien aufbewahren
  • Datenträger an verschiedenen Orten lagern.

Selbst die Methode des ständigen Kopierens kann einem Datenverlust nicht per se vorbeugen. Selbst wenn ein Backup oder eine Kopie vorhanden ist, so kann es vorkommen, dass Daten falsch gespeichert wurden und die Integrität des Datenträgers somit nicht mehr gewährleistet ist. Die jahrtausende alte Methode ist unbestritten deutlich sicherer, da sich mit ihrer Hilfe eine fast 100 prozentige Datenintegrität realisieren lässt.

Nur kopierte Daten sind sichere Daten.



Langlebige Medien[Bearbeiten]

Optische Datenträger[Bearbeiten]

Generell haben optische Speichermedien weniger Schwachstellen als andere Datenträgertypen, denn die Hardware zur Steuerung, zum Einlesen und Beschreiben, ist nicht an jeweilige Datenträger gebunden.

Ein mögliches mechanisches Versagen des optischen Laufwerkes würde nicht wie bei mechanischen Festplatten zu einem sogenannten Head-Crash (zu Deutsch „Kopfsturz“), und somit zur Zerkratzung der Scheibe, sondern höchstens zum Stillstand führen, nachdem sich das Laufwerk normal oder im Problemfall mit dem Betätigen des Notauswurfsloches mittels einer stumpfen Nadel öffnen lässt.

Des Weiteren sind optische Speichermedien nicht durch magnetische Einwirkungen, Überspannung, oder unmittelbares Eindringen von Wasser anfällig, und Programme wie Nero DiscSpeed und QPxTool können die Häufigkeit korrigierbarer Datenfehler ermitteln, falls das vom Laufwerk unterstützt wird, wodurch sich die verbleibende Datenhaltbarkeit einschätzen lässt. In anderen Worten, optische Datenträger versagen nicht unangekündigt, und verlieren nicht alle Daten schlagartig.

DVD-RAM[Bearbeiten]

Eine sehr interessante, aber leider wenig bekannte Scheibe ist die DVD-RAM. Auf der Oberfläche erkennt man kleine Rechtecke. Durch diese Markierungen kann jeder Sektor zielgenau erreicht, geschrieben und gelesen werden. Jeder Sektor kann einzeln gelöscht und einzeln beschrieben werden. Jeder Sektor wird unmittelbar nach dem Beschreiben von der Laufwerkselektronik kontrollgelesen und verglichen. Problematische Sektoren werden als defekt markiert und zukünftig nicht mehr verwendet. Es gibt daher keine unbemerkten Schreibfehler, wie sie bei DVD–RW und DVD+RW auftreten können. Die Hersteller geben eine Haltbarkeit von mindestens 30 Jahren an. Allerdings ist mir kein unabhängiges Labor bekannt, welches die Lebensdauer von DVD-RAM jemals getestet hätte.

Kann Ihr Brenner DVD-RAM beschreiben? Das ist höchst wahrscheinlich. Seit Jahren werden fast ausnahmslos Multifunktionsbrenner (“DVD Multi Recorder”) verkauft, die sowohl jeden CD-Typ als auch jeden Typ DVD schreiben und lesen können.

Magneto-Optische Laufwerke („MO“)[Bearbeiten]

Ähnlich wie bei Festplatte und Diskettenlaufwerk werden Informationen gespeichert, indem eine Magnetschicht in der benötigten Polarität magnetisiert wird. Die Magnetschicht besteht aus einem magnetisch sehr „harten“ Material, das heißt: Man benötigt ein extrem starkes Feld zum Ummagnetisieren. Extrem stark bedeutet einerseits, dass solche Feldstärken nur in wissenschaftlichen Speziallabors erzeugt werden können. Andererseits sind derart aufgezeichnete Informationen sicher vor Zerstörungen, weil alle im täglichen Leben vorkommenden Magnetfelder wesentlich schwächer sind.

Doch wie beschreibt man ein magnetisch so „hartnäckiges“ Material ohne ein Speziallabor? Indem ein Laser die Fläche, die dem zu beschreibenden Bit entspricht, bis fast auf die „Curie-Temperatur“ erhitzt (je nach ­Material 160 bis 200 Grad Celsius). Bei dieser Temperatur genügt ein schwaches ­Magnetfeld, um das Bit in der benötigten Polarität zu magnetisieren. Ein großer Vorteil dieser Technologie ist, dass der Magnetkopf beim Schreiben und auch beim Lesen einen relativ großen Abstand von der Platte halten kann. Das Magnetfeld wirkt ja nur auf den erhitzten Bereich. Die Genauigkeit der Positionierung wird durch den Laser sichergestellt. Die bei Festplatten gefürchteten Kopfaufsetzer kommen bei MO-Disks nicht vor. MO-Disk gibt es mit Kapazitäten bis 9,1 GB. Die Abwärtskompatibilität ist hervorragend: Auch sehr alte Medien werden in ganz neuen Geräten gelesen. Als Datenlebensdauer geben die Hersteller 10 bis 30 Jahre an, also etwa zehnmal länger als CD und DVD.

Diese Laufwerke und die passenden Medien sind im Vergleich zur DVD immer noch extrem teuer. Laufwerke kosten mehrere hundert Euro, ein 5-GB-Rohling kostet etwa 50 €. Der Grund dafür ist die aufwendige Technik, mit der MO-Laufwerke arbeiten. Weil sie in der Datensicherheit unübertroffen sind, werden sie gern für die Langzeitarchivierung verwendet.

GlassMasterDisc[Bearbeiten]

Die Firma Syylex graviert Daten in DVDs aus unzerbrechlichem Glas. Das Glas ist eine Spezialmischung, das für die Lagerung aggressivster Chemikalien in der Chemieindustrie verwendet wird. Das Ergebnis ist eine „praktisch ewig“ haltbare Scheibe. Die Disk ist in jedem DVD-Laufwerk lesbar.

Allerdings ist das Verfahren nicht billig. Pro DVD zahlen Sie 150 €. Doch für Firmen kann das rentabel sein. Die Alternative ist, alle paar Jahre einen Stapel Archiv-DVDs auf neue Rohlinge umzukopieren. Das verursacht einen beträchtlichen Arbeitszeitaufwand.

M-Disk – 1000 Jahre haltbar?[Bearbeiten]

Ende 2011 hat eine revolutionäre Neuentwicklung die Praxisreife erreicht: die M-Disk. Die umweltempfindliche organische Schicht, die in den herkömmlichen CD und DVD die Daten speichert, wird bei der „M-Disk“ durch eine anorganische, metallhaltige Schicht ersetzt. Dieses „gesteinsähnliche“ Material ist gegen Sauerstoff, Stickstoff und Wasser beständig und soll mindestens 1000 Jahre haltbar sein. Wenn Sie auf http://youtube.com nach „m-disk“ suchen, finden Sie u. a. eine Demonstration, wie die M-Disk flüssigen Stickstoff und kochendes Wasser übersteht. Unabhängige Institutionen, darunter das US-Militär und die USGS (das sind die US-Geologen), haben die M-Disk geprüft. Niemand hat bisher den 1000 Jahren widersprochen. Nun, selbst wenn die 1000 Jahre nicht ganz erreicht werden, ist eine kleine Sicherheitsreserve recht beruhigend. Allerdings – die Oberfläche ist mechanisch recht widerstandsfähig, doch unzerkratzbar ist sie nicht.

Zum Beschreiben der M-Disk wird ein Brenner mit extrem starkem Laser benötigt, der bei 500 °C Mikrolöcher in die Schicht brennt. Das ist gewissermaßen die moderne Methode, Informationen in Stein zu meißeln. Bisher ist LG die einzige Firma, die geeignete Brenner herstellt. Alle neuen Brenner von LG können eine M-Disk beschreiben, und viele nicht ganz neue Brenner von LG können es nach einem Firmware-Update. Die gebrannte Scheibe kann in einem DVD-Laufwerk eines beliebigen Herstellers gelesen werden.

Die Rohlinge werden ausschließlich von der Firma „Milleniata“ hergestellt. Sie kosten im Zehnerpack etwa 40 Euro und haben wie die DVD eine Kapazität von 4,7 GB. Im Fachhandel gibt es sie noch nicht, sie sind zu neu. Bestellen kann man sie bei Amazon und eBay. Im Juni 2013 stellte Milleniata die ersten M-Disk mit Blu-ray-Kapazität vor. Die Rohlinge sind in Deutschland noch nicht erhältlich (vermutlich werden zuerst NSA und Militär beliefert).

Mehr dazu: http://www.computerbase.de/news/2011-08/m-disc-verspricht-1.000-jahre-datenbestaendigkeit/

Update April 2014: m-discs mit Blu-ray-Kapazität werden mittlerwiele offen vertrieben, siehe dazu die Herstellerwebsite:

http://www.mdisc.com/

Nach "pressebox" geschah dies wohl im Juli 2013: http://www.pressebox.de/pressemitteilung/millenniata-inc/Millenniata-bringt-Blu-ray-Version-der-M-DISC-auf-den-Markt/boxid/614711

Sandisk Memory Vault[Bearbeiten]

Die Firma Sandisk hat im September 2011 einen Speicherstick „Sandisk Memory Vault mit Chronolock-Technologie“ herausgebracht, „der die kostbarsten Erinnerungen in Originalqualität bis zu 100 Jahre speichern kann“ (siehe http://sandisk.de/misc/preserve). „Kann“, wohlgemerkt. „bis zu“, wohlgemerkt. Das ist nur Werbe-Blabla. Nur eins ist ganz sicher: Wenn in 20 Jahren meine Daten weg sind, ist die Garantie abgelaufen.

Viel interessanter ist die Methode, wie die Lebensdauer ermittelt wurde. Bei nichtmetallischen Stoffen rechnet man mit der Faustformel, dass eine Temperaturerhöhung pro 10 °C die Lebensdauer halbiert. Deshalb werden die Versuchsobjekte bei drastisch erhöhter Temperatur getestet. Das ist genau beschrieben auf http://forums.sandisk.com/t5/Memory-Vault/Technology-amp-Life-Testing/td-p/245746

Es wurden 30 Sticks 336 Stunden (das sind 14 Tage) bei 125 °C getestet. Daraus wurde mit der „Arrhenius-Gleichung“ eine Lebensdauer von 104 Jahren errechnet. Ein Faktor dieser Gleichung ist die Boltzmann-Konstante, welche die Entropie (die Alterungsgeschwindigkeit des Universums) beschreibt. Nach meinem Verständnis gibt es viele Ursachen, die zu einem Ausfall führen können (Elektromigration, Kontaktmigration, Dehnungskräfte durch Temperaturwechsel, elektrochemische Korrosion, Degeneration der Abdichtungen des Gehäuses, Auskristallisation des Lötzinns u. a.). Irgendwie will es mir nicht einleuchten, dass sich die vielfältigen potentiellen Ausfallursachen mit einer einzigen Formel berücksichtigen lassen. Dass man nur 30 Sticks nur 14 Tage lang getestet hat, verstärkt mein Vertrauen auch nicht.

Wahrscheinlich werde ich einen solchen Stick nie kaufen, ich benutze lieber die M-Disk. Was mich aber auf das Äußerste beunruhigt: Es ist anzunehmen, dass alle Hersteller diese Gleichung benutzen, um die Lebensdauer von Festplatten, DVDs und anderen Datenträgern zu prognostizieren.


Wie hoch ist die Lebensdauer meiner Daten?[Bearbeiten]

Möglicherweise haben Sie hier eine Statistik erwartet, wie lange durchschnittlich eine CD, eine DVD oder ein USB-Stick lesbar bleiben. Doch so eine Statistik habe ich nicht. Eine dreitägige Suche im Internet hat nichts vertrauenswürdiges ergeben. Wahrscheinlich wird es so eine Statistik nie geben. Warum?

Die Hersteller testen die Lebensdauer ihrer Medien unter Prüfbedingungen, von denen sie glauben bzw. spekulieren, dass eine einmonatige Lagerung bei erhöhter Temperatur einer Alterung von 10 Jahren unter Normalbedingungen entspricht. Es gibt aber nicht allzu viele zehn Jahre alte Exemplare, an denen man überprüfen könnte, ob die zehn Jahre früher gemachten Spekulationen über deren Haltbarkeit zutreffen.

Die Firma Sandisk hat im September 2011 einen Speicherstick „Sandisk Memory Vault mit Chronolock-Technologie“ herausgebracht, der die kostbarsten Erinnerungen in Originalqualität bis zu 100 Jahre speichern kann (siehe http://sandisk.de/misc/preserve). Kann, wohlgemerkt. Auf http://forums.sandisk.com/t5/Memory-Vault/Technology-amp-Life-Testing/td-p/245746 ist genau beschrieben, wie die Haltbarkeit ermittelt wurde. 30 Sticks wurden 336 Stunden (das sind 14 Tage, nicht gerade lange) bei 125 °C getestet. Daraus wurde eine Lebensdauer von 104 Jahren mit der Arrhenius-Gleichung ermittelt. Nach meinem Verständnis gibt es viele Ursachen, die zu einem Ausfall führen können (Elektromigration, Kontaktmigration, Dehnungskräfte durch Temperaturwechsel, elektrochemische Korrosion, Degeneration der Abdichtungen des Gehäuses, Auskristallisation des Lötzinns u. a.). Irgendwie will es mir nicht einleuchten, dass sich die vielfältigen potentiellen Ausfallursachen mit einer einzigen Formel berücksichtigen lassen. Dass man nur 30 Sticks nur 14 Tage lang getestet hat, verstärkt mein Vertrauen auch nicht.

Fachzeitschriften testen die Medien ebenfalls. Diese Tests sind recht gründlich und die Ergebnisse sind nicht durch Herstellerinteressen verfälscht. Aber auch die Fachzeitschriften arbeiten mit Vermutungen, wie man aus einige Tage andauernden Tests Rückschlüsse auf mehrere Jahre ableiten kann. Eine glaubwürdige Statistik setzt voraus, dass die Medien zehn Jahre lang unter reproduzierbaren, typischen Bedingungen benutzt und aufbewahrt worden sind. Was sind aber typische Bedingungen? Eine Aussage des Herstellers, dass die Lagerung bei 20 °C eine zehnjährige Haltbarkeit sichert, nützt Ihnen gar nichts - oder kennen Sie jemanden, des sich eine Klimakammer zugelegt hat, um die CDs entsprechend der Herstellervorschrift lagern zu können?

Wenn ein Hersteller nach zehn Jahren eine Statistik erstellen würde, wie viele seiner Datenträger überlebt haben - was würde es ihm oder Ihnen nützen? Die Fertigungstechnologie ist inzwischen mehrmals umgestellt worden, die alten Erkenntnisse sind auf die gegenwärtige Produktion kaum anwendbar.

Wenn es zuverlässige Daten über mittlere Haltbarkeit gäbe - was würden sie Ihnen nützen? Kein Hersteller wird Ihnen jemals garantieren, dass sein Datenträger drei Jahre hält. Wenn Sie Pech haben, ist er schon am nächsten Tag kaputt.

Eine Angabe „mehr als 95% der DVD halten mindestens drei Jahre“ würde Ihnen wenig nützen. Selbst wenn diese Behauptung stimmt, wissen Sie nicht, ob Sie eine von den 5% oder von den 95% gekauft haben.

Wenn ein Hersteller seine DVD mit der Aufschrift „Drei Jahre garantierte Haltbarkeit“ bedrucken würde - was würde es Ihnen nutzen, wenn Sie im Garantiefall nach dem Ausfüllen und Einschicken einer Schadensmeldung kostenlos einen neuen Rohling bekämen? Auf den Kosten einer Datenrettung bleiben Sie sitzen.

Die Lebensdauer der Daten hängt ganz entscheidend von der richtigen Lagerung ab. Lagern Sie alle Ihre DVD stehend, im Dunkeln, bei einer Temperatur unter 25 °C und einer Luftfeuchtigkeit von maximal 80%? Eine DVD im Hochsommer auf dem Tisch am Fenster eine Woche lang liegen gelassen - das kann's schon gewesen sein.

Der Zufall ist nicht zu unterschätzen. Von der gesamten Kapazität einer Daten-CD entfallen 47% auf die Daten und 53% auf Zusatzinformationen für Fehlerkorrektur, Codierung und Synchronisation. Eine CD kann daher eine Unmenge kleiner Kratzer verkraften. Allerdings kann unter unglücklichen Umständen ein einziger Kratzer die CD unlesbar machen. Besonders kritisch sind kreisförmige Kratzer.

DVDs verwenden ein besseres Fehlerkorrekturverfahren als CDs. Andererseits sind die Strukturen einer DVD viel feiner. Die empfindliche Schicht kann zwar nicht zerkratzt werden, denn bei einer DVD liegt sie mittig. Trotzdem sind oberflächliche Kratzer gefährlich, weil sie den Laserstrahl zerstreuen.

In einem Punkt stimmen die Tests überein: Die Verwendung von Markenware im Vergleich zu No-Name-Material erhöht die Lebensdauer drastisch (ich spekuliere mal: auf das zwei- bis dreifache). Von den Markendisketten aus den Jahren ab 1973 sind zwei Drittel noch problemlos und vollständig lesbar, von den Billigdisketten ist etwa jede zehnte noch lesbar. Allerdings kann auch einem Markenhersteller eine Charge misslingen.

Im übrigen gilt Murphys Gesetz: Je wertvoller die Daten, desto wahrscheinlicher gehen sie verloren.

Welche Medien sind für die Langzeitarchivierung zu empfehlen?[Bearbeiten]

Wann immer irgendwo ein Test von CD-/DVD-Rohlingen durchgeführt wird, kommt dabei ein niederschmetterndes Ergebnis raus. Rohlinge sind eher Datensärge als Datenspeicher. Bereits ein frisch gebrannter Rohling kann nach kurzer Zeit Müll sein, noch kritischer sieht die Sache bei der Lebenserwartung aus. (Zitat aus www.nickles.de[34]

Andererseits sind DVDs die mit Abstand preiswertesten Datenträger.

  • Blu-ray Disks sind ein relativ neues Medium, zu dem wenig Langzeiterfahrungen vorliegen. Die Hersteller suchen noch nach den besten Mischungen für die Aufnahmeschicht.
  • Auf zweilagige DVD sollte man verzichten. Die Justierung des Lasers auf die zweite Schicht ist nicht unproblematisch, es ist mit höheren Fehlerraten zu rechnen.
  • Bei DVD-RW muss die Laserleistung wesentlich genauer als bei DVD-R auf die Eigenschaften der Aufnahmeschicht justiert werden. Fast alle DVD-Brenner, die wir in den vergangenen Jahren getestet haben, produzierten mit RW-Medien inakzeptabel hohe Fehlerraten, sodass wir von ihrem Einsatz zur Archivierung abraten. (c't 16/08[35].
  • DVD-RAM haben angeblich eine Haltbarkeit von 30 Jahren, aber es scheint keinen Prüfbericht eines unabhängigen Labors zu geben, der das bestätigen würde.

Man sollte also einlagige DVD-R oder DVD+R verwenden. Eine unvollständige Liste empfehlenswerter Fabrikate mit überdurchschnittlicher Haltbarkeit:

  • Kodak produziert "goldene DVD" mit einer angeblichen Haltbarkeit von 100 Jahren.
  • Verbatim bietet DVD-R "Archival Grade" an.
  • Die "Scratchproof DVD-R von TDK hat eine besonders kratzfeste Schutzschicht.

Ist die DVD noch in einem guten Zustand?[Bearbeiten]

Mit „Nero DiscSpeed“ oder „Nero CD-DVD-Speed“ kann man den Alterungsgrad der Aufzeichnung ermitteln. In einer Grafik werden leicht beschädigte Sektoren gelb und unlesbare Sektoren rot angezeigt. Wenn Sie Gelb oder Rot sehen, sollten Sie eine Kopie anfertigen. Sogar bei roten Sektoren gelingt das Kopieren manchmal. Bei wichtigen DVDs sollte man die erste Überprüfung sofort nach dem Brennen vornehmen.

Manchen Brennern legt der Hersteller ein Programm zur Qualitätsmessung bei. Plextor-Brennern liegt oft „PlexTools“ bei, K-Probe gibt es zu Lite-On-Laufwerken dazu.

Das einfachste Mittel, um die Lesbarkeit der Daten zu testen: Kopieren Sie die Daten in ein temporäres Verzeichnis der Festplatte. Wenn das nicht mehr vollständig gelingt, sollten Sie wenigstens den Rest der Daten auf eine neue DVD retten.

Wann sollte man die Daten auf ein neues Medium umkopieren?[Bearbeiten]

Rechtzeitig bevor die DVD versagt, auch wenn man nicht weiß, wann das sein wird. Sie sollten von allen wichtigen Daten eine Kopie haben. Wenn die Daten der einen DVD nicht vollständig lesbar sind, können Sie die fehlenden Dateien von der zweiten DVD ergänzen.


Einige Meinungen zur Haltbarkeit von Medien

Lebensdauer von Technologien[Bearbeiten]

Die Lebensdauer von Speichertechnologien[Bearbeiten]

Zu einer Speichertechnologie gehören Datenträger, Laufwerk, PC und Software. Die Speichertechnologien wechseln schnell. Die ersten PC-Diskettenlaufwerke hatten 1981 eine Kapazität von 160 kByte, dann stiegen die Kapazitäten auf 180, 320, 360, 720, 1200, 1440 und 2880 kByte. Heute sind Disketten ungebräuchlich geworden, die meisten neuen PCs werden ohne Diskettenlaufwerk ausgeliefert. Haben Sie schon alle Ihre Disketten weggeworfen? Im gleichen Zeitraum wechselte das Aufzeichnungsverfahren der Festplatten von FW, MFM zu RLL. Die ST506-Festplattencontroller wurden durch IDE, eIDE, P-ATA und S-ATA abgelöst, wobei es auch noch SCSI, SAS und FC gibt. Ein ähnliches Änderungstempo liegt auch bei anderen Speichertechnologien vor. Mit Blu-ray-Laufwerken, der neuesten optischen Speichertechnologie, sind erst etwa 10% aller PC ausgerüstet, während Samsung daran glaubt, dass Blu-ray schon in fünf bis zehn Jahren wieder vom Markt verschwunden sein wird. [36]

Das bedeutet, dass man nach jeweils fünf bis zehn Jahren beginnen muss, seine Daten zu sichten und sie auf modernere Speichermedien zu übertragen, damit sie - hoffentlich - ein weiteres Jahrzehnt überleben können.

Die Lebensdauer von Kodierungen[Bearbeiten]

Ein weiteres Problem ist die verwendete Codierung. Hieroglyphen und Keilschrift sind nur schwer zu entziffern. Mit digitalen Codierungen steht es viel viel viel schlimmer. 1982 war ein geniales Textprogramm namens „WordStar“ allgegenwärtig. 1991 wurde dessen Weiterentwicklung eingestellt, weil das Programm „Word Perfect“ klar überlegen war. Bald danach war auch „Word Perfect“ vergessen. Beginnend 1996 konnte das damals aktuelle WinWord das WordStar-Textformat nicht mehr lesen. Wollte man alte mit WordStar geschriebene Texte heute lesen, bliebe nur, WordStar zu installieren. Das ist fast unmöglich. Wer hat noch lesbare Installationsdisketten? Hat Ihr PC noch ein 5,25" Diskettenlaufwerk? Vermutlich lässt es sich auch nicht nachträglich einbauen, denn die meisten modernen PCs haben keine BIOS-Unterstützung mehr für 5,25"  Laufwerke. Selbst wenn Sie Laufwerk und Installationsdisketten haben: Verträgt sich WordStar mit dem Windows-Betriebssystem? Auch mit den zukünftigen 64-Bit-Systemen? Letztlich bleibt nur die Konvertierung in „Handarbeit“. Leider ist die Konvertierung eines WordStar-Textes extrem schwierig, fast so langwierig wie ihn neu zu tippen.

Ein anderes Beispiel: Das Einsteiger-Officeprogramm „MS Works“ ist „nur“ etwa zehn Jahre alt. Versuchen Sie mal, einen mit MS Works geschriebenen Text mit dem Programm Word zu öffnen! Es ist nicht unmöglich, aber für den „Normalbenutzer“ schwierig. Mit Works-Tabellen und -Datenbanken ist es keinesfalls einfacher...

In wie vielen Jahren wird es vermutlich schwierig werden, einen mit Word geschriebenen Text mit eingebetteten Bildern und Grafiken zu öffnen? Word 5.0 beispielsweise hat ein Jahr-2000-Problem.

In wie vielen Jahren wird man kein Betriebssystem mehr finden können, auf dem sich Word installieren lässt?

Es gibt eine kaum überschaubare Zahl von Codierungen für Videos (Codecs), Musik und Fotos. Ständig werden neue, bessere entwickelt, andere werden ungebräuchlich. Wie viele von ihnen werden überleben? Wird sich ein Programmierer die Mühe machen, auch noch das älteste, inzwischen total ungebräuchliche Format in seinen neuen Player zu integrieren? Wohl kaum. Das gleiche Problem gibt es mit den zahllosen Programmen zur Datenkompression. Es werden nur wenige überleben.

Archivar ist ein Ausbildungsberuf, denn sachkundiges Archivieren ist komplizierter, als nur Kopien in ein Regal zu stellen und sie bei Bedarf wiederzufinden. Wobei das Wiederfinden vermutlich das größte Problem ist. Wenn Ihre Daten überleben sollen, müssen Sie Zeit und Gedanken darauf verwenden.

Empfehlungen[Bearbeiten]

  • Den größten Einfluss auf die Haltbarkeit haben schonender Umgang und sachgemäße Lagerung.
  • Kaufen Sie hochwertige Datenträger und Geräte.
  • CDs sind etwas zuverlässiger als DVDs, weil DVDs die fünffache Datendichte haben, ohne dass die Codierung mehr Redundanz beinhaltet.
  • DVD-RAM sind die zuverlässigsten optischen Medien: Sie haben ein gutes Defektmanagement. Im Unterschied zu allen anderen optischen Medien gibt es eine Spezifikation, die eine mindest dreißigjährige Haltbarkeit fordert.
  • Einmal-beschreibbare optische Datenträger sind etwas langlebiger als mehrfach-beschreibbare, wenn sie im Dunkeln gelagert werden.
  • Benutzen Sie Medien verschiedener Hersteller, um bei einem Chargenfehler nicht alle Kopien gleichzeitig zu verlieren.
  • Benutzen Sie nur die gebräuchlichsten Dateiformate. Konvertieren sie gegebenenfalls veralternde Dateiformate in aktuellere.
  • Vergleichen Sie gleich nach dem Kopieren jede Kopie mit dem Original.
  • Führen Sie einen Katalog oder ein Verzeichnis, welche Daten sich auf welchen Medien befinden.
  • Mustern Sie die weniger guten Fotos aus. Wenn man fünf gute Fotos hat, wozu weitere zwanzig weniger gute aufbewahren?
  • Mustern Sie uninteressant gewordene Daten aus. Sie werden auch im Rentenalter weder Zeit noch Lust haben, zehntausend Fotos zu betrachten. Ihre Enkel werden vermutlich noch weniger Lust dazu haben.
  • Ein einzelner Bitfehler kann eine einzelne Datei unbrauchbar machen. Wenn Sie viele Dateien zu einer Archivdatei zusammenfassen und komprimieren, gehen durch einen einzigen Bitfehler möglicherweise alle darin enthaltenen Dateien verloren. [37] Komprimieren Sie deshalb die Daten nicht.


Meine Datensicherung ist beschädigt[Bearbeiten]

Ich kann die gesicherten Daten nicht mehr lesen! Was nun?

Kein Zugriff mehr[Bearbeiten]

Externe Festplatten[Bearbeiten]

Probieren Sie an einem anderen PC, ob die Festplatte noch reagiert. Hören Sie, ob sich die Festplatte dreht? Vielleicht ist das Netzteil defekt oder die Elektronik im externen Gehäuse. Bauen Sie die Festplatte aus, öffnen Sie Ihren PC und schließen Sie die Festplatte direkt an die Hauptplatine an.

Disketten[Bearbeiten]

Die Justierung der Magnetköpfe ist bei jedem Laufwerk etwas anders. Die Chancen sind nicht schlecht, dass ein anderes Laufwerk die Daten lesen kann.

CD oder DVD[Bearbeiten]

Vielleicht ist der Brenner überhitzt? Falls Ihr Brenner im Gehäuse senkrecht eingebaut ist, sollten Sie den (ausgeschalteten) PC auf die Seite legen. Bei einem liegenden Laufwerk könnte die Justierung besser sein. Probieren Sie mit den Laufwerken Ihrer Bekannten, ob eins davon die Scheibe lesen kann. Die Qualität der Fehlerkorrekturverfahren liegt bei manchen Brennern weit über dem Durchschnitt.

Wenn der Windows-Explorer beim Kopieren auf Fehler stößt, bricht er ab. Versuchen Sie, die Daten mit dem Robocopy-Befehl zu kopieren: Dieses Programm überspringt nichtlesbare Dateien und macht mit den nächsten Dateien weiter. Vielleicht hilft Ihnen das Freeware-Programm „Unstoppable Copier“ weiter. Um eine fehlerhafte Scheibe komplett zu kopieren, können Sie das Programm CloneCD bzw. CloneDVD probieren. Beide Programme haben einen excellenten Fehlerkorrekturalgorithmus. Ein Hinweis zur Rechtslage: Es ist strafbar, CloneCD und CloneDVD zum Kopieren von kopiergeschützten Multimediascheiben zu verwenden. Ihre eigenen Dateien dürfen sie natürlich kopieren, und Sicherheitskopien von gekaufter Software dürfen Sie ebenfalls erstellen.

Oft sind die Fehler auf sichtbare Kratzer oder Flecken zurückzuführen. Ein vorsichtiges Abwischen (nicht kreisförmig, sondern von der Mitte nach außen) kann helfen. Bei schlimmen Kratzern kann man die Scheibe mit einem Brillenputztuch und Zahnpasta als Schleifmittel zu polieren. Manchmal kann man damit Daten retten, doch wenn man Pech hat, verschlechtert sich die Lesbarkeit der vorher noch lesbaren Daten. Deshalb sollte man vor dem Polieren so viele intakte Dateien wie möglich sichern.

Nichts hat geholfen[Bearbeiten]

Datenrettungsfirmen können in Reinsträumen defekte Datenspeicher reparieren und mit spezieller Software verlorene Daten wiederherstellen. Meist lassen sich 90% der Daten oder mehr retten. In der Regel bekommt man für eine Anzahlung eine Liste der Dateien, die gerettet werden können, und einen Kostenvoranschlag. Nachdem man die geforderte Summe bezahlt hat, bekommt man die geretteten Daten. Es gibt auch Firmen, die eine Datenrettung zu einem Festpreis anbieten, der meist zwischen 600 bis 1000 Euro liegt.

Ich traue meiner Festplatte nicht mehr[Bearbeiten]

Ihre Festplatte macht komische Geräusche? Sie wird sehr heiß? Manchmal dauert es ungewöhnlich lange, bis die Daten von der Festplatte gelesen werden? Der PC bleibt manchmal nach dem Einschalten hängen und man muss ihn mehrmals einschalten? Die SMART-Elektronik warnt vor Problemen?

Erst wenn die Festplatte endgültig kaputt ist, werden Sie genau wissen, dass Ihre Vorahnungen richtig waren. Besser, Sie ergreifen prophylaktische Maßnahmen.

Falls Windows noch läuft: Arbeiten Sie nicht weiter, aber schalten Sie den PC nicht gleich aus. Sie wissen nicht, ob der PC den nächsten Start schafft.

Starten Sie zunächst keine Testprogramme. Ein kompletter Virencheck, eine Defragmentierung oder ein Oberflächentest sind eine hohe Belastung für die Festplatte und könnten ihr „den Rest geben“. Am besten ist es, mit einer Datensicherung zu beginnen. Doch vielleicht hält der PC eine langwierige Datensicherung nicht mehr durch. Wenn der PC während einer stundenlangen kompletten Datensicherung abstürzt, sind erfahrungsgemäß vor allem alte, unwichtige Dateien gesichert worden. Daher empfiehlt sich ein mehrstufiges Vorgehen:

  1. Sichern Sie zuerst die allerwichtigsten Dateien, z. B. den Dokumentenordner und die E-Mails.
  2. Danach kommen weitere wichtige Dateien an die Reihe, z. B. Fotos
  3. Als letztes wird der Rest gesichert.

Lösungsvorschlag[Bearbeiten]

Nehmen wir an, Ihre Festplatte ist nicht partitioniert (alle Daten befinden sich auf Laufwerk C:) und Ihre externe Festplatte hat beim Anstecken den Laufwerksbuchstaben F: erhalten. Unter Nutzung des Programms robocopy würden die folgenden drei Befehle ausreichen:

robocopy  c:\   f:\kopie\   /s   /r:1   /w:1   *.doc*   *.xls   *.dbx   *.pst

Dieser Befehl kopiert Textdokumente (.doc und .docx), Excel-Tabellen (.xls) sowie die E-Mails der Programme Outlook Express (.dbx) sowie Outlook (.pst) in den Ordner f:\kopie. Ergänzen Sie die Aufzählung nach Bedarf um weitere Dateitypen.

robocopy  c:\  f:\kopie\  /s /r:1 /w:1 *.jpg

Dieser Befehl ergänzt den Ordner f:\kopie um Fotos im .jpg Format.

robocopy  c:\  f:\kopie\  /s /r:1 /w:1 /xa:sh /xf *.dll *.exe *.tmp

Dieser Befehl kopiert alle übriggebliebenen Dateien mit zwei Ausnahmen: /xa:sh bewirkt, dass Systemdateien und versteckte Dateien (wie z. B. die Auslagerungsdatei) nicht gesichert werden. Wegen /xf *.dll *.exe *.tmp werden Programmdateien und temporäre Dateien weggelassen.



Feedback geben
Feedback geben
Waren diese Informationen hilfreich für Sie?
Wenn nicht, dann klicken Sie bitte hier und schreiben Sie uns, was Sie vermisst haben.

Quellen[Bearbeiten]

  1. Weltweite Umfrage zu Datensicherung http://www.consumerstatistics.org/global-data-backup-survey-results/
  2. Eine aktuelle Datensicherung ist nicht vorhanden http://www.aufrecht.de/index.php?id=3092
  3. Datensicherung wurde nicht überprüft http://www.aufrecht.de/index.php?id=3094
  4. IT Sales Week, 10.05.99, S. 24
  5. Computer Reseller News, 19.03.07, S. 46
  6. Gerichtsurteil zum Schadenersatz http://it-vergabe-blog.de/tag/schadensersatz
  7. Datenverlust bei Amazon http://www.computerworld.ch/news/it-services/artikel/amazon-datenverlust-durch-ec2-crash-56420/
  8. Erneut Datenverlust bei Amazon (engl. Originalbericht) http://aws.amazon.com/de/message/2329B7/
  9. Sicherheitsfirma Barracuda Networks gehackt http://www.heise.de/security/meldung/Datendiebstahl-bei-Netzwerk-Sicherheitsfirma-1226365.html
  10. Sicherheitsspezialist RSA gehackt http://article.wn.com/view/2011/06/07/Millionenfacher_Austausch_von_PasswortSchl_sseln/
  11. Deduplizierung http://www.searchstorage.de/index.cfm?pid=4963&pk=170116
  12.  Deduplizierung
  13. Hunderte von Nutzer klagen über Datenverlüste nach Verwendung des von Google entwickelten, auf Android vorinstallierten „DocumentsUI“-Dateiverwalters.
  14. CPU-Ausfall durch langandauernde Überhitzung http://www.heise.de/ct/hintergrund/meldung/34186
  15. Kein Witz! Hochwertige RAM-Prüfgeräte melden das als „atmosphärischen Fehler“
  16. Dieser Fehler tritt häufig bei Festplatten in auswechselbaren Schubkästen auf, aber auch ein Wackelkontakt im Datenkabel oder am USB-Stecker kann die Ursache sein.
  17. Schutzdiode brennt durch Computerhardware:_HDD:_Probleme:_Seagate#Problem
  18. Siehe http://www.dataclinic.co.uk/hard-disk-smooth-l7250.htm
  19. Wasserschäden: http://www.datarecovery.org/physical-drive-failure.html
  20. Höhere Temperatur erhöht Ausfallrate, siehe Grafik "Temperatur und Ausfallrate" http://www.speicherguide.de/magazin/sata.asp?todo=de&theID=1299&lv=&mtyp=
  21. c't 2000, Heft 24, S. 118
  22. Willi Schneider, Langzeitarchivierung von optischen Datenträgern, BSI-Forum 6/97
  23. Experiment der „Mythbusters - Die Wissensjäger“ auf RTL2, 2008: Schnelle Laufwerke drehen mit max. 10.000 U/min, DVD zerreißt bei 20.000 U/min
  24. Bernd Steinbrink, Bernd Behr, CD-R im Härtetest, c't 9/97, S. 240
  25. http://www.test.de/themen/computer-telefon/test/-DVD-Rohlinge/1359679/1359679/1359772/default.ashx?col=5&col=6&col=7&col=8&col=9
  26. Siehe http://www.theregister.co.uk/2002/12/02/pca_publishes_fujitsu_hdd_advisory/ und http://de.wikibooks.org/wiki/Computerhardware:_Festplatte/_Probleme/_Fujitsu#Ursache
  27. Siehe den Abschnitt Fujitsu MPG3xxxAT/AH drive family in http://www.acelab.ru/products/pc-en/articles/ModernHDD/005.html
  28. http://de.wikipedia.org/wiki/Elektrochemische_Spannungsreihe
  29. Das Ausschalten des Druckers erhöht die Kosten http://de.wikibooks.org/wiki/Computerhardware:_Drucker:_Tintendrucker#Drucker_nicht_ausschalten.2C_um_Tinte_zu_sparen
  30. http://de.wikipedia.org/wiki/Polycarbonate zulässige Temperatur 125 °C
  31. Image lässt sich nicht zurücksichern http://www.computerbild.de/download/review/Acronis-True-Image-Home-2011-2511794.html
  32. Nach: c't 2000, Heft 24, S. 114
  33. http://www.longnow.org/views/essays/articles/writtenonwind.php
  34. Rohlinge sind eher Datensärge als Datenspeicher http://www.nickles.de/c/s/praxis-cd-dvd-rohlinge-qualitaet-pruefen-und-daten-retten-529-1.htm
  35. Archiv-DVDs im Langzeittest http://www.heise.de/ct/artikel/Silberne-Erinnerungen-291658.html
  36. http://www.pocket-lint.co.uk/news/news.phtml/17399/18423/samsung-blu-ray-5-years-left.phtml Interview mit dem „director of consumer electronics“ von Samsung UK
  37. Warum komprimierte Daten anfälliger für Fehler sind, ergibt sich daraus, dass wenn es innerhalb dieser Daten zu Fehlern kommt, diese beim Decodieren Folgefehler nach sich ziehen. Einige Bytes Veränderung machen ein Archiv unbrauchbar. Bei einer reinen Huffmancodierung fängt sich der Code wieder, wenn er zufällig auf ein gültiges Codewort trifft und es kommt zu einem Bündelfehler, alle Wörterbuchbasierenden Verfahren (LZ...) führen zu erheblich entstellenden Byte und Bündelfehlern. -- ThePacker 21:57, 28. Jul. 2008 (CEST)

Lizenz[Bearbeiten]

Permission is granted to copy, distribute and/or modify this document under the terms of the GNU Free Documentation License, Version 1.2 or any later version published by the Free Software Foundation; with no Invariant Sections, with no Front-Cover Texts, and with no Back-Cover Texts. A copy of the license is included in the section entitled "GNU Free Documentation License".

Kopieren, Verbreiten und/oder Verändern ist unter den Bedingungen der GNU Free Documentation License, Version 1.2 oder einer späteren Version, veröffentlicht von der Free Software Foundation, erlaubt. Es gibt keine unveränderlichen Abschnitte, keinen vorderen Umschlagtext und keinen hinteren Umschlagtext. Eine Kopie des Lizenztextes ist hier zu entnehmen: http://de.wikipedia.org/wiki/Wikipedia:GNU_Free_Documentation_License .

Eine inoffizielle deutsche Übersetzung der GNU Free Documentation License findet sich hier: http://www.giese-online.de/gnufdl-de.html .

Siehe auch http://de.wikipedia.org/wiki/Wikipedia:Lizenzbestimmungen .