datacenter-networking

19.08.2021 | Julian Incko

Backup im Wandel der Zeit (von 1998 bis heute)

Es gibt wenige Technologien, die sich in den letzten Jahrzehnten so rasant entwickelt haben wie Speichermedien und die dazugehörigen Backups. Ein guter Grund für uns, sich mit einem echten Veteran auf dem Gebiet zu unterhalten: Werner Erb ist Technical Consultant für Datensicherungslösungen bei Tech Data und hat im Laufe seiner Karriere schon einiges erlebt.

Wie genau haben sich deine Anfänge im Bereich Backup gestaltet?

Bei meinem ersten Arbeitgeber musste ich einmal unseren Backup-Admin beim Bandwechsel unterstützen. Zu diesem Zeitpunkt gab es noch keinen zentralen Serverraum, sondern die Server standen im ganzen Gebäude verteilt. Also haben wir einen kleinen Wagen mit Bändern beladen und sind damit von Serverzimmer zu Serverzimmer marschiert, um die Bänder zu wechseln. Der Großteil dieser Server hatte lediglich Einzellaufwerke, jedoch wurden die wichtigsten mit einem Bandroboter ausgestattet, der sogar acht oder neun Bänder fassen konnte.

Das Backup-Volumen war damals noch relativ überschaubar. Laut einer öffentlichen Übersicht der Universität Regensburg bestand damals eine Fileserver Umgebung aus 4 Hochleistungsservern, die jeweils zwei Pentium 3 Prozessoren hatten und 1GB Hauptspeicher. Der zu sichernde Plattenplatz für diese 4 Server waren insgesamt 700GB, 175GB im RAID 5 Verbund pro Maschine. So kleine Festplatten gibt es heute gar nicht mehr.

Was hat sich seit damals verändert? Gab es große Umbrüche?

Das Backup-Volumen hat sich über die Jahre stark verändert, da die Datenmenge immer weiter gestiegen ist. Als ich damals angefangen habe, hatten große Kunden in der Regel DLT7000 oder LTO-1 Laufwerke, mit 35 oder 100GB unkomprimierter Speicherkapazität. Im Vergleich dazu verwenden Kunden heute LTO-7 oder 8 Laufwerke mit 6 oder 12 Terabyte unkomprimierter Speicherkapazität. Auch die Schreibgeschwindigkeit ist enorm gestiegen: Waren damals noch 5MB pro Sekunde üblich, sprechen wir heute von 750. Diesen Geschwindigkeitszuwachs braucht es aber auch bei der großen Datenmenge, damit Backups nicht wochenlang dauern – zumal in der Zeit in der ein Backup geschrieben wird schon wieder neue Daten entstehen.

Eine weitere technische Veränderung, die um 2003/04 aufkam war „Backup to Disc“. Das war eine Backup-Software, die unsere Firma schon seit 1999/2000 unterstützt hat, aber von keinem Kunden wegen den hohen Kosten genutzt wurde. Wir haben damals eine zusätzliche Platte für einen HP-Server gekauft, die 2.500 DM gekostet hat und 9GB Kapazität hatte. Zum gleichen Preis konnte man unzählige LTO oder DLT Bänder anschaffen. 2003/2004 betrat dann Data Domain mit ihrer Deduplizierungs-Appliance den Markt. Der von ihnen entwickelte Algorithmus war bei der Reduzierung redundanter Datenmengen so effizient, dass „Backup to Disc“ auf einmal spannend geworden ist: Dadurch ist es möglich geworden auf wenigen hundert Terabyte Plattenplatz Datenmengen von bis zu drei Petabyte unterzubringen. Das war der größte Wandel bei den Backup-Medien.

Wie würdest du ein Backup definieren?

Es gibt unterschiedliche Ansichten, was ein Backup ist. Die einen bezeichnen einen unveränderbaren Snapshot auf einem Storage System als „Backup“, was die meisten Backup-Spezialisten aber ablehnen würden: Denn wenn das Storage-System kaputt geht, ist dieses „Backup“ auch verloren.

Ein Backup muss immer einen Medienbruch beinhalten, d.h. das Backup darf nicht auf demselben Medium geschrieben werden, auf dem die Nutz- und Produktivdaten liegen. Ein Beispiel: Ich habe eine Festplatte mit zwei Partitionen, einmal Daten und einmal „Backup“. Wenn mir diese Festplatte kaputt geht ist auch mein „Backup“ verloren. Die Backup-Daten müssen also unbedingt physisch von den Nutz- und Produktivdaten getrennt werden. Im Idealfall hat man heutzutage im Rechenzentrum das Backupmedium an einem anderen Ort stehen, als die Nutz- und Produktivdaten. So lässt sich ein Datenverlust durch Kabelbrand etc. vorbeugen.

Für welche Unternehmen sind Backup-Lösungen unbedingt erforderlich und was sollten diese dabei unbedingt beachten?

Es war lange Zeit eine Grauzone, welche Daten aufbewahrt werden müssen und welche nicht. Erst Anfang der 2000 wurden Unternehmen durch den Gesetzgeber verbindlich dazu verpflichtet, Backups für unternehmenskritische Daten anzulegen. Davor gab es lediglich in einzelnen Fällen eine Archivierungspflicht, vor Allem bei öffentlichen Ämtern und Kliniken. Das neue Gesetz („GoBD“) wurde vom Bundesfinanzministerium angestoßen um Geschäftsvorgänge und Geldflüsse nachweisbar zu halten.

Die Geschäftsführung eines jeden Unternehmens muss ein Verständnis dafür entwickeln, dass Backups mehr als nur ein Kostenfaktor sind. Wie wichtig eine gute Backup- und Recovery Strategie wirklich ist, bekommen viele nämlich erst dann mit, wenn es bereits zu spät ist.

Außerdem brauchen Unternehmen alleine schon für ihre Mitarbeiter Backups. Denn Mitarbeiter sind auch nur Menschen, die versehentlich einmal Daten löschen oder gar eine Datenbank zerstören können. Dies trägt letztendlich sogar zur Mitarbeiterzufriedenheit bei, wenn sich diese gewiss sein können, dass im Notfall die Daten – und ihre Arbeit – wiederherzustellen sind.

Ein anderes Thema, bei dem die Rolle von Backups nicht zu vernachlässigen ist, ist die zunehmende Cyberkriminalität. Hier muss man eventuell sogar spezielle Backup-Strategien entwerfen, wie beispielsweise die „Cyber-Recovery“ von Dell. Denn auch hier gilt: Erst dann darüber nachzudenken, wenn es passiert ist, kostet viel Geld. Viele Unternehmen können es sich schlicht nicht leisten, zwei bis drei Wochen von Hackern blockiert zu werden.

Im Idealfall muss man nie auf ein Backup zurückgreifen, aber diesen Idealfall gibt es in keinem Unternehmen. Deshalb ist es für die eigene Backup-Strategie wichtig, zunächst einen Anforderungskatalog zu erstellen: Wie lange darf mein Backup brauchen und wie lange darf eine Wiederherstellung dauern? Hier muss man mit realistischen Werten arbeiten. Es ist nicht möglich ein Backup, das bei der Erstellung acht bis neun Stunden dauert, innerhalb von 30 Minuten wiederherzustellen. Die Datenmenge bleibt ja unverändert. Außerdem sollte man sich ebenfalls über das Backup-Fenster Gedanken machen, sprich, wann stört der Backup-Prozess mein Tagesgeschäft am wenigsten? In Zeiten der Internationalisierung ist das oftmals nicht so einfach zu beantworten.

Abschließend noch ein Blick in die Kristallkugel: Wo geht die Reise hin?

Meine Kristallkugel sagt mir hierzu leider nichts genaues. Es haben sich schon viel schlauere Menschen als ich in dem getäuscht, was sie gesagt haben. So hat Thomas Watson, der ehemalige Vorstandsvorsitzende von IBM 1943 von sich gegeben: „Ich denke, dass es weltweit einen Markt für vielleicht 5 Computer gibt.“ Es hatte gar nicht daran gedacht, dass auch Privatpersonen einen Computer für die verschiedensten Sachen nutzen könnten. Ebenso ist es jetzt schwierig zu sagen, „Das Band ist tot“ oder „Das Band überlebt noch 20 Jahre“. Dell EMC hat 2009 die Data Domain gekauft und sich zugleich mit „Tape Sucks“ mehr oder weniger vom Band verabschiedet. Und wie wir aus der Geschichte kennen, leben Totgesagte länger. Wenn es bei mir gut läuft, arbeite ich noch 5 Jahre. Und in diesen 5 Jahren wird nicht plötzlich ein neues Backup-Medium aufkommen, das das Band von heute auf morgen obsolet macht. Davon bin ich überzeugt.

Die Dell Technologies Spezialisten von Tech Data unterstützen Sie bei Backup-Anfragen gerne. Sie erreichen uns unter dellemc-sales@techdata.de