datacenter-networking

01.04.2021 | Andreas Glaffig

DataFabric: Buzzword oder steckt mehr dahinter?

Wer sich mit NetApp beschäftigt kennt den Begriff der DataFabric schon seit einigen Jahren. Aber was verbirgt sich eigentlich hinter dieser „Daten-Fabrik“ und wo liegen eventuell deren Vorteile für Kundenumgebungen?

Zuerst einmal die Ausgangssituation:

Daten werden immer mehr und auch die Datenquellen nehmen immer weiter zu. Waren früher die Strukturen klar und eindeutig – Daten wurden durch Eingabe erzeugt, meistens in Datenbanken gespeichert und kamen meist aus dem eigenen Unternehmen -, so sind sie dies heute definitiv nicht mehr. Daten kommen aus den unterschiedlichsten Quellen. Das ist natürlich immer noch die „normale“ Datenerfassung, entweder manuell oder durch automatisiertes Einlesen (scannen) der Daten. Ebenso generieren Anwendungen selbst massiv Daten. Seien es Rechnungsdaten aus einer Warenwirtschaft oder Daten von Produktionsmaschinen. Alle erzeugen Daten, die bearbeitet und natürlich auch aufbewahrt werden müssen. Hinzu kommen dann noch die „modernen“ Datenquellen. Dazu gehören z. B. RFID-Daten und auch Daten von mehr oder weniger autonomen Systemen. Diese Listungen ließen sich unendlich weiter führen. Das zeigt auch, dass diese Spirale nicht so schnell enden wird. Und wer Daten hat sollte sie auch auswerten können.

Der klassische Lösungsansatz:

Daten zu speichern ist kein Problem. Zentrale Speichersysteme erlauben den Datenzugriff über alle IT-Protokolle und vereinbaren häufig NAS- und SAN-Funktionalität in einer Einheit (Unified Storage). Zudem sind die Skalierbarkeiten längst auf einem neuen Level angekommen. Wir können Kapazität nicht nur in einem HA-System skalieren, sondern auch über mehrere Systeme hinweg. Das funktioniert immer dann, wenn eine Infrastruktur nicht nur aus einem HA-System besteht, sondern aus n-Nodes, die man zusammenschalten kann. Dem Performancebedarf kann man durch Flash-basierte Speichersysteme hervorragend abdecken.

Weiterlesen auf Seite 2

Daraus ergeben sich allerding auch einige Herausforderungen. Wenn wir weiter unsere Daten im eigenen Rechenzentrum (also On-Premise) betreiben wollen/müssen, ist es notwendig die Ressourcen auch rechtzeitig bereitstellen zu können. Dazu muss man das notwendige Equipment rechtzeitig bestellen, verbauen und implementieren. Jeder dieser Punkte benötigt einen gewissen Vorlauf. Was dazu führt, meist nicht bedarfsgerecht agieren zu können. Daher ist seit mehreren Jahren die Nutzung von Cloud-Ressourcen gängige Praxis. Hier besteht jederzeit die Option bedarfsgerecht und flexibel Ressourcen bereitstellen zu können. Genauso gut kann eine Ressource aber auch wieder aufgegeben werden, wenn sie nicht länger benötigt wird. Das ist und bleibt ein unschlagbarer Vorteil der Public Cloud. Da haben wir aber auch schon wieder eine Herausforderung. Welche Cloud ist die Richtige für mich und mein Unternehmen? Für eine Entwicklungsabteilung mag Microsoft mit Azure die richtige Wahl sein. Für die Unternehmensplaner kann aber Google mit seinen Analytics Themen attraktiver sein. Auch das Thema der Absicherung der Daten darf man nicht außer Acht lassen. Wenn man in der Cloud arbeitet muss man sich trotzdem um Datensicherung und Disaster Recovery genauso Gedanken machen wie On-Premise.

Ein Ausweg:

Genau hier setzt die DataFabric an. Wir betrachten nicht mehr die On-Premise Welt und die Cloud separat. Wir schauen auch nicht mehr nur auf eine Cloud (und dazu gehört dann natürlich auch die Private Cloud). Sondern wir schauen auf alle Speicherressourcen als einen gemeinsamen – zumindest möglichen – Pool. Das bedarf eines integrativen Ansatzes beim Speicherhersteller. Zum einen müssen die notwendigen Schnittstellen vorhanden sein, zum anderen muss man breit genug aufgestellt sein, um den Kunden nicht in eine spezifische Cloud zwingen zu müssen. Es wird mit Sicherheit immer Anwendungen geben, die aus irgendwelchen Gründen, am besten lokalen Speicher nutzen. Andere Anwendungen können davon profitieren, einen Speicher zu nutzen, der es erlaubt die Rechenleistung aus der Public Cloud jederzeit einzubeziehen. Wieder andere brauchen eventuell nur eine gemeinsame Speicherplattform für ihre Collaboration-Projekte. Dies alles möglich zu machen, ohne jedes Mal neue, unterschiedliche Strukturen nutzen zu müssen, wäre von großem Vorteil.

Genau das ist es, was NetApp seinen Kunden ermöglicht. Jederzeit die Option zu haben alle Speicherressourcen zu nutzen, die für den jeweiligen Anwendungsfall sinnvoll sind. Die Daten dort zu platzieren, wo sie am besten be-/verarbeitet werden können. Und dabei immer mit denselben Rahmenparametern und Management-Tools arbeiten zu könne, die man ggf. schon seit dutzenden Jahren kennt. Zudem sind alle Services nicht nur bei einem der Public Cloud-Anbieter verfügbar, sondern sowohl bei AWS, bei Azure, als auch bei Google. Somit hat jeder die freie Wahl welchen Workload er wann, wo, und zu welchem Zweck platziert. Wir können die Daten zu jeder Zeit dort platzieren, wo sie den größten Nutzwert bereitstellen. Und natürlich können wir sie auch wieder zurückholen, wenn es notwendig ist.  Dabei können wir auf alle bekannten Funktionalitäten zurückgreifen. Egal ob wir On-Premise arbeiten oder in „irgendeiner“ Cloud. Selbst Verschlüsselungs- und Archivierungsthemen lassen sich damit, bedarfsgerecht auch in der Cloud, abbilden. Das gilt selbstverständlich auch für die bekannten Effizienzfunktionen. Zudem bieten die Services aus der Cloud ggf. noch einen zusätzlichen Vorteil. Denn hierdurch kann man den Nutzwert vorhandener Infrastrukturen nochmals erhöhen (Stichwort: FabricPool, Cloud Compliance, Cloud Insights oder einfach nur der Cloud Manager zur zentralen Orchestrierung der genannten Tools, auch unter Einbindung lokaler Ressourcen).

Die DataFabric ist somit eine ganzheitliche Strategie, die es Kunden ermöglicht – heute, wie morgen – seine Speicherressourcen so flexibel wie möglich zu halten und bedarfsgerechte Bereitstellung der Daten erlaubt. Wen wundert es, dass zwischenzeitlich auch Analysten diese Bezeichnung immer wieder gern verwenden, wenn es um ganzheitliche Ansätze im Speicherumfeld geht.

Über den Autor

Andreas Glaffig | Website

Andreas Glaffig ist seit August 2006 bei der Avnet/Tech Data im PreSales für NetApp tätig. Diese Aufgabe umfasst neben der reinen technischen Beratung unserer Partner auch den KnowHow-Transfer/Trainings. In den vorherigen Postionen bei der Landis/Westcon und der Raab Karcher Elektronik konnte er sich umfangreiche Kenntnisse im Infrastruktur- und Security-Umfeld, sowie im Unix-/Connectivity-Umfeld erarbeiten. Die Grundlage – für nahezu 25 Jahre Erfahrung in der Distributionslandschaft – bildet eine kaufmännische Ausbildung, gefolgt von mehreren Jahren Supporterfahrung in einem Systemhaus.

  • Drei Fragen an den Autor

    Was ist deine Funktion bei Tech Data?

    Ich kümmere mich um den technischer PreSales und KnowHow-Transfer zu unseren Partnern.

    Wie lange bist du schon beim Unternehmen?

    Seit der Übernahme der Avnet 2006.

    Was für einen Unterschied macht deine Arbeit?

    Technische Kompetenz für den gesamten Sales-Prozess. Wir liefern valide Konfigurationen, nicht abgefragte Komponenten. Partner-Enablement gehört im NetApp-Umfeld zu einer unserer Kernaufgaben.

Zur Specialists Übersicht