Home

Themenspecial

Mitten in der Datenflut: Wie wachsende Datenmengen Unternehmen und Speicherhersteller gleichermaßen fordern

 

Ein Bild, das Text, Computer, Elektronik, Tisch enthält.

Automatisch generierte Beschreibung

 

Daten sind das neue Gold. Und deren Menge steigt seit Jahren exponentiell an. Dies fordert zum einen Unternehmen, die sich immer öfter um die Ausfallsicherheit ihrer IT-Infrastruktur sorgen. Zum anderen verlangt die Situation auch Speicherherstellern viel ab. Sie müssen neue Systeme entwickeln, um dem Wachstum Herr zu werden.

Wir schreiben das Jahr 2023. Kroatien führt den Euro ein, Finnland tritt der NATO bei, Waldbrände wüten auf Rhodos und wir sind umgeben von Daten. Sie sind längst zum Gold unseres Zeitalters geworden. Ja, man könnte sogar sagen: Wir ertrinken in ihnen. Und trotzdem prasseln sie weiterhin von allen erdenklichen Seiten auf uns ein. Oder plakativer ausgedrückt: 2018 prognostizierten der amerikanische Festplattenhersteller Seagate und das IT-Marktbeobachtungshaus IDC, dass die Welt bis 2025 über 175 Zettabyte (ZB) an Daten speichern werde, was einer durchschnittlichen Wachstumsrate von 27 Prozent entspricht. Und das scheint sich tatsächlich zu bewahrheiten bzw. könnten wir diese Menge sogar überschreiten. Zu diesem gigantischen Datenwachstum haben dabei mehrere Faktoren beigetragen – unter anderem der vermehrte Einsatz von künstlicher Intelligenz, Big-Data-Initiativen, maschinelles Lernen, 5G-Netzwerke, IoT oder das vermehrte Homeoffice. Und das wirft insbesondere zwei Fragen auf: Zum einen gilt es sich zu überlegen, wo wir diesen riesigen Datenhaufen speichern sollen. Zum anderen fragen sich immer mehr Unternehmen, ob ihre IT-Infrastruktur dafür überhaupt gerüstet ist. Ein komplexes Szenario, das sich weiter zuspitzen wird.

Ein Bild, das Wand, Person, Im Haus, Kleidung enthält.

Automatisch generierte Beschreibung

 

Deutsche Unternehmen fühlen sich überfordert

Der Druck steigt – in jedem Unternehmen, welches mit größeren Datenmengen zu tun hat. Und das sind, angesichts der fortschreitenden Digitalisierung, mittlerweile fast alle. Denn datenintensive Technologien und Anwendungen – allen voran Innovationen im Bereich Künstliche Intelligenz – führen zwar zu profunderen Erkenntnissen, genaueren Prognosen und einem höheren Grad an Automatisierung, doch sie erhöhen zugleich den Druck auf die vielerorts ohnehin schon angespannte Situation in puncto IT-Landschaft. Und dieser Druck ist bei vielen Firmenchefs verbunden mit Angst, wie nun eine aktuelle Umfrage des kalifornischen Unternehmens Hitachi Vantara ans Licht brachte. Demnach fühlen sich aktuell rund 73 Prozent der deutschen Unternehmen mit der Menge der von ihnen verwalteten Daten überfordert. 63 Prozent befürchten zudem, dass ihre momentane IT-Infrastruktur nicht in der Lage sein wird, künftige Anforderungen zu erfüllen. Noch prekärer wird es, hält man sich vor Augen, dass durchschnittliche Großunternehmen laut derselben Studie aber auch davon ausgehen, dass sich ihr Datenaufkommen in den nächsten zwei Jahren nahezu verdoppeln wird. Und sie geben darüber hinaus an, dass Daten mittlerweile ihr wertvollstes Gut sind. Ohne Daten geht es also nicht mehr. Doch das führt auch zu vielen Herausforderungen. 

Cyber-Security und Nachhaltigkeit sind große Herausforderungen

Zwei der größten Herausforderungen hierbei sind, der Umfrage zufolge, die Themen Cyber-Security und Nachhaltigkeit. So sind zwei Drittel der Befragten besorgt, ob die Dateninfrastruktur ihres Betriebes auch wirklich robust genug ist, um Daten nach etwaigen Ransomware-Angriffen wiederherzustellen. 20 Prozent der Führungskräfte räumen sogar ein, wichtige Daten nicht gesichert zu haben und 21 Prozent hatten schon einmal den Fall, dass Daten nach Speicherausfällen verlorengegangen waren. Ebenso geben 33 Prozent der Befragten an, dass ihre Dateninfrastruktur momentan zu viel Energie verbrauche – und das in Zeiten, in denen das Wort „Nachhaltigkeit“ in aller Munde ist. Ein Teil des Problems sei laut Hitachi Vantara die Tatsache, dass viele Unternehmen aktuell nach wie vor keine Speicherstrategie verfolgen und auf keine Dateninfrastruktur-Tools zurückgreifen. Die Grundlage dafür bietet ein durchdachtes IT-Gesamtkonzept. Dazu zählen individuelle Lösungen, die von der jeweiligen Branche und Unternehmensgröße abhängig sind. Je nach konkreten Anforderungen können sich Unternehmen bei der Planung und Umsetzung einer soliden IT-Landschaft von Experten unterstützen lassen. 

Größeres Bewusstsein bedeutet mehr Maßnahmen 

Auffallend ist zudem: Jene Führungskräfte, die angaben, dass die Dateninfrastruktur ein essenzieller Teil ihrer Transformationsstrategie sei, waren auch mehr als doppelt so häufig davon überzeugt, dass ihre IT-Landschaft auch stabil genug sei, um im Falle von Cyberangriffen danach weiterhin problemlos zu funktionieren. Dieser Anteil glaubt auch eher, Angriffsversuche rechtzeitig zu erkennen und weiß um die Wichtigkeit von externen Security- oder Storage-Dienstleistern Bescheid. Zusammengefasst bedeutet das also: Je mehr Bedeutung dem Thema IT in einem Unternehmen ganz allgemein eingeräumt wird, desto mehr Maßnahmen werden auch gesetzt, um diesen Bereich zu schützen und voranzutreiben. 

Die Zukunft der Speichermedien 

Im Fokus der aktuellen Diskussion stehen aber nicht nur die Unternehmen und ihre jeweiligen IT-Landschaften, sondern es geht auch um die Frage nach der Zukunft der Datenspeicherung, schließlich will der Datenberg auch gespeichert werden. Hierbei zeigt sich, dass der Festplattenanteil – entgegen allen Prognosen – in den vergangenen Jahren stärker wuchs als jener der SSDs.  Der Abstand zwischen den beiden verringert sich jedoch immer mehr. Bandlaufwerke und -medien sind ebenso wieder gefragter, genauso wie Storage Class Memory.  In Summe lässt sich feststellen: In den vergangenen Jahren konnten die Speicherhersteller noch Schritt halten mit dem Datenwachstum – und das trotz Pandemie-Auswirkungen und Lieferketten-Problemen. Ob die Produzenten aber auch künftig in der Lage sein werden, alle Anforderungen zu erfüllen, bleibt fraglich. 

Kurs Richtung hybride Cloud-Welt

Aktuell tüfteln viele Hersteller an immer innovativeren Systemen und Technologien, bis diese jedoch kommerziell nutzbar sein werden, wird noch einiges an Zeit verstreichen. Ebenso gehen Firmen Partnerschaften ein, um Lösungen im Bereich des Multi-Cloud-Managements voranzutreiben. Denn Fakt ist: Momentan sieht es so aus, als sei das hybride Cloud-Modell gekommen, um zu bleiben. Das zeigt auch die besagte Umfrage, denn dabei gaben die Befragten an, dass sie ihre Daten bereits überwiegend in einer etablierten hybriden Cloud gespeichert haben. Im Schnitt befinden sich dabei 28 Prozent ihrer Daten in einer öffentlichen Cloud, 26 in einer privaten, 21 an einem Standort vor Ort und 21 auf Colocation/Managed Services. Die Verwaltung von Speicherkapazitäten über mehrere Umgebungen hinweg ist auch deshalb wichtig, weil die Bedenken hinsichtlich Sicherheit und Compliance, wie bereits erwähnt, ebenso zunehmen. Eng damit verbunden ist die Tatsache, dass immer mehr Objektspeicher für komplexere Bereiche wie Datenbanken, KI, maschinelles Lernen oder fortschrittliche Analysen eingesetzt werden. Ihr Vorteil: Sie sind hoch skalierbar und kommen gut mit wachsenden Datenmengen zurecht. Ebenso rücken Speicherprotokolle verstärkt in den Fokus. In Kombination mit Speicherschnittstellen bieten sie eine größere Bandbreite, sodass mehr Daten zwischen einzelnen Systemen übertragen werden können. Dies führt wiederum zu einer größeren Speichereffizienz. Und trotzdem werden in diesem Feld noch viele weitere Bemühungen nötig sein, um dem Wachstum Herr zu werden. Es bleibt also spannend. 

Fotos: Pexels

1.) https://www.pexels.com/photo/cryptocurrency-chart-displayed-on-a-laptop-14751274/
2.) https://www.pexels.com/photo/photo-of-man-holding-black-eyeglasses-3760137/