44 Millionen Petabytes.

01. März 2016

IDC-Studie Digital Universe 2014 prognostiziert (mal wieder) enormes Datenwachstum


data-growthDie IDC hat Ihre 2012 erschienene Studie zum "Digital Universe" vor 2 Jahren angepasst - und prognostiziert wie immer ein rasantes Wachstum den im digitalen Universum anfallenden Daten.

Bestandsdaten wachsen im Schnitt um 40% pro Jahr, was einer Verdopplung der Daten alle 2 Jahre entspricht.

Bis 2020 führt dies zu einem Datenvolumen von 44 Zetabytes, oder 44 Millionen Petabytes.

Die Daten kommen laut Report hauptsächlich aus den "Datenschleudern" wie mobilen Geräten mit immer besserer Auflösung für Videos und Fotos, zunehmend vom so genannten "Internet of Things", also Sensordaten von allen möglichen Geräten vom Kühlschrank bis zum Turnschuh, und teils resultierend aus dem Trend "Big Data", also der massenhafter Untersuchung und Aufbereitung aller möglicher Daten.

Da man heute noch nicht weiß, welche Auswertungen demnächst sinnvoll sind, müssen einfach alle Daten gespeichert werden, man weiß ja nie, wozu sie irgendwann noch einmal gut sind.

Eine weitere Datenquelle mit stark wachsendem Volumen ist - wen wundert's - die Überwachung. Nicht alle Staaten haben ein restriktives Datenschutzgesetz, das ein Löschen von erhobenen Daten vorschreibt, und so sammeln sich Terabytes an Überwachungsdaten auf den Speichern.

Für mittelständische Unternehmen ist dieser Datenanstieg durchaus ebenso relevant. Immer strengere Auflagen erfordern umfangreiche Dokumentationen, immer mehr Möglichkeiten erfordern die Speicherung von immer mehr Daten. Damit stehen drei Herausforderungen für die nächsten 5 Jahre im Raum:

  1. Wohin mit den Daten? Speicherausbau ist teuer, aber unvermeidbar.
  2. Aufwand für Backups - Mehr Daten, größere Backup-Fenster, komplexere Infrastruktur
  3. Lizenzkosten für Backup-Software - Richtwert: Volumenlizenzen um €1000 / TB / Jahr

Das Storage-Tiering erlebt deswegen gerade einen Umbruch. Cloud-Dienste lösen Tape-Friedhöfe ab, Disk-Backups erlauben bessere Business Continuity im Ernstfall, und Software Defined Storage (SDS) ist sowieso die Lösung für alles.

Die Kostenfrage lösen diese Ansätze alle nicht, statt einfacher wird die Backup-Strategie oft noch komplexer, und unausgereifte, komplizierte Systeme machen den Kostenvorteil von offener Software oft wieder zunichte.

Dabei wäre es so einfach: Ins regelmäßige Backup kommen nur noch die Daten, die sich ständig ändern und für den unmittelbaren Betrieb notwendig sind: Datenbanken, virtuelle Maschinen, Email-Server. Der riesige Haufen an "statischen" oder "unstrukturierten" Daten, also denen, die sich kaum mehr verändern und selten gebraucht werden, nimmt man aus dem regulären Backup-Prozess und speichert sie von Anfang an sicher.

So einfach ist das.

Link zur IDC-Studie (bei EMC): http://www.emc.com/leadership/digital-universe/2014iview/executive-summary.htm

Themen: Backup, Aktuelles

Autor: Hannes Heckel | Director Marketing bei FAST LTA

WHITE PAPER

In unseren White Papers stellen wir Ihnen jeweils ein spezielles Thema und Ihren Nutzen detailliert vor. Viel Spaß beim Lesen!

White Paper: LINEAR DISK STORAGE

White Paper: TAPE, DISK ODER CLOUD? ÜBERDENKEN SIE IHRE BACKUP-STRATEGIE

White Paper: AUFWAND UND KOSTEN FÜR BACKUPS NACHHALTIG SENKEN

NEWSLETTER

Melden Sie sich zu unserem Newsletter an:

Lesen Sie unser neues White Paper:

Mit der Silent Brick Library als SecureNAS Speicherkosten, Backup-Aufwand und Lizenzkosten nachhaltig reduzieren.

jetzt White Paper lesen: Backup-Aufwand und Lizenzkosten senken