• Navigation
  • Warenkorb
Planungssicherheit in der IT

Wie Sie Ihre Speicherinfrastruktur fit für die Zukunft gestalten

Scroll

Die Herausforderung: Planungssicherheit in der IT

Egal, wie viel Puffer IT-Verantwortliche beim Storage einplanen: es reicht am Ende nie. Schon bald muss umgeplant, verschoben und geflickt werden.

 

Die IT hat jedoch genügend andere To-dos und sollte sich nicht permanent mit der Storage-Planung herumschlagen müssen.

 

In diesem Artikel beantworten wir Ihnen folgende Fragen:

  • Wie können IT-Verantwortliche sicherer planen?
  • Wie können sie die Herausforderungen rund um Datenwachstum, Abhängigkeiten und IT-Fachkräftemangel bewältigen?
  • Auf welche Weise können sie bei der Planung Zeit und Geld sparen?

3 vs. 30 Jahre – Das Dilemma

Die Storage Planung ist in den meisten Organisationen auf drei bis fünf Jahre ausgelegt.

 

Die Datenhaltung geht über diesen Zeithorizont deutlich hinaus. Gerade im Bereich der Archivierung müssen Daten 7, 15, teils 30 Jahre und mehr aufbewahrt werden. Diese Daten müssen verfügbar, unveränderbar und übertragbar sein.

 

Die Lücke zwischen 3 Jahren Planung und 30 Jahren Aufbewahrungszeit verursacht in der IT verständlicherweise Kopfschmerzen: vor allem, wenn selbst der 3-Jahresplan schnell zu „Pi-mal-Daumen“ wird.

Datenwachstum, Zeitmangel, Ransomware & Co.

Das genannte Beispiel ist ein Extremfall. Doch das Dilemma zwischen Storage-Planung und Datenhaltung ist nur eine von vielen Herausforderungen. Die IT kämpft zusätzlich mit:

  • Datenwachstum
    Ein neues Forschungsprojekt erzeugt Berge an nicht eingeplanten Daten, ein völlig neuer Anwendungsfall kommt plötzlich hinzu, das Unternehmen wächst stärker als vorhergesehen – und schon ist der Plan hinfällig.

  • Unklarer Bedarf
    Aus den Fachabteilungen kommen Schätzungen zum Bedarf, welchen und viel Speicherplatz benötigt werden. Ein ungeplantes Projekt oder eine Fehleinschätzung reichen aber schon, um selbst großzügige Puffer aufzufressen.

  • Technologischer Fortschritt
    Die IT- und Storage-Welt dreht sich schnell. Aus diesem Grund werden Systeme oft nur für drei bis fünf Jahre geplant. Daten müssen somit regelmäßig auf neue Systeme migriert werden. Das kostet Zeit und Geld – und ist teils gar nicht machbar, wenn es eine Abhängigkeit (Vendor Lock In) vom bestehenden System gibt.

  • IT-Fachkräftemangel
    Vielfältige Aufgabenbereiche, wenig Köpfe: So lässt sich die Situation der meisten IT-Abteilungen zusammenfassen. Und es wird nicht einfacher im stark umkämpften IT-Arbeitsmarkt gut qualifizierte MitarbeiterInnen zu gewinnen. Die Aufgaben bleiben jedoch die gleichen, weshalb Alternativlösungen gefragt sind.

  • IT-Sicherheit & Disaster Recovery
    Um den Betrieb und die Sicherheit einer Organisation zu gewährleisten, müssen mehrere Datensicherungen aufbewahrt werden. Um gegen Naturkatastrophen abgesichert zu sein, bedarf es mindestens zwei Datenkopien an entfernten Standorten. Als Best Practice u.a. gegen Ransomware Angriffe gilt die 3-2-1-1-0 Regel, welche drei Kopien vorschreibt, von denen mindestens eine unveränderlich ist. Zu den eigentlich gespeicherten Daten kommen somit viele Sicherungen und Kopien hinzu, was mit steigendem Datenwachstum keine erfreulichen Aussichten sind.

Die Lösung: wie Sie Ihre Speicherinfrastruktur fit für die Zukunft gestalten

Die Basis: Unabhängigkeit & Sicherheit

Auch wenn die Speicherinfrastruktur für drei Jahre geplant ist, die zugrundeliegenden Konzepte müssen langfristig ausgerichtet sein.

 

IT-Verantwortliche müssen sich zunächst bewusst machen, was die Abhängigkeit eines bestimmten Herstellers, bestimmter Hardware oder proprietärer APIs bedeutet.

 

Die Speicherkosten pro Gigabyte können noch so verlockend sein: Wenn der Wechsel des Systems durch einen Vendor Lock In nicht möglich ist, entstehen auf lange Sicht hohe Kosten und Aufwände. Das kann beispielsweise bei Hardware-gebundenen Systemen mit proprietären APIs der Fall sein. Es kann aber auch in der Cloud passieren, wenn die Public und Private Cloud beim gleichen Anbieter bezogen werden.

 

Auch die Sicherheit der Systeme muss von Beginn an gegeben sein, was beispielsweise durch Zugriffsbeschränkungen, Verschlüsselung und Unveränderlichkeit der Daten umsetzbar ist.

 

Software-basierte Speichersysteme helfen bei der Überwindung von Abhängigkeiten und schaffen Flexibilität. Sie basieren auf günstiger Standardhardware, welche einfach ausgetauscht werden kann und vereinfachen Datenmigrationen. Auch bei Kosten und Aufwand können sie klare Stärken ausspielen, dazu unten aber mehr Details.

Das Gerüst: Scale-out

Scale-out Storage bewahrt Unternehmen davor, dass Systeme einfach „volllaufen“ und ist die Antwort auf das branchenübergreifende Datenwachstum.

 

Bei diesen horizontal skalierbaren Systemen wird die Gesamtleistung von einer Vielzahl an Speicher-Server-Knoten (Cluster) erbracht. Diese wirken nach außen als ein Gesamtsystem und ermöglichen eine beliebige Erweiterung von Kapazität und Performance.

 

Wichtig ist dabei aber auch, dass Organisationen klein starten können, denn nicht jedes Unternehmen bewegt sich von Beginn an im dreistelligen Terabyte oder Petabyte Bereich.

Das Rückgrat: Einfachheit und Management

Steigende Datenmengen + steigende Anforderungen = mehr Aufwand und Komplexität?

 

Für eine zukunftsfähige Infrastruktur muss die Rechnung anders aussehen. Denn gerade mit steigenden Anforderungen und Datenmengen müssen IT-Verantwortliche darauf achten, dass ihre Infrastruktur überschaubar und Aufwände gering sind.

 

Dabei hilft zum einen die Zentralisierung von Speicherlösungen. Wieso sollten Backup-Daten, Forschungsdaten und Archivdaten auf unterschiedlichen Systemen abgelegt werden? Diese Systeme müssen wiederum betreut, upgedated und gesichert werden. Durch Konsolidierung mehrerer Anwendungsfälle in einer Speicherplattform können IT-Abteilungen die Komplexität und ihren Arbeitsaufwand reduzieren.

 

Ein weiterer Baustein ist die Auslagerung von Routineaufgaben. Wieso muss sich die IT-Abteilung mit vielen verschiedenen Systemen auseinandersetzen, immer auf dem neuesten Stand bleiben, Administrationsaufgaben durchführen sowie Updates und Sicherheitspatches installieren? Diese Zeit kann besser genutzt werden, um die IT weiter zu modernisieren und das Business zu unterstützen.

 

Mit einem Managed Services Konzept übernimmt der Hersteller oder ein Dienstleister den Großteil der Aufgaben, sodass im Optimalfall die Systeme einfach laufen und damit keine Berührungspunkte bestehen. Das erhöht nebenbei die Sicherheit und spart Ressourcen und Nerven.

Das Betriebsmodell: Agilität und Flexibilität

Die Public Cloud hat der IT-Welt im letzten Jahrzehnt einen Schub gegeben und ist nicht mehr wegzudenken. Doch ein kompletter Umstieg auf die Public Cloud ist schwer zu vollziehen und nur selten sinnvoll. Daher sind Hybrid-Lösungen und as-a-service Angebote ein gefragter Ansatz.

 

Organisationen müssen nicht zwischen Public Cloud und On-Premises, zwischen Schwarz und Weiß, entscheiden. Sie können die Vorteile der Public Cloud – Skalierbarkeit, Agilität, Flexibilität – ins eigene Rechenzentrum übertragen und sie mit den Mehrwerten von On-Premises – Datenhoheit, Kontrolle, Performance – verbinden.

 

Möglich ist das durch software-basierte Architekturen, welche die Speicherhardware und Softwareintelligenz trennen. Dadurch können IT-Verantwortliche kostengünstige Standardhardware einsetzen und diese zu einem flexibel erweiterbaren Scale-Out Cluster verbinden.

 

Auch die Beschaffungs- und Bezahlweise der Public Cloud kann auf dieses Modell übertragen werden. Mit Lösungen wie beispielsweise HPE GreenLake kann die Speicherinfrastruktur und vieles mehr in einem „as-a-service“ und „pay-per-use“ Modell bezogen werden. Dadurch können Unternehmen die Lücke zwischen Planung und Realität schließen und agil auf Veränderungen reagieren.

Die Rechnung: geht auf – mit Blick auf die Gesamtkosten

Schön und gut, doch was kostet das dann?

 

Beim Thema Planungs- und Zukunftssicherheit sind die Kosten natürlich ein, wenn nicht der entscheidende Faktor. Wenn die Datenhaltung langfristig ausgelegt sein soll, müssen die Kosten transparent und gering sein.

 

Dabei sind nicht nur die reinen Speicherkosten ausschlaggebend, wie oben schon bemerkt. Bei der Speicherplanung müssen immer die Gesamtkosten im Fokus stehen. Dabei spielen zum Beispiel auch die Aufwände für Administration und Wissensaufbau und die technologische Entwicklung eine wichtige Rolle.

 

Die Analysten der Enterprise Strategy Group (ESG) haben die Gesamtkosten im Bereich der Langzeitspeicherung für die führenden Public Cloud Speicher mit einer software-basierten On-Premises Lösung verglichen. Dabei wurde ein Fünf-Jahres-Zeitraum für einen Petabyte Speicherplatz betrachtet.

 

Das Ergebnis: Die Cloud ist 53% teurer als die Lösung im eigenen Rechenzentrum und verursacht 61% mehr Zeitaufwand. Die ganzheitliche und langfristige Betrachtung der Gesamtkosten spart Geld und Zeit – und garantiert, dass die Rechnung und Planung am Ende aufgehen.

 

Hier finden Sie den kompletten Gesamtkostenvergleich zum Download.

Und wie geht das in der Praxis?

Der Weg zu mehr Planungssicherheit bei Ihrer Speicherinfrastruktur muss kein Marathon und Hürdenlauf sein. Zentral ist, dass die Infrastruktur unabhängig, skalierbar, einfach und flexibel aufgebaut ist und die Gesamtkosten betrachtet.

 

Möchten Sie erfahren, wie Sie diese Best Practices in der Praxis umsetzen können? 

 

Dann lernen Sie die Speicherplattform iCAS FS kennen und vereinbaren Sie einen persönlichen Beratungstermin, um die Herausforderungen und Lösungsansätze zu besprechen.

Jetzt Beratungstermin vereinbaren
Insights, News & Events | Bleiben Sie auf dem Laufenden!
Zum Newsletter anmelden