Sie sind hier: Startseite » Fachartikel » Grundlagen

Cloud-Repatriation eine Realität


Cloud-Repatriation - Warum migrieren Unternehmen aus der Public Cloud zurück?
Das lokale Rechenzentrum hat sich zu einer Cloud-fähigen Infrastruktur entwickelt


Von Guntram Alffen, Avi Networks

Unternehmen nutzen vermehrt die Hybrid Cloud um Daten und Anwendungen in alle Umgebungen verschieben zu können. Dies macht das Zurückholen von Daten und Anwendungen ins eigene Rechenzentrum offiziell zu einem Trend. Noch vor wenigen Jahren glaubten wir, dass die Public Cloud die Zukunft der IT ist und früher oder später, physische Rechenzentren ersetzen würde. Tatsächlich ist der Trend Daten und Workloads in Public Clouds zu migrieren seit langem ungebrochen stark und es ist kein Ende dieser Entwicklung auszumachen. Doch trotz dieses generell anhaltenden Trends in Richtung Public Cloud ist Cloud-Repatriation, also die entgegengesetzte Entscheidung, Daten und Workloads zurück nach Hause ins eigene Rechenzentrum zu holen, in letzter Zeit zur Realität geworden. Was treibt diese Entwicklung an?

Die Grundvoraussetzung dieser Entwicklung ist die vermehrte Nutzung der Hybrid Cloud. Für viele Unternehmen, ist sie bereits der Standard und hat so die Sichtweise der Cloud Computing-Nutzung an sich dramatisch verändert: Von einem Paradigma, dass die Public Cloud der beste Ort für alles ist, hin zu einer Strategie, Anwendungen dort zu platzieren, wo sie tatsächlich am besten passen. Und wer dank einer Hybrid Cloud die Wahl hat, kann dann von Fall zu Fall entscheiden. Aber was verursacht den Trend zur Cloud-Repatriation von Workloads und Daten aus Public Clouds in Private Clouds im Detail? Tatsächlich gibt es eine ziemlich überzeugende Liste von Faktoren.

1. Das lokale Rechenzentrum hat sich zu einer Cloud-fähigen Infrastruktur entwickelt.
Voraussetzung für den Trend ist die Verfügbarkeit von Cloud-fähigen Technologien außerhalb der Public Cloud. Diese Technologien hatten ihren Ursprung in der Public Cloud, werden jedoch mittlerweile auch im Rechenzentrum eingesetzt. Mit ihnen begannen Unternehmen hybride Clouds und Infrastruktur in ihrem Rechenzentrum zu nutzen, die "Cloud-ready" ist. So haben diese Unternehmen generell die Wahl, wo sie ihre Daten und Workloads platzieren möchten. Public-Cloud-Anbieter lösten diese Entwicklung einst durch den Aufbau von softwaredefinierten oder automatisierten IT-Services aus, indem sie eine sehr attraktive Schnittstelle für Entwickler schafften.

Diese großen softwaredefinierten Fortschritte sind seitdem nicht mehr nur in der Public Cloud zu finden, sondern im gesamten IT-Spektrum: in Private Clouds, am Rande der Infrastruktur (Edge Computing), im Distributed Core oder sogar als SaaS oder Managed Services. Und da die Cloud keine Infrastruktur-, sondern eine Applikationsstrategie ist, haben Unternehmen begonnen, Cloud-fähige Technologien auf vielen Ebenen ihrer Rechenzentren einzusetzen, um die Cloud zu Hause zu emulieren. Die Einführung von Azure Stack und Amazon Outpost scheint zu bestätigen, dass die Nachfrage nach Public Cloud-Technologien im Rechenzentrum steigt. Das Rechenzentrum hat die Public Cloud technologisch eingeholt, inklusive konsumbasierter Geschäftsmodelle, Elastizität durch softwaredefinierte Speicherung und agile Entwicklung mit Containern.

2. Data Gravity
Data Gravity ist ein weiterer Faktor, der sich vor allem auf die Datenspeicherung vor Ort und die damit verbundenen Kosten und Verwaltung auswirkt. Anwendungen und Daten werden voneinander angezogen, je mehr Daten es gibt, desto größer ist die gegenseitige Anziehungskraft von Anwendungen und Diensten, die mit diesen Daten verknüpft werden können. Es gibt eine lange Liste von Faktoren, die das Phänomen Data Gravity beeinflussen können, insbesondere jedoch zwei Faktoren: Netzwerkbandbreite und Netzwerklatenz.

Man kann dies auch im Hinblick auf die Netzwerkeffekte weiter gefasst betrachten: Eine große Menge von Daten zieht tendenziell immer mehr Dienste an, die diese Daten nutzen. Daten gehorchen den Regeln der Physik, genauso wie Masse. Diese Realität muss bei der Planung von IoT oder anderen Systemen, die mit großen Datenmengen arbeiten, berücksichtigt werden. Auch die Dichte von Speicherlaufwerken wächst exponentiell, aber die Übertragung von Daten in die Cloud wird immer schwieriger, da die Kapazität der übertragenden Kabel nicht genauso exponentiell wächst.

Es ist schwer zu verallgemeinern, wie viele Daten zu viel sind, um sie noch sinnvoll zu bewegen. Die Kosten für Speicherung und Übertragung von Daten sind komplex und hängen von vielen Faktoren ab. Das Senden von 2 PB über Netzwerkverbindungen in die Public Cloud, scheint bereits heute sehr teuer. Die Kosten für 5PB in einem Jahr zu übertragen werden wohl noch unerschwinglicher und 10 bis 15 PB in zwei Jahren wird wohl jeden finanziell sinnvollen Rahmen sprengen. Selbst mit Glasfasernetzwerken würde es Jahre dauern, große Datensätze an einen anderen Ort zu migrieren. Dies führt dazu, dass Unternehmen begonnen haben ihre Daten mit Edge Computing dort zu verarbeiten, wo sie entstehen, weil sie einfach nicht mehr bewegt werden können.

3. Kontrolle, Sicherheit und Compliance
Ein weiterer Hauptgrund für Unternehmen, bestimmte Arten von Daten und Workloads aus der Public Cloud zu holen, ist Sicherheit. Zu Beginn des Trends zur Migration in die Public Cloud herrschte das Missverständnis vor, dass Daten in der Public Cloud zu 100 Prozent geschützt und sicher sind. In Wirklichkeit sind die Daten von Unternehmen in der Public Cloud stark gefährdet, wenn diese nicht die richtigen Sicherheits- und Datenschutzlösungen einsetzen.

Unternehmen verstehen heute mehr darüber, was die Public Cloud bietet und was ihr fehlt. Die Rückführung von Daten und Workloads in das Unternehmen kann eine bessere Transparenz darüber bieten, was genau passiert, und die Kontrolle über Sicherheit und Compliance ermöglichen. GDPR zum Beispiel hat Organisationen einen Grund gegeben, ihre Daten als Maß für die Datenhoheit in der Nähe und unter ihrer Kontrolle zu speichern.

4. Kosten
Einer der ersten Gründe, für die Übertragung von Daten in die Public Cloud, war eine bessere Kosteneffizienz, insbesondere bei großen Datenmengen für Backup und Archivierung. Da jedoch immer mehr Cloud-fähige Technologien im Rechenzentrum verfügbar sind, hat sich die Kluft zwischen beiden verringert, was wiederum die Kostenvorteile der Public Cloud reduziert. In einigen Anwendungsfällen sind Lösungen im Rechenzentrum für die meisten Workloads heute bereits kostengünstiger als die Public Cloud.

Fazit
Die hybride Cloud gibt Unternehmen die Möglichkeit, ihre Daten und Workloads dort zu platzieren, wo sie am besten passen - auch in ihren eigenen Rechenzentren. Diese Möglichkeit, gepaart mit steigenden Problemen über aktuelle Ausfälle, hohe Kosten, Latenzprobleme und Fragen zu Kontrolle, Sicherheit und Compliance, führt zu einem neuen Trend der Repatriation von Workloads und Daten, aus Public Clouds in Private Clouds. Ein weiterer großer Treiber hierfür, ist das zunehmende Problem der Data Gravity, das die Übertragung großer Datenmengen in Zukunft, aufgrund der steigenden Kosten für Netzwerkübertragung, verhindern wird.

Vor allem aber sind Unternehmen, auf der Suche nach Flexibilität bei der Einrichtung von Lösungen und Services, die so flexibel sind, dass sie mit ihrem Unternehmen wachsen können. Diese Unternehmen, werden sich ungern auf eine der beiden Seiten festlegen wollen. Wenn Unternehmen die beste IT-Infrastruktur für ihre Workloads bewerten, wird eine hybride IT, mit einem Mix aus Public Cloud, Private Cloud und lokalen Lösungen, wohl zur Normalität werden. Da "Cloud-ready"-Anwendungen über hybride Cloud-Umgebungen verteilt sind, werden IT-Teams zukünftig Technologien, wie ein Service Mesh einsetzen müssen, das Anwendungen mit den benötigten Diensten verbindet, wo auch immer sie sich befinden.
(Avi Networks: ra)

eingetragen: 24.05.19
Newsletterlauf: 01.07.19

Avi Networks: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • Herausforderung: Cloud Bursting

    Als Technik zur Anwendungsbereitstellung ermöglicht Cloud Bursting die Vereinigung des Besten aus beiden Welten. Auf der einen Seite ermöglicht es den Betrieb einer Anwendung in einem privaten Rechenzentrum, mit bekannten, festen Investitionskosten, vollständiger Kontrolle über die Umgebungen und organisatorischem Fachwissen für deren Betrieb. Auf der anderen Seite wird sie in einer öffentlichen Cloud genutzt, die auf Abruf verfügbar ist und über nahezu unbegrenzte Ressourcen verfügt.

  • SASE-Transformation in drei Schritten

    Der KPMG Global Tech Report 2022 bestätigt, was viele IT-Experten bereits in ihrer täglichen Praxis beobachten: Der Einsatz von Cloud-Anwendungen ist nicht länger das Kennzeichen von digitalen Vorreitern und Marktführern, sondern schlicht die logische Weiterentwicklung digitaler Technologien.

  • Datensicherheit in Microsoft 365

    Während Microsoft 365 Unternehmen eine hervorragende Skalierbarkeit und Redundanz bietet, um Störungen durch Naturereignisse und mechanische Ausfälle Störungen zu vermeiden, ist das Hosten von Daten in der Cloud mit gewissen Risiken verbunden. Anwenderverursachte absichtliche oder versehentliche Datenverluste sind nach wie vor ein Problem für Unternehmen.

  • Die Krux mit dem Outsourcing

    Rund 850.000 Stellen sind laut Statista in Deutschland unbesetzt. Der akute Personalmangel, aber auch ein zu schnelles Wachstum oder Kosteneinsparungen sind Gründe, warum Unternehmen einzelne Bereiche outsourcen. Den Kundenservice externen Experten zu überlassen, hilft dabei, sich auf die eigenen Kernkompetenzen zu konzentrieren oder das gewünschte Service-Level zu erreichen. Vor allem wenn die Kundenanzahl steigt, aber die nötigen Mitarbeiter nicht schnell genug eingestellt werden können.

  • Es muss nicht immer Cloud sein

    Seit Jahren dreht sich in der IT alles um "die Cloud". Wobei es die eine Cloud eigentlich gar nicht gibt. Von Private über Hybrid und Multi bis zur Public Cloud ist heute so gut wie jede Infrastruktur Cloud-fähig - inklusive physischer Server. Analog nutzen die meisten Unternehmen heute in der Praxis eine Kombination aus zahlreichen verschiedenen Infrastrukturen, die alle ihre eigenen Vor- und Nachteile haben.

  • Fehlkonfiguration von Cloud-Ressourcen

    Kaum hat sich CASB als Abkürzung für Cloud Access Security Broker im Markt durchgesetzt, klopft schon die nächste Sicherheitslösung an: Cloud Security Posture Management oder kurz CSPM. Der von Gartner-Analysten geprägte Name steht für einen neuen Sicherheitsansatz, um der hohen Dynamik von Cloud-Infrastrukturen und ihrer immer komplexeren, zeitaufwändigeren Administration gerecht zu werden.

  • Multi-Cloud handhaben

    Die Nutzung der Cloud hat in den letzten Jahren rasant zugenommen, vor allem mit der Gewöhnung an die Fernarbeit müssen die Unternehmen nun in der Lage sein, ihre externen Mitarbeiter zu unterstützen und ihnen wichtige Dienste anzubieten.

  • Vertrauen gut: Cloud-verwaltete Kontrolle besser

    Die viel zitierte Weissagung, wonach das Leben die Zuspätkommenden bestrafe, scheint auch in der IT-Netzwerk-Sicherheit ihre Wahrheit zu finden. Viele Unternehmen sahen sich mit Beginn der Pandemie gezwungen, von Büroarbeit auf Homeoffice umzustellen - oft mit lückenhafter Sicherheit die IT-Infrastruktur betreffend. Ein Fest für Hacker! Nun ist Fernarbeit nicht wirklich etwas Neues; neu war seinerzeit allerdings die Geschwindigkeit, die der bereits angelaufene Trend zum mobilen Arbeiten zwangsläufig aufgenommen hatte. So manche IT-Abteilung war in puncto IT-Security ziemlich überfordert, da eiligst ein zufriedenstellendes Sicherheitsniveau zu gewährleisten war.

  • Mehrwert einer Service-Cloud

    Sprichwörter wie "Der Kunde ist König" oder "Der Kunde hat immer Recht" prägen seit Jahren die Beziehung zwischen Kunden und Unternehmen. Ganz gleich, ob diese Aussagen noch zeitgemäß sind: zumindest wird daraus deutlich, welchen Stellenwert Kundenservice seit jeher genießt. Dabei haben sich die Anforderungen an guten Kundenservice im Laufe der Zeit geändert. Um auch heute noch den Herausforderungen gewachsen zu sein, empfiehlt sich die Implementierung einer SAP Service-Cloud. Dadurch können Unternehmen ihren Kunden nicht nur einen schnellen und personalisierten Service bieten, sondern auch ein einheitliches Serviceerlebnis über alle Kundenkanäle hinweg garantieren.

  • Umstieg auf Cloud-Services mit Vorteilen

    Die verstärkte Remote-Arbeit hat, neben weiteren Variablen, die Cloud-Adaption von Unternehmen stark beschleunigt. Für viele Organisationen ist eine verteilte Belegschaft mit Optionen wie Home-Office und Arbeiten von überall aus mittlerweile zu einem Teil der Unternehmenskultur geworden, der auch über die Pandemie hinaus Bestand haben wird. Dieser Wandel Richtung New Work erfordert jedoch eine Umstellung auf neue Richtlinien und Sicherheitstools, die für den modernen Remote-Arbeitsplatz geeignet sind. Endpoint-Protection-Services müssen, wenn sie es nicht schon sind, auf Cloud Services umgestellt werden, um den Schutz von Daten im gesamten Unternehmen zu gewährleisten. Aufgrund dieser Verlagerung sollten Sicherheitsverantwortliche auch die Richtlinien für Datensicherheit, Disaster Recovery und Backup überdenken, um sicherzustellen, dass sie für eine Remote-Umgebung noch angemessen sind. Dabei bietet der Umstieg auf Cloud Services erhebliche Vorteile im Vergleich zu On-Premises-Lösungen. Im Folgenden ein Überblick, wie Unternehmen durch den Weg in die Cloud von mehr Agilität, Skalierbarkeit, Kostenreduktion sowie einer verbesserten Sicherheitslage profitieren können.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen