- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

So gelingt der Umzug in die Cloud


Vor dem Umzug in die Cloud müssen Unternehmen ihre Hausaufgaben erledigen - und ihr Data Warehouse fit für die neue Umgebung machen
Um herauszufinden, wann der Umzug in die Cloud sinnvoll ist, bietet sich das Konzept "Time to Value", kurz TTV an


- Anzeigen -





Von Mark Budzinski, CEO von WhereScape

Geblendet von den zahlreichen Vorteilen, wollen viele Unternehmen zumindest Teile ihrer IT in die Cloud migrieren. Der Wunsch dies so schnell wie möglich zu tun ist verständlich, aber in den meisten Fällen völlig unrealistisch. Entscheidungsträger sollten neben den offensichtlichen Vorteilen auch die Zeit in Betracht ziehen, die nötig ist diese zu erreichen. Hierbei kann das Konzept Time To Value (TTV) helfen den richtigen Zeitpunkt für den Umzug zu ermitteln.

Die Vorteile Cloud Computing-Technologien zu nutzen sind mittlerweile gut dokumentiert. Einer der wichtigsten ist die mit ihr verbundene Flexibilität, die es erlaubt nur für die Leistung zu bezahlen, die auch gebraucht wird. Die Entscheidung pro Cloud scheint somit auf der Hand zu liegen. Doch der Teufel steckt bekanntlich im Detail und trotz des Willens vieler Organisationen, mehr auf die Cloud zu setzen, ist ein Umzug über Nacht einfach nicht möglich sondern muss von langer Hand geplant sein.

Der erste Schritt: Die hybride Cloud als Zwischenschritt akzeptieren
Bereits der Umzug einzelner Teile der Infrastruktur in die Cloud kann schwierig sein. Die Kombination aus im Unternehmen vorhandenen Fähigkeiten, bereits getätigten Investitionen und eingefahrenen Prozessen bedeutet oft, dass ein Umstieg auf die Cloud über Nacht nicht möglich ist, und in einigen Fällen ist eine vollständige Migration in die Cloud nicht realistisch, praktisch oder sogar von Teilen der Organisation unerwünscht ist. Der erste Schritt erfolgreich in die Cloud zu wechseln ist also, zu akzeptieren, dass der Umstieg auf eine Cloud-basierte Umgebung nicht auf einen Schlag möglich ist, sondern schrittweise geschehen muss. Dies bedeutet logischerweise, dass Organisationen auf dem Weg in die Cloud kurz-, mittel- oder sogar langfristig erst einmal in einer hybriden Umgebung arbeiten müssen.

Den Time to Value möglichst gering halten
Um herauszufinden, wann der Umzug in die Cloud sinnvoll ist, bietet sich das Konzept "Time to Value", kurz TTV an, das beschreibt wie lange es dauert bis eine Änderung am System den gewünschten Nutzen bringt. Das Konzept wird verwendet, um Entscheidungsträgern zu helfen, den vorgeschlagenen Nutzen einer Investition in Zeit oder Geld zu bewerten. Um so schnell wie möglich Nutzen aus in die Cloud migrierten Prozessen erzielen zu können, sollte der TTV also so kurz wie möglich sein. Eine zentrale Frage bei der Planung eines Umzugs ist also: wie kann der TTV möglichst gering gehalten werden?

Der zweite Schritt: Das Data Warehouse fit für die Cloud machen
Der Schlüssel um den TTV zu verkürzen liegt in der Anpassung von Unternehmensprozessen und der gleichzeitigen Umsetzung von Best Practices des agilen Data Warehousing, geeignet für hybride Cloudumgebungen. Best Practices in diesem Zusammenhang bedeutet, dass die Automatisierung der Entwicklungs- und DevOps-Aspekte des Data Warehouse vor der Nutzung der Cloud gelöst werden müssen. Geschieht dies nicht, muss die IT, bei einem vorschnellen Umzug in die Cloud, die regelmäßig nötige, mühsame und zeitaufwändige manuelle Anpassung der Software übernehmen. Sie muss also buchstäblich Code schreiben, um sicherzustellen, dass ihre Systeme mit der verwendeten Cloud Computing-Plattform zusammenarbeiten. Dies übersteigt im Allgemeinen die Fähigkeiten vieler IT-Teams nicht nur fachlich, sondern auch zeitlich. Die Lösung dieser Vorbedingung des Cloudumzugs ist die Nutzung einer Automatisierungslösung für das Data Warehouse.

Mit einer Data Warehouse-Automatisierungssoftware kann ein Unternehmen seine limitieren Entwicklungsressourcen maximieren, indem die Zeit für Design, Entwicklung, Bereitstellung und Betrieb des Data Warehouse reduziert wird. Das spart entweder direkt Kosten oder schafft Ressourcen, die anderweitig besser genutzt werden können.

Selbstredend muss eine brauchbare Data Warehouse-Automatisierungssoftware mit Cloud-nativen Plattformen wie Amazon Redshift, Azure SQL Data Warehouse oder Snowflake arbeiten können. Und da, wie anfangs beschrieben, die hybride Cloud für eine gewisse Zeit und in einigen Fällen für immer die Norm sein wird, ist es von entscheidender Bedeutung, über eine Software zu verfügen, die diese hybriden Umgebungen nahtlos verwalten und wie ein einziges logisches Data Warehouse behandeln kann.

Schneller in die Cloud – mit dem richtigen Unterbau
Mit einer solchen Lösung lässt sich das Data-Warehouse-Ökosystem effektiver verwalten und man kann den Umzug in die Cloud besser steuern um ihn letzten Endes mit geringem TTV zum Erfolg zu führen.

Unternehmen, die die Vorteile der Cloud nutzen möchten, müssen verstehen, dass hybride Cloudmodelle auf absehbare Zeit ein notwendiger Zwischenschritt auf dem Weg in die Cloud ist. Ebenso müssen sie vor dem Umzug ihre Hausaufgaben machen und ihr Data Warehouse fit für die neue Umgebung zu machen. Hierbei hilft in vielen Fällen eine zusätzliche Lösung zur Automatisierung der Prozesse des Data Warehouse um den höheren Entwicklungsaufwand in der Cloudumgebung abzufedern. Sind diese Vorbedingungen erfüllt, steht auch einem schnellen Umzug in die Cloud nichts mehr im Weg.

Time to Value (TtV) ist ein Geschäftsbegriff, der die Zeitspanne zwischen der Anforderung eines bestimmten Wertes und der ersten Lieferung des angeforderten Wertes beschreibt. Ein Wert ist ein wünschenswertes Unternehmensziel; er kann ein quantifizierbarer (materieller) oder abstrakter (immaterieller) Wert sein.

Time to Value (TTV) ist ähnlich wie Return on Investment (ROI), aber anstatt den finanziellen Erfolg einer Investition zu realisieren, bedeutet es, die Effektivität einer Investition zu erreichen. Dies gilt vor allem für zusätzliche Technologien - Rechenzentrumshardware, Netzwerkinfrastruktur, Systemsicherheit usw., wodurch die versprochene Verbesserung messbar wird. Es kann sogar argumentiert werden, dass in Fällen wie der Datensicherheit TTV wichtiger ist als der ROI, da die Sicherheit nur im Banken- und Handelsbereich finanzielle Vorteile hat, aber in jeder Branche einen Wert - den Schutz persönlicher und/oder geschäftlicher Daten – hat.

Über Mark Budzinski
Mark Budzinski ist seit 2016 CEO bei WhereScape, dem führenden Anbieter von Automatisierungssoftware für den Aufbau und die Verwaltung von Data Warehouses und großer Dateninfrastruktur. Er kennt die Herausforderungen, mit denen IT Organisationen konfrontiert sind und ihren Wunsch einer agilen und schnellen Entwicklung von Data Warehouses und verwandten datengesteuerten Projekten aus erster Hand. Er hielt Führungspositionen bei Intel, Sequent Computer Systems, RadiSys und Applied Mircosystems inne. Budzinski absolvierte den MBA an der University of Oregon, seinen Master Abschluss in Computer Science an der University of Southern California, seinen Bachelor in Industrial Engineering der Lehigh University, Pennsylvania und ist Absolvent der Buckley School of Public Speaking, Süd Kalifornien.
(WhereScape: ra)

eingetragen: 28.11.18
Newsletterlauf: 20.12.18

WhereScape: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • DevOps werden zunehmend datengetrieben

    DevOps haben sich in der Software-Entwicklung in den vergangenen Jahren immer weiter durchgesetzt. Die effizientere und effektivere Zusammenarbeit von Entwicklung und IT-Betrieb bringt allen Beteiligten zahlreiche Vorteile: So steigt nicht nur die Qualität der Software, sondern auch die Geschwindigkeit, mit der neue Lösungen entwickelt und ausgeliefert werden. In 2019 haben wir gesehen, dass Automatisierung, künstliche Intelligenz und AIOps immer häufiger eingesetzt und von der DevOps-Gemeinschaft erforscht werden. Container und Functions as a Service nahmen weiter zu, so dass Entwickler und Betriebsteams ihre Anwendungen und Infrastruktur besser kontrollieren konnten, ohne die Geschwindigkeit zu beeinträchtigen. Doch wohin geht die Reise jetzt?

  • Cloud Computing-Daten schützen

    Mit wachsenden digitalen Geschäftsanforderungen investieren Unternehmen massiv in die Erweiterung ihrer Netzwerkverbindungsfähigkeiten, um sicherzustellen, dass ihre Daten den richtigen Personen zur richtigen Zeit zur Verfügung stehen. Insbesondere für Cloud-basierte, hochgradig vernetzte und agile Geschäftsmodelle ist die Gewährleistung eines ordnungsgemäßen Zugriffs auf Daten und Systeme unerlässlich. Zusammen mit der Konnektivität in immer komplexeren Infrastrukturen wachsen auch die Anforderungen an Netzwerk- und Datensicherheit. Wenn nicht die richtigen Schutzvorkehrungen getroffen werden, können Bedrohungen, die von Datenlecks und Fehlkonfigurationen bis hin zu Risiken durch Insider reichen, in jedem komplexen Cloud- und Netzwerkökosystem ihr Schadenspotenzial entfalten.

  • Durchsetzung von Cloud-Sicherheitsrichtlinien

    Cloud Computing-Services bieten Unternehmen heute eine kostengünstige und flexible Alternative zu teurer, lokal implementierter Hardware. Vorteile wie hohe Skalierbarkeit, Leistung und Effizienz sowie reduzierte Kosten liegen auf der Hand, sodass immer mehr Unternehmen ihre Anwendungen und Daten in die Cloud migrieren. Sensible Daten wie personenbezogene Informationen, Geschäftsgeheimnisse oder geistiges Eigentum sind jedoch neuen Risiken ausgesetzt. Denn in der Cloud gespeicherte Daten liegen außerhalb der Reichweite vieler lokaler Sicherheitsvorkehrungen. Unternehmen müssen deshalb zusätzliche Maßnahmen ergreifen, um ihre Daten in der Cloud, über den teils rudimentären Schutz der Anbieter hinaus, gegen Cyberangriffe und Datenlecks abzusichern. Allgemein sind Public-Cloud-Provider für die physische Sicherheit, globale und regionale Konnektivität sowie die Stromversorgung und Kühlung ihrer eigenen Rechenzentren zuständig. Dies ermöglicht Unternehmen eine flexible Skalierbarkeit und entlastet sie davon, eine eigene Infrastruktur wie ein Rechenzentrum oder Server-Hardware bereitzustellen. Zugleich liegt es in der Verantwortung der Unternehmen, all ihre in die Cloud migrierten Daten und Anwendung selbst auf gewünschte Weise zu schützen.

  • Redundante SaaS-Anwendungen ermittetteln

    Die Software-as-a-Service (SaaS)-Landschaft wächst und wächst. Wer bis jetzt noch nicht auf Wolken geht, plant in absehbarer Zeit himmelwärts zu wandern. Für den IT-Betrieb bringt die Cloud bei allen Vorteilen jedoch auch Herausforderungen mit. Das gilt insbesondere bei der Verwaltung von SaaS-Ausgaben. Auf den ersten Blick steht die Inventarisierung und Konsolidierung von SaaS mit Recht ganz unten auf der Prioritätenliste von IT-Abteilung. Bei den unzähligen täglichen Aufgaben und den Herausforderungen im Zuge der digitalen Transformation, wird das "Ausmisten" im IT-Haushalt gerne auf die lange Bank geschoben. Das kann sich auf lange Sicht jedoch zu einem kostspieligen Fehler auswachsen, denn die Ausgaben für die Cloud (22 Prozent) liegen mittlerweile nur noch knapp hinter den Ausgaben für On-Premise (23 Prozent). Dazu gehört auch Software-as-a-Service (SaaS), Infrastructure-as-a-Service (IaaS) und Platform-as-a-Service (PaaS). Über 80 Prozent der befragten Unternehmen planen die Ausgaben für SaaS und IaaS/PaaS im nächsten Jahr weiter zu erhöhen.

  • CLOUD Act auch für europäische Cloud-Provider?

    Nahezu zeitgleich mit der DSGVO ist der US-amerikanische CLOUD Act in Kraft getreten. In der Praxis geraten damit zwei Rechtsauffassungen unvereinbar miteinander in Konflikt. Nicht nur für Cloud-Anbieter, sondern auch für Unternehmen, die Cloud Computing-Anwendungen nutzen, könnte dies rechtliche Schwierigkeiten mit sich bringen. Anliegen des "Clarifying Lawful Overseas Use of Data" (CLOUD) Act ist es, die US-amerikanische Strafverfolgung zu erleichtern, indem der Zugriff auf im Ausland gespeicherte Kommunikationsdaten von Verdächtigen vereinfacht wird. Was bislang im Rahmen von Rechtshilfeabkommen zwischen den Regierungsbehörden verschiedener Länder im Laufe mehrerer Monate abgewickelt wurde, soll nun schneller möglich sein.

  • Cloud-Repatriation eine Realität

    Unternehmen nutzen vermehrt die Hybrid Cloud um Daten und Anwendungen in alle Umgebungen verschieben zu können. Dies macht das Zurückholen von Daten und Anwendungen ins eigene Rechenzentrum offiziell zu einem Trend. Noch vor wenigen Jahren glaubten wir, dass die Public Cloud die Zukunft der IT ist und früher oder später, physische Rechenzentren ersetzen würde. Tatsächlich ist der Trend Daten und Workloads in Public Clouds zu migrieren seit langem ungebrochen stark und es ist kein Ende dieser Entwicklung auszumachen. Doch trotz dieses generell anhaltenden Trends in Richtung Public Cloud ist Cloud-Repatriation, also die entgegengesetzte Entscheidung, Daten und Workloads zurück nach Hause ins eigene Rechenzentrum zu holen, in letzter Zeit zur Realität geworden. Was treibt diese Entwicklung an?

  • So hilft die KI bei der Datenanalyse

    Die Elektromobilität wird dazu führen, dass Fahrzeuge und Infrastrukturen riesige Datenströme generieren. In dieser Daten-Goldgrube verstecken sich viele Hinweise darauf, wie Unternehmen ihre Angebote und Produkte verbessern, aber auch die Kundenzufriedenheit steigern können. Wer den Datenschatz heben möchte, benötigt eine übergreifende Datenplattform und KI-Lösungen mit Maschine Learning-Komponenten. In den Medien generiert das Thema Elektromobilität derzeit interessante Schlagzeilen. Daimler kündigte an, ab 2021 mit der Produktion von autonom fahrenden Taxis zu starten. Auch Volkswagen steht unter Strom, denn die Wolfsburger wollen in den kommenden zehn Jahren 70 neue vollelektrische Elektrofahrzeuge entwickeln. Dazu meldet nun auch Lidl, dass der Lebensmitteldiscounter auf seinen Parkplätzen künftig Ladestationen für Elektrofahrzeuge installieren wird, wie es schon andere Handelsketten, beispielsweise Aldi, Rewe und Ikea, vormachen. Und im nächsten James Bond-Film wird der Superagent vermutlich mit einem Elektrofahrzeug von Aston Martin auf Gangsterjagd gehen.

  • Funktionierende DevOps-Kultur zu etablieren

    DevOps mit grundlegender IT-Modernisierung verbinden: Weitreichende Veränderungen wie die digitale Transformation oder neue Regularien wie die DSGVO wurden von vielen Unternehmen zum Anlass genommen, die eigene IT-Architektur von Grund auf zu überdenken. Die Ziele dabei waren und sind im Prinzip immer eine flexiblere IT, die schnell auf sich ändernde Umstände reagieren kann - eine der Kernkompetenzen von DevOps. Es ist also überaus sinnvoll, DevOps als eine der zentralen Säulen der neuen IT zu etablieren und sich dadurch kürzere Softwareentwicklungs- und Bereitstellungszyklen zu sichern.

  • Cloud-Big Data-Projekte: Exponentielles Wachstum

    Für IT-Verantwortliche wird es immer wichtiger, mit der Cloud den Einsatz innovativer Technologien zu unterstützen. Cloud Cpmputing-Services für Machine Learning, Künstliche Intelligenz, Blockchain oder Serverless Computing sind heute mit wenigen Mausklicks abrufbar. Damit beschleunigt sich die Umsetzung neuer Geschäftsmodelle ebenso wie die Produktentwicklung. Warum ein organisationsweites Datenmanagement für den Cloud-Erfolg wichtig ist, zeigt der folgende Beitrag. In der Studie "Multi-Cloud in deutschen Unternehmen" berichten die Analysten von IDC, dass 68 Prozent der Unternehmen bereits Cloud Computing-Services und -Technologien für mehrere Workloads verwenden.

  • Multiple Clouds nicht gleich Multi-Cloud

    Multi-Cloud ist derzeit einer der heißesten Trends für Unternehmen. Die Verwendung mehrerer Clouds gleichzeitig, kann viele Vorteile bieten. Richtig eingesetzt kann man mit der richtigen Kombination von Clouds unter anderem die Kosten für Infrastruktur senken, die Präsenz von Daten und Workloads in verschiedenen Regionen verbessern oder die Herstellerbindung an Cloud Computing-Anbieter vermeiden. Unternehmen, die den Ansatz Multi-Cloud hingegen falsch verstanden haben, kann dieses Missverständnis viel Geld kosten. Denn eine fehlgeleitete Multi-Cloud-Strategie hat das Potenzial, Anwendungen, Teams und Budgets unnötig aufzusplitten.