Sie sind hier: Startseite » Markt » Studien

Virtualisierung und Cloud Computing


Cloud Computing verändert die IT und die Ausliefermethode entsprechender IT-Dienste fundamental
Diskrepanz zwischen Zielen und Ergebnissen bei der Einführung von Cloud- und Virtualisierungs-Projekten auf

(24.06.11) - Wie gehen Unternehmen vor, wenn sie geschäftskritische Anwendungen und Systeme virtualisieren und in die Cloud verlagern wollen? Diesen Weg in die Cloud beleuchtet der aktuelle Symantec-Report "Virtualization and Evolution to the Cloud". Der Bericht untersucht dazu, wie Server-, Client- und Storage-Virtualisierung, Storage-as-a-Service (StaaS) sowie Hybrid- und Private-Cloud-Technologien geplant und implementiert werden. Ein Ergebnis: Die Ziele von Virtualisierungs- und Cloud Computing-Projekten in Unternehmen und die tatsächlichen Ergebnisse liegen oft weit voneinander entfernt.

Cloud Computing verändert die IT und die Ausliefermethode entsprechender IT-Dienste fundamental. Die Virtualisierung wiederum schafft eine wichtige technische Grundlage für diese privaten und öffentlichen Cloud Computing-Angebote. Symantec hat rund 3.700 Unternehmen weltweit befragt, wie sie planen, diese Technologien einzuführen und was sie durch eine Implementieurng bereits erreicht haben. In Deutschland standen 200 Unternehmen hierzu Rede und Antwort.

Im Bereich Server-Virtualisierung verfügen die befragten Unternehmen weltweit über die meiste Erfahrung – dieses Verfahren wird bereits von 45 Prozent eingesetzt. Zudem denken 75 Prozent der befragten Firmen über die Einführung von Private- und Hybrid-Cloud Technologien nach. Von allen untersuchten Technologien werden Storage-as-a-Service-Angebote von den Firmen mit 36 Prozent noch am wenigsten angenommen.

Die Unternehmen wurden im Detail befragt, welche Ziele sie mit ihren jeweiligen Cloud- und Virtualisierungsprojekten bei Servern, Speichersystemen und Endpunkten verfolgen. Zeitgleich wurden alljene Firmen, die ein solches Projekt bereits realisiert haben, zu den Zielen befragt, die sie bereits erreicht haben.

Projekte bei Server-Virtualisierung waren die erfolgreichsten, mit einer Lücke von durchschnittlich 4 Prozent zwischen Ziel und Ergebnis. Diese Lücken taten sich bei Skalierbarkeit sowie reduzierten Betriebs- und Investitionskosten auf.

Bei der Virtualisierung von Speicher weichen die Ergebnisse und Ziele um 33 Prozent voneinander ab. Enttäuscht waren die Befragten vor allem in puncto Agilität, Skalierbarkeit und Verringerung der Opex-Kosten.

Bei der Endpoint- und Desktop-Virtualisierung liegen Ziele und Ergebnisse um 26 Prozent auseinander, in Deutschland haben immerhin 33 Prozent der Firmen ihre Projekttziele erreicht. Unternehmen sind vor allem unzufrieden mit dem Endpoint Deployment sowie mit der Bereitstellung und der Kompatibilität von Anwendungen.

77 Prozent der Unternehmen denken über den Einsatz eines eigenen Storage-as-a-Service nach. Allerdings sehen sie hier große Herausforderungen bei der Umsetzung. So haben beispielsweise 84 Prozent der Befragten mit solch einem Dienst die Komplexität in ihrer Umgebung senken wollen, aber nur 37 Prozent der Befragten haben dieses Ziel auch erreicht. In Deutschland lag die Abweichung sogar bei 46 Prozent.

Insgesamt zeigen sich deutliche Abstände zwischen den Zielen und den tatsächlichen Ergebnissen der Projekte auf. Dies lässt darauf schließen, dass Unternehmen noch lernen, wie sie die Probleme der neuen Technologien aus dem Weg räumen können und wozu diese Konzepte tatsächlich fähig sind.

Geschäftskritische Applikationen im Fokus
Der Bericht zeigt ebenfalls, dass Unternehmen geschäftskritische Applikationen bereits erfolgreich virtualisiert haben und diese Technologie auch als Ausgangspunkt für weitere Projekte nutzen: 59 Prozent der Firmen weltweit, die schon Erfahrung in dem Bereich gesammelt haben, planen in den nächsten zwölf Monaten eine Virtualisierung ihrer Datenbanken. 55 Prozent haben vor, Web-Anwendungen und weitere 47 Prozent E-Mail- und Kalender-Funktionen zu virtualisieren.

Bei Hybrid- und Private-Cloud-Lösungen zeigen sich Firmen noch zurückhaltend. Im Durchschnitt verlagern nur etwa 33 Prozent (in Deutschland 25 Prozent) der Unternehmen geschäftskritische Applikationen wie Buchhaltungs-, ERP- und CRM-Systeme in die (private) Wolke. Die meisten Bedenken haben die Befragten im Bezug auf Compliance. Zudem fürchten sie, dass sie die Funktionsweise ihrer Sicherheitskonzepte nicht mehr belegen können und es Kompatibilitätsprobleme bei den Anwendungen gibt. Ein großer Teil (59 Prozent) hat außerdem Bedenken, dass ihre Zugänge, ihre Dienste und ihr Datenverkehr missbraucht werden könnten.

Service-Qualität als größte Hürde
Als größte Herausforderung bei Virtualisierungs- und Cloud-Projekten nennen die Befragten Kosten, Sicherheit, Performance und Verlässlichkeit.

Kosten: Mehr als 56 Prozent aller Befragten, die ihre Server bereits virtualisiert haben, gaben zu, dass ihre Kosten für Speicher leicht bis erheblich angestiegen sind. Firmen, die Projekte für die Speichervirtualisierung planen, wollen daher vor allem die Betriebskosten reduzieren, die Speicher-Effizienz verbessern und durch solch ein Projekt besser auf Ausfälle vorbereitet sein.

Sicherheit: 76 Prozent der Unternehmen weltweit und 85 Prozent der deutschen Unternehmen, die bereits auf Server-Virtualisierung setzen, konstatierten, Sicherheitsbedenken seien ein wichtiger Grund dafür, dass sie bisher keine geschäftskritischen Applikationen virtualisieren.
Performance: Bedenken bezüglich der Leistung sind ein weiterer Faktor, der verschiedene Unternehmensvertreter (global 76 Prozent beziehungsweise 79 Prozent in Deutschland) davon abhält, geschäftskritische Prozesse auszulagern.

Zuverlässigkeit war bei den meisten Firmen (78 Prozent weltweit, 81 Prozent in Deutschland) der Hauptgrund, sich gegen eine Virtualisierung von geschäftskritischen Applikationen zu entscheiden.

In der Praxis zeigt sich, dass vor allem Führungskräfte auf C-Level gegenüber Cloud und Virtualisierungsprojekten Bedenken äußern. Am stärksten sind ihre Ressentiments gegenüber den neuen Technologien bei Zuverlässigkeit (78 Prozent), Sicherheit (76 Prozent) und Leistung (76 Prozent). Einige dieser Positionen lassen sich durch Argumente der IT-Abteilung entkräften. So erreichten beispielsweise zwischen 78 und 85 Prozent der Unternehmen, die bereits Server-Virtualisierung einsetzen, die vorgegebenen Ziele in puncto Leistung.

Eine weitere Erkenntnis der Studie: Technische IT-Verantwortliche sollten schon im Vorfeld von Virtualisierungs- und Cloud-Projekten ihre CIOs und CFOs einbeziehen, um die Erwartungen abzugleichen, so dass die Umsetzung so reibungslos wie möglich von statten gehen kann.

Über die Studie
Der Report "Virtualization and Evolution to the Cloud" wurde im April 2011 von Applied Research im Auftrag von Symantec erstellt. Befragt wurden IT-Experten sowie Führungskräfte auf C-Level von kleinen, mittelständischen und großen Unternehmen, in deren Verantwortungsbereich Computer, Netzwerke und technologische Ressourcen liegen. Die Studie untersuchte, wie Unternehmen geschäftskritische Prozesse virtualisieren und in Hybrid-Clouds verlagern. Für die Befragung sprach Applied Research mit 3700 Teilnehmern aus 35 Ländern in Nordamerika, EMEA (Europa, Mittlerer Osten und Afrika) sowie im asiatisch-pazifischen Raum und Lateinamerika. In Deutschland nahmen 200 Befragte teil. (Symantec: ra)

Symantec: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Studien

  • IT-Service-Unternehmen

    Die konjunkturelle Entwicklung schlägt sich im Geschäftsjahr 2024 auf die Umsätze der in Deutschland tätigen IT-Dienstleister nieder. Während die Anbieter im Jahr 2023 dem Rückgang der Wirtschaftsleistung noch trotzen konnten, legte ihr Umsatz im Jahr 2024 lediglich um durchschnittlich 2,6 Prozent zu (2023: 9,4 Prozent). Die angespannte wirtschaftliche Lage sowie geopolitische Unsicherheiten zwangen viele Anwenderunternehmen, ihre Investitionen in digitale Technologien zu priorisieren oder gar zu verschieben. Aufgrund der Hoffnung auf eine geopolitische Entspannung, eine anziehende Konjunktur, unter anderem aufgrund des Sondervermögens der neuen Bundesregierung, sowie enormer Nachholeffekte bei der digitalen Transformation rechnen IT-Dienstleister für 2025 und 2026 wieder mit höheren Wachstumsraten.

  • Fehlende Datenstandards als Engpass

    Trotz des enormen Potenzials von Artificial Intelligence (AI) im Gesundheitswesen befinden sich viele Einrichtungen noch in der Anfangsphase der Umsetzung. Eine aktuelle internationale Studie von SS&C Blue Prism zeigt: 94 Prozent der befragten Organisationen betrachten AI zwar als strategisch wichtig - doch mangelnde Datenqualität und fragmentierte Dateninfrastrukturen behindern den effektiven Einsatz.

  • Netzwerksichtbarkeit gewinnt weiter an Bedeutung

    63 Prozent der deutschen Sicherheits- und IT-Entscheider berichten, dass sie im Laufe der vergangenen zwölf Monate Opfer mindestens eines Cyber-Angriffs geworden sind - ein Anstieg von 6,7 Prozent im Vergleich zum Vorjahr. Dies ergab die diesjährige Hybrid-Cloud-Security-Studie 2025 von Gigamon. Zum dritten Mal in Folge hat der führende Deep-Observability-Experte weltweit mehr als 1.000 Sicherheits- und IT-Experten befragt. Demnach ist dieser Anstieg vor allem auf die weitverbreitete Nutzung von KI durch Cyberangreifer zurückzuführen. Zudem beeinflusst die Technologie Sicherheit und Management von hybriden Cloud-Infrastrukturen.

  • Grundlage moderner KI-Anwendungen

    Confluent hat die Ergebnisse ihres vierten jährlichen Data Streaming Reports veröffentlicht. Für die Studie wurden 4.175 IT-Führungskräfte in zwölf Ländern befragt, darunter 325 aus Deutschland. Die Ergebnisse zeigen, dass Daten-Streaming-Plattformen (DSP) nicht mehr optional, sondern entscheidend für den Erfolg von Künstlicher Intelligenz (KI) und die umfassende digitale Transformation von deutschen Unternehmen sind. Eine deutliche Mehrheit der IT-Entscheider (81?Prozent) ist überzeugt, dass DSP die Einführung von KI erleichtern, da sie zentrale Herausforderungen wie Datenzugriff, -qualität und -Governance direkt adressieren.

  • KI erobert den Mittelstand

    Künstliche Intelligenz (KI) ist im Alltag kleiner und mittelständischer Unternehmen (KMU) angekommen. Bereits jede dritte Firma (32 Prozent) setzt auf die zukunftsweisende Technologie - das ergab eine aktuelle YouGov-Studie* im Auftrag von Ionos. Der Anteil KI-nutzender Unternehmen ist innerhalb eines Jahres um 11 Prozentpunkte gestiegen. Weitere 40 Prozent wollen KI einsetzen, wenn sie günstig oder kostenlos verfügbar ist. Der Paradigmenwechsel ist in vollem Gange - KI ist nicht länger nur ein Thema für Konzerne.

  • Viele nutzen KI, aber nur wenige bezahlen dafür

    In Deutschland dominieren aktuell bei Künstlicher Intelligenz die kostenlosen Angebote. Gerade einmal zehn Prozent derjenigen Bundesbürgerinnen und Bundesbürger, die generative KI einsetzen, bezahlen dafür: Acht Prozent nutzen aktuell kostenpflichtige KI-Dienste, zwei Prozent haben das in der Vergangenheit getan, jetzt aber nicht mehr.

  • Vertrauen als kritischer Faktor

    Cloudera, die hybride Plattform für Daten, Analysen und KI, hat die Ergebnisse ihrer jüngsten Studie "The Future of Enterprise AI Agents" veröffentlicht. Im Rahmen der Umfrage wurden im Januar und Februar 2025 fast 1.500 IT-Führungskräfte in Unternehmen in 14 Ländern, unter anderem Deutschland, befragt, um ihre Nutzungsgewohnheiten, Use Cases und Meinungen zu KI-Agenten (AI Agents) zu verstehen.

  • Compliance als größte Herausforderung

    Fivetran, Anbieterin für Data Movement, präsentiert eine neue Studie über den Einsatz von KI in Unternehmen. Die von Redpoint Content durchgeführte Umfrage zeigt, dass fast die Hälfte der Unternehmen von verzögerten, unzureichenden oder gescheiterten KI-Projekten berichten - und das trotz ehrgeiziger Strategien und großer Investitionen in KI und Datenzentralisierung.

  • SaaS bleibt die bevorzugte Wahl

    Das BCI hat den Emergency and Crisis Communications Report 2025, gesponsert von F24, veröffentlicht. Bereits im 11. Jahr analysiert dieser Bericht, wie sich die Krisenkommunikation in den vergangenen zwölf Monaten entwickelt hat, welche Kommunikationsmethoden bevorzugt werden und welche Auswirkungen neue Technologien auf den Sektor haben.

  • GenAI-Technologien im Finanzsektor

    NTT Data hat eine neue Studie veröffentlicht, die den Einsatz von generativer KI (GenAI) im globalen Bankensektor untersucht. Der Bericht mit dem Titel "Intelligent Banking in the Age of AI" zeigt, dass Banken und Finanzinstitute trotz der zunehmenden Verbreitung von GenAI-Technologien im Finanzsektor geteilter Meinung sind, wenn es um ergebnisorientierte Strategien geht. Nur die Hälfte der Banken (50 Prozent) sieht darin ein Instrument zur Steigerung von Produktivität und Effizienz. Ebenfalls die Hälfte (49 Prozent) glaubt, dass GenAI zur Senkung der operativen IT-Ausgaben eingesetzt werden kann.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen