Sie sind hier: Startseite » Markt » Hintergrund

Das SDDC bietet mehr Flexibilität


In fünf Schritten zum Software Defined Data Center
Mit dem Software Defined Data Center das bieten, was im Rahmen des Cloud Computing eigentlich unmöglich ist

(21.05.14) - Das Software Defined Data Center (SDDC) liegt im Trend. Mehr und mehr Unternehmen denken darüber nach, ihr klassisches Rechenzentrum zu einem SDDC auszubauen. Nexinto zeigt die fünf wichtigsten Schritte auf dem Weg dorthin. Herkömmliche Cloud Computing-Angebote sind standardisiert und für viele Unternehmen daher ausreichend an die jeweiligen Anforderungen anpassbar. Das SDDC bietet hier mehr Flexibilität. Es kann individuelle Anforderungen abdecken und ist durch Virtualisierung doch soweit standardisiert, dass sich für die Nutzer deutliche Vorteile bei den Kosten und der Flexibilität der Inanspruchnahme ergeben. Mit dem SDDC-Konzept lassen sich die Ressourcen eines externen Rechenzentrums schnell und einfach nutzen.

In einem Software Defined Data Center (SDDC) sind alle Server-, Storage- und Netzwerk-Ressourcen über eine Software-Schicht virtualisiert. Von den individuellen Anforderungen an IT-Services für die Bereitstellung und Verwaltung von Ressourcen wird dabei über ein intelligentes Software-Management abstrahiert.

Das sind die fünf Schritte, die Anwender zum SDDC führen:

1.
Am Anfang steht – wie immer – ein Gespräch mit dem Consulting des Providers zur Aufnahme der Anforderungen für IT-Services, Policies, Abrechnung und Lifecycle-Management, also alles was für den Betrieb einer Lösung nötig ist und was dann auch in die SLA- und in die Kostenkalkulation eingeht.

2. Der SDDC-Provider stellt die benötigten Ressourcen über einen logischen Software-Layer bereit: Dieser abstrahiert die IT-Services von der Technik; er nimmt zum Beispiel Informationen über die benötigten CPU-Kerne und RAM-Kapazitäten, Storage-Volumen und Netzwerk-Adressen auf und leitet sie über APIs an die darunter liegende Infrastruktur weiter.

3. Nach Bereitstellung der virtualisierten Ressourcen wird über eine Automatisierungs- und Orchestrierungs-Engine die Installation des abgestimmten Betriebssystems sowie weiterer grundlegender Softwarekomponenten über das Netzwerk vorgenommen.

4. Anschließend übernimmt das Software-Management die Installation von Applikationen und Standard-Diensten für den jeweiligen IT-Service. Dazu werden die individuellen Anforderungen in logische Funktionalitäten umgesetzt, die mittels API jederzeit abgerufen werden können. Anstatt für jeden Kunden eine eigene Infrastruktur zu definieren und zu implementieren, werden die Definitionen in den Software-Layer verlagert und sind damit für künftige Anforderungen als Templates wiederverwendbar.

5. Innerhalb des Life-Cycle-Managements erfolgen Änderungen an den Hard- oder Softwarekomponenten für diese IT-Services nur noch über das zentrale Software-Management. Werden IT-Services außer Betrieb genommen, so werden die betreffenden Infrastruktur-Ressourcen ebenfalls über das zentrale Software-Management wieder freigegeben und stehen für eine erneute Verwendung bereit.

In diesem Prozess werden nicht nur die Ressourcen der Infrastruktur verteilt, sondern auch die sonstigen Funktionen, die man zum Betrieb benötigt, also Performance-, Kapazitäts- und Availability-Management. Ziel ist ein ganzheitliches Lifecycle-Management der Services und aller beteiligten Ressourcen. Damit lassen sich dann beispielsweise auch Engpässe oder Überlastungen rechtzeitig erkennen.

Die durch das SDDC-Konzept erreichte Automatisierung der Konfiguration der Infrastruktur sorgt für hohe Effizienz und niedrige Kosten. Vor allem aber lassen sich die Ressourcen auf diese Weise in sehr kurzer Zeit bereitstellen: Von den Anforderungen eines neuen Services bis zur Bereitstellung in der virtuellen Umgebung dauert es oft nur wenige Minuten.

"Mit dem Software Defined Data Center können wir etwas bieten, das im Rahmen des Cloud Computing eigentlich unmöglich ist: die individuelle Konfiguration standardisierter Ressourcen", erklärt Diethelm Siebuhr, CEO der Nexinto Holding in Hamburg. "Das schließt eine Lücke, die zuletzt ein starkes Hindernis für das Cloud Computing darstellte, etwa wenn es darum ging, bestimmte Orte für die Speicherung von Daten vorzuschreiben. Im Rahmen des SDDC lassen sich solche Anforderungen problemlos realisieren." (Nexinto: ra)

Nexinto: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>


Meldungen: Hintergrund

  • Datenschutzstrategien für hybride IT

    Eine von Arcserve beauftragte unabhängige Befragung unter IT-Führungskräften ergab, dass 80 Prozent schon einmal von Ransomware betroffen waren. Während 82 Prozent der Betroffenen angaben, dass sie den Schaden innerhalb von 48 Stunden beheben konnten, war dazu knapp ein Fünftel nicht in der Lage. Problematisch ist auch, dass bis zu 30 Prozent der Daten bei einem erfolgreichen Ransomware-Angriff nicht wiederhergestellt werden konnten.

  • Cloud-basierte Monetarisierung löst Probleme

    Mit ihrer jahrzehntelangen Erfahrung im Management wiederkehrender Kundenbeziehungen sind Telekommunikationsunternehmen (Telcos) attraktive Partner in der Abonnement-Wirtschaft. Ihr großer Kundenstamm, der sich durch historisch niedrige Abwanderungsraten auszeichnet, bietet eine solide Grundlage, um vom wachsenden Abonnementmarkt zu profitieren.

  • Fokus auf Datenschutz & Compliance

    IT-Ausgaben in der Finanzbranche werden 2025 auf über 58 Milliarden USD steigen, während Technologien wie generative Künstliche Intelligenz (GenAI) Arbeitsabläufe, Datenmanagement und Kundeninteraktionen revolutionieren. Gleichzeitig wird der sich vollziehende Generationswechsel bei den Anlegern endgültig ein neues Level an Digitalisierung fordern. Fünf zentrale Trends werden diesen Wandel prägen: die Optimierung von Kundenerlebnissen, die Einführung modularer Architekturen, datengetriebene Innovationen, die Konvergenz von Branchen und ein verstärkter Fokus auf Datenschutz und Compliance.

  • Optimierung der Cloud-Kosten oberste Priorität

    Das Jahr 2024 war das "Jahr der generativen KI", was zu einer raschen Ausweitung der Datenerzeugung, -verwaltung und -konsolidierung führte. Dieser Anstieg zeigt keine Anzeichen einer Verlangsamung. Darüber hinaus kam es 2024 zu den ersten großen Angriffen auf die Lieferkette auf globaler Ebene, angeführt von CrowdStrike, die Unternehmen dazu zwangen, die Cybersicherheit auf allen Ebenen zu überdenken.

  • Hybrid-Cloud als ausgewogenere Lösung

    Durch den rasanten technologischen Wandel sind datengesteuerte Initiativen in modernen Geschäftsstrategien wichtiger denn je. Im Jahr 2025 stehen die Unternehmen jedoch vor neuen Herausforderungen, die ihre Datenstrategien, ihre Bereitschaft für Künstliche Intelligenz (KI) und ihr allgemeines Vertrauen in Daten auf die Probe stellen werden. Insgesamt ist die Bereitschaft für KI in internationalen Unternehmen sehr gering (17 Prozent).

  • Hybride Ansätze statt Cloud Only

    Wie sieht die Perspektive für das Dokumentenmanagement im Jahr 2025 aus? Die Zukunft ist digital, so viel ist sicher. Mit der E-Rechnungspflicht, künstlicher Intelligenz und Cloud-Technologien stehen grundlegende Veränderungen bevor. Der DMS-Experte easy software AG hat die relevantesten Branchentrends zusammengefasst.

  • Migration in die Cloud

    Die Versicherungsbranche befindet sich in einem rasanten Wandel. Fadata, Anbieterin von Softwarelösungen für die Versicherungsbranche, wirft einen Blick auf das Jahr 2025 und beleuchtet die wichtigsten Entwicklungen und Trends in den Bereichen Versicherung und digitale Transformation. Die wichtigsten Trends, die laut Fadata die Zukunft der Versicherung prägen werden, sind Internalisierung, Prävention, Cloud-Migration, Embedded Insurance, Ökosystem-Entwicklung und Talent-Transformation. Diese sechs Trends treiben transformative Veränderungen in der gesamten Branche voran, wobei die Versicherer innovative Ansätze verfolgen, um Kundenbedürfnisse, betriebliche Effizienz, Sicherheit, Risiken und Marktanforderungen zu adressieren. Versicherer werden im Jahr 2025 ihre wichtigsten Abläufe zunehmend internalisieren. Sie wollen ihre Abläufe straffen, Kosten senken und die Datensicherheit erhöhen. All dies kann durch die verbesserte Steuerung der Prozesse erreicht werden, die eine Internalisierung ermöglicht.

  • NIS2 wird Bewusstsein für CPS-Sicherheit stärken

    Und wieder liegt ein herausforderndes Jahr hinter uns. Die geopolitische Lage insbesondere in der Ukraine und im Nahen Osten ist weiterhin angespannt, während die innenpolitische Situation in den zwei stärksten Volkswirtschaften Europas derzeit ungewiss erscheint. All dies hat auch Auswirkungen auf die Cybersecurity. Schon längst sollten wir dabei nicht nur an IT-Sicherheit denken, sondern auch an IoT und Betriebstechnik (OT), also an cyber-physische Systeme (CPS).

  • Generative KI mit bemerkenswerten Fortschritte

    Generative Künstliche Intelligenz (generative KI) hat in den letzten Jahren bemerkenswerte Fortschritte erzielt. Dies ist auch auf die steigende Zahl von Entwicklern zurückzuführen, die über ein immer umfangreicheres Know-how verfügen. Doch eine Frage brennt Unternehmen wie Investoren unter den Nägeln: Wann lässt sich mithilfe von KI die betriebliche Effizienz auf das nächste Level heben?

  • Datendschungel: Herausforderung & Chance

    Das Jahr 2024 markierte einen Wendepunkt für die generative KI. Chat GPT und andere Akteure haben sich zu einigen der am schnellsten wachsenden Plattformen der letzten Zeit entwickelt. Doch inmitten dieser aufregenden KI-Revolution wird ein entscheidender Aspekt oft übersehen: das Datenmanagement. Ein starkes und durchdachtes Datenmanagement könnte der Schlüssel sein, um das volle Potenzial von KI-Lösungen zu entfalten.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen