Serverloses Computing in der Google Cloud


Databricks kündigt die allgemeine Verfügbarkeit von Serverless Compute für Notebooks, Workflows und Delta Live Tables an
Serverless Compute ist derzeit für schnelle Starts, Skalierung und Leistung optimiert. Benutzer werden bald in der Lage sein, auch andere Ziele wie niedrigere Kosten anzugeben


Databricks hat die allgemeine Verfügbarkeit von Serverless Compute für Notebooks, Jobs und Delta Live Tables (DLT) auf AWS und Azure angekündigt. Unternehmen schreiben den Code und sind nun in der Lage, Workloads schnell zu starten, die Skalierung der Infrastruktur zu automatisieren und nahtlose Versions-Upgrades der Databricks Runtime durchzuführen. Mit Serverless bekommen Kunden nur die geleistete Rechenarbeit berechnet im Gegensatz zu der Zeit für die Beschaffung und Initialisierung von Instanzen bei Cloud-Anbietern.

Die Konfiguration und Verwaltung von Datenverarbeitungssystemen wie Spark-Clustern war lange Zeit eine Herausforderung für Data Engineers und Data Scientists. Die Zeit, die für die Konfiguration und Verwaltung von Rechenleistung aufgewendet wird, ist Zeit, die nicht für die Wertschöpfung des Unternehmens genutzt wird. Die Auswahl des richtigen Instanztyps und der richtigen Größe ist zeitaufwändig und erfordert Experimente, um die optimale Wahl für eine bestimmte Arbeitslast zu treffen. Das Herausfinden von Cluster-Richtlinien, automatischer Skalierung und Spark-Konfigurationen verkompliziert diese Aufgabe zusätzlich und erfordert darüber hinaus Fachwissen. Sobald die Cluster eingerichtet und in Betrieb sind, muss noch Zeit für die Wartung und Abstimmung der Leistung und die Aktualisierung der Databricks Runtime-Versionen aufgewendet werden. Nur dann können Unternehmen auch von den neuen Funktionen profitieren.

Zeit, die nicht mit der Verarbeitung von Arbeitslasten verbracht wird, für die Unternehmen aber trotzdem zahlen - ist ein weiteres kostspieliges Ergebnis der Verwaltung einer eigenen Recheninfrastruktur. Während der Initialisierung und Skalierung von Rechenkapazitäten müssen Instanzen hochgefahren werden, Software, einschließlich Databricks Runtime, muss installiert werden. Unternehmen bezahlen den Cloud-Anbieter für diese Zeit. Und wenn ein Unternehmen zu viele Instanzen oder Instanztypen mit zu viel Arbeitsspeicher, CPU usw. einsetzt, wird die Rechenkapazität nicht voll ausgelastet, und dennoch zahlen sie für die gesamte bereitgestellte Rechenkapazität. Die Beobachtung dieser Kosten und Komplexität bei Millionen von Workloads war der Anlass, die Serverless Compute Innovationen zu entwickeln. (Databricks: ra)

eingetragen: 22.08.24
Newsletterlauf: 10.10.24


Sie wollen mehr erfahren?
Mit Serverless Compute entfällt die Komplexität der Delegierung von Berechtigungen über komplexe Cloud-Richtlinien und Cloud-Rollen hinweg, um den Lebenszyklus von Instanzen zu verwalten.

Databricks: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>



Meldungen: Applikationen / Lösungen

  • GenAI Model-as-a-Service

    Informatica, Unternehmen im Bereich KI-gestütztes Enterprise Cloud Data Management, gab die Verfügbarkeit von Generative AI Blueprints (GenAI) bekannt, die es Kunden ermöglichen, generative KI-Anwendungen auf Unternehmensebene schneller und einfacher auf sechs branchenführenden Technologieplattformen zu erstellen.

  • Risiken schnell zu reduzieren

    Qualys gab auf der "Qualys Security Conference" die Einführung eines Risk Operations Center (ROC) mit Enterprise TruRisk Management (ETM) bekannt. Die Lösung ermöglicht es CISOs und Geschäftsführern, Cybersecurity-Risiken in Echtzeit zu managen und fragmentierte, isolierte Daten in verwertbare Erkenntnisse umzuwandeln, die Cyber-Risiko-Operationen mit geschäftlichen Prioritäten in Einklang bringen.

  • Sichere, private Verbindung

    Cloudera bringt das "Cloudera Private Link Network" auf den Markt. Das Ziel: kritische Datensicherheits- und Datenschutzbedenken für stark regulierte Unternehmen mit strengen Datensicherheitsrichtlinien zu adressieren.

  • Übersichtliche Verwaltung, einfaches Monitoring

    Artec IT Solutions macht die Anbindung der Datenmanagement- und Archivierungslösung "EMA" an Microsoft 365 Exchange Online sowie an lokale Exchange-Infrastrukturen jetzt noch sicherer und benutzerfreundlicher.

  • Mehr Automatisierung mit der "Apex Cloud Platform"

    Dell Technologies erleichtert die Einführung und den Betrieb von hyperkonvergenten Infrastrukturen mit neuen "Dell Solutions for Microsoft Azure Stack HCI". Diese verbessern die Azure-Erfahrung On-Premises und bieten maximale Flexibilität und Effizienz.

  • DDI für das hybride Multi-Cloud-Zeitalter

    Infoblox, Anbieterin von Cloud-Networking und Sicherheitsdiensten, stellte ihre neue "Universal DDI Product Suite" vor. Sie ermöglicht ein einheitliches DDI-Management, umfassende Asset-Transparenz und proaktive Sicherheit, indem sie die Silos zwischen NetOps, CloudOps und SecOps aufbricht und gleichzeitig flexible, anpassungsfähige Bereitstellungsmodelle bietet. Infoblox ist das einzige Unternehmen, das IT- und Business-Entscheidungsträgern ein derart kohärentes DDI-Management zur Verfügung stellt.

  • Vertrauen in Künstliche Intelligenz

    Qlik kündigte neue Erweiterungen der "AutoML"-Funktionen an. Diese Updates erleichtern es Analyseteams, leistungsstarke Machine-Learning-Modelle zu erstellen und einzusetzen, und bieten native Analysen zur Erklärung von Vorhersagen in Echtzeit.

  • Gerätemanagement und Überwachung

    Mit der Verlagerung von KI-Workloads in Richtung Edge wird verbesserte Transparenz an entfernten Rechenzentrumsstandorten immer wichtiger. Mit "Vertiv Environet Connect" bietet Vertiv jetzt eine Cloud- und webbasierte Gerätemanagement- und Überwachungslösung an.

  • Zugang zu DBaaS

    Couchbase hat einige Erweiterungen für "Capella" veröffentlicht. Mit "Capella Columnar on AWS", "Couchbase Mobile" mit Vektorsuche und "Capella Free Tier" stehen Unternehmen zahlreiche neue Features zur Verfügung. Zudem erhalten Entwickler einfachen Zugang zu DBaaS (Database as a Service)-Kapazitäten.

  • "Rhel AI" als Erweiterung der Hybrid Cloud

    Red Hat gibt die allgemeine Verfügbarkeit von "Red Hat Enterprise Linux (Rhel) AI" in der Hybrid Cloud bekannt. Rhel AI ist die grundlegende Modellplattform von Red Hat, mit der Anwender generative KI-Modelle zur Unterstützung von Unternehmensanwendungen nahtlos entwickeln, testen und einsetzen können.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen