Serverloses Computing in der Google Cloud


Databricks kündigt die allgemeine Verfügbarkeit von Serverless Compute für Notebooks, Workflows und Delta Live Tables an
Serverless Compute ist derzeit für schnelle Starts, Skalierung und Leistung optimiert. Benutzer werden bald in der Lage sein, auch andere Ziele wie niedrigere Kosten anzugeben


Databricks hat die allgemeine Verfügbarkeit von Serverless Compute für Notebooks, Jobs und Delta Live Tables (DLT) auf AWS und Azure angekündigt. Unternehmen schreiben den Code und sind nun in der Lage, Workloads schnell zu starten, die Skalierung der Infrastruktur zu automatisieren und nahtlose Versions-Upgrades der Databricks Runtime durchzuführen. Mit Serverless bekommen Kunden nur die geleistete Rechenarbeit berechnet im Gegensatz zu der Zeit für die Beschaffung und Initialisierung von Instanzen bei Cloud-Anbietern.

Die Konfiguration und Verwaltung von Datenverarbeitungssystemen wie Spark-Clustern war lange Zeit eine Herausforderung für Data Engineers und Data Scientists. Die Zeit, die für die Konfiguration und Verwaltung von Rechenleistung aufgewendet wird, ist Zeit, die nicht für die Wertschöpfung des Unternehmens genutzt wird. Die Auswahl des richtigen Instanztyps und der richtigen Größe ist zeitaufwändig und erfordert Experimente, um die optimale Wahl für eine bestimmte Arbeitslast zu treffen. Das Herausfinden von Cluster-Richtlinien, automatischer Skalierung und Spark-Konfigurationen verkompliziert diese Aufgabe zusätzlich und erfordert darüber hinaus Fachwissen. Sobald die Cluster eingerichtet und in Betrieb sind, muss noch Zeit für die Wartung und Abstimmung der Leistung und die Aktualisierung der Databricks Runtime-Versionen aufgewendet werden. Nur dann können Unternehmen auch von den neuen Funktionen profitieren.

Zeit, die nicht mit der Verarbeitung von Arbeitslasten verbracht wird, für die Unternehmen aber trotzdem zahlen - ist ein weiteres kostspieliges Ergebnis der Verwaltung einer eigenen Recheninfrastruktur. Während der Initialisierung und Skalierung von Rechenkapazitäten müssen Instanzen hochgefahren werden, Software, einschließlich Databricks Runtime, muss installiert werden. Unternehmen bezahlen den Cloud-Anbieter für diese Zeit. Und wenn ein Unternehmen zu viele Instanzen oder Instanztypen mit zu viel Arbeitsspeicher, CPU usw. einsetzt, wird die Rechenkapazität nicht voll ausgelastet, und dennoch zahlen sie für die gesamte bereitgestellte Rechenkapazität. Die Beobachtung dieser Kosten und Komplexität bei Millionen von Workloads war der Anlass, die Serverless Compute Innovationen zu entwickeln. (Databricks: ra)

eingetragen: 22.08.24
Newsletterlauf: 10.10.24


Sie wollen mehr erfahren?
Mit Serverless Compute entfällt die Komplexität der Delegierung von Berechtigungen über komplexe Cloud-Richtlinien und Cloud-Rollen hinweg, um den Lebenszyklus von Instanzen zu verwalten.

Databricks: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Applikationen / Lösungen

  • Souveräne Daten- und KI-Plattform

    Cloudera gab ihre Launch-Partnerschaft für die neue Amazon Web Services (AWS) European Sovereign Cloud bekannt. Mit einer eigens für die "AWS European Sovereign Cloud" entwickelten, robusten und souveränen Daten- und KI-Plattform bietet Cloudera eine umfassende Lösung. Diese ist auf ein Höchstmaß an Datenkontrolle, Governance und regulatorische Compliance ausgerichtet.

  • "SailPoint Identity Security Cloud"

    SailPoint kündigte eine Reihe von leistungsstarken Erweiterungen an, die die Bandbreite und Tiefe der "SailPoint Identity Security Cloud" weiter ausbauen. Dazu gehören neue Funktionen für SailPoint Non-Employee Risk Management und Machine Identity Security sowie Deep Connectivity-Updates. Im Mittelpunkt der Erweiterungen steht die "SailPoint Identity Security Cloud", die alle Arten von Identitäten in Unternehmen abdeckt - Mitarbeiter, Nicht-Mitarbeiter, Maschinen und Agenten - und präzise Lifecycle-Kontrollen mit intelligenter Automatisierung kombiniert, um kritische Lücken zu schließen. So entsteht eine adaptive Identität, die sich mit den Unternehmensanforderungen weiterentwickelt.

  • Betrieb intelligenter KI-Agenten

    Kyndryl hat die "Aviation Industry Cloud Solution" vorgestellt. Die Lösung nutzt KI-Agenten, um Fluggesellschaften beim Modernisieren ihrer Systeme, bei der Datenanalyse und beim Ausbau des digitalen Kundenerlebnisses zu unterstützen. Sie basiert auf der Google Cloud und vereint Kyndryls umfassende Branchenexpertise mit leistungsstarken Analyse- und Sicherheitsfunktionen.

  • Führungskräfte wollen KI in die Praxis bringen

    Unternehmen setzen zunehmend auf Echtzeit-Prognosen, um Entscheidungen intelligenter und schneller treffen zu können. "Qlik Predict" wurde entwickelt, um diese Prozesse noch zuverlässiger und effizienter zu gestalten, denn sie erlaubt Fachabteilungen einen direkten Zugang zu No-Code-Vorhersagemodellen.

  • Produktivitätsplus für IT-Teams

    ManageEngine launcht ein Update für die Cloud-Version ihrer Unified Service Management-Plattform "ServiceDesk Plus" auf Basis von generativer KI. Die KI-Strategie von ManageEngine für ServiceDesk Plus fokussiert sich darauf, Kunden die Flexibilität zu bieten, den KI-Anbieter ihrer Wahl für verschiedene KI-Funktionen zu nutzen. Kunden können ZIA LLM ohne zusätzliche nutzungsabhängige Kosten verwenden oder zwischen öffentlich zugänglichen KI-Anbietern wie ChatGPT und Azure OpenAI wählen.

  • OVHcloud als vertrauenswürdige Plattform

    Nutanix, Spezialistin für Hybrid Multicloud Computing, und der europäische Hyperscaler OVHcloud haben die Verfügbarkeit des Angebots "Nutanix Cloud Clusters" (NC2) auf OVHcloud bekanntgegeben. Dieser Meilenstein ist Ausdruck der vertieften Zusammenarbeit der beiden Partner und gibt Unternehmen Lösungen an die Hand, mit deren Hilfe sie nachhaltige hybride und Multicloud-Bereitstellungen implementieren und das Ziel europäischer Datensouveränität verfolgen können.

  • Mehr GPU-Optionen in die Cloud bringen

    Leaseweb, Anbieterin von Cloud-Diensten und Infrastructure as a Service (IaaS), bietet ab sofort "Nvidia L4 GPUs" in ihrer Public Cloud-Plattform. Mit Erweiterung der KI-fähigen Infrastruktur über dedizierte Server hinaus steht Kunden die beschleunigte Leistung durch NVIDIA GPUs erstmals auch in der souveränen Cloud von Leaseweb zur Verfügung. Die NVIDIA L4 ist eine vielseitige GPU, mit der Unternehmen die Verarbeitung von Workloads wie KI-Inferenz, maschinelles Lernen, Videowiedergabe, Grafik und virtuelle Desktop-Infrastruktur (VDI) beschleunigen können.

  • Volle Flexibilität ohne Zusatzkosten

    Ionos integriert SUSE Linux Enterprise Server (SLES) im "Bring-Your-Own-Subscription"-Modell auf die Cloud-Plattform. Das neue SLES-Image bietet einen flexiblen und kosteneffizienten Zugang zu bewährter Open-Source-Technologie, die optimal in den bestehenden Stack von Ionos integriert ist.

  • Cloud-Umgebungen sichern

    Check Point Software Technologies hat den nächsten Meilenstein in ihrer strategischen Partnerschaft mit Wiz bekannt gegeben: die weltweite Einführung einer vollständig integrierten Lösung, welche die präventive Cloud-Netzwerksicherheit von Check Point mit der Cloud-Native Application Protection Platform (CNAPP) von Wiz vereint. Aufbauend auf der im Februar 2025 bekannt gegebenen Partnerschaft wird die Integration in dieser Phase allgemein verfügbar gemacht und hilft Unternehmen, die Herausforderungen moderner Cloud-Sicherheit mit Transparenz, Präzision und KI-gestützter Prävention zu bewältigen.

  • Souverän in der Cloud

    Adfinis, IT-Dienstleisterin für Open-Source-Lösungen, und das deutsche Confidential-Computing-Unternehmen enclaive geben ihre neue Partnerschaft bekannt. Die Kooperation kombiniert moderne Verschlüsselungstechnologien mit einem durchgängigen IT-Lifecycle-Ansatz und stärkt die Sicherheit und Souveränität in Cloud-Umgebungen.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen