"Red Hat Enterprise Linux AI" ist für KI-Innovationen im Produktivbetrieb Rhel AI kombiniert offene, effizientere Modelle mit leicht zugänglichem Modell-Alignment und erweitert so die Möglichkeiten der KI-Innovation in der Hybrid Cloud
Red Hat gibt die allgemeine Verfügbarkeit von "Red Hat Enterprise Linux (Rhel) AI" in der Hybrid Cloud bekannt. Rhel AI ist die grundlegende Modellplattform von Red Hat, mit der Anwender generative KI-Modelle zur Unterstützung von Unternehmensanwendungen nahtlos entwickeln, testen und einsetzen können. Die Plattform kombiniert die Open-Source-lizenzierte Granite-Large-Language-Model (LLM)-Familie und die InstructLab-Modell-Alignment-Tools, die auf der Methode Large-scale Alignment for chatBots (LAB) basieren. Die Lösung ist als optimiertes, boot-fähiges Rhel-Image für die Bereitstellung einzelner Server in der Hybrid Cloud paketiert.
Die generative KI verspricht viele Vorteile, aber die damit verbundenen Kosten für die Beschaffung, das Training und die Feinabstimmung von LLMs können astronomisch sein. Bei einigen führenden Modellen können bis zur Markteinführung Kosten von fast 200 Millionen US-Dollar für das Training anfallen. Darin nicht enthalten sind die Kosten für die Anpassung an die spezifischen Anforderungen oder Daten eines Unternehmens, wofür in der Regel Data Scientists oder hochspezialisierte Entwickler erforderlich sind. Unabhängig davon, welches Modell für eine bestimmte Anwendung ausgewählt wird, ist eine Adaption an die unternehmensspezifischen Daten und Prozesse unverzichtbar. Nur so kann KI Effizienz und Agilität in realen Produktionsumgebungen bieten.
Red Hat geht davon aus, dass in den nächsten zehn Jahren kleinere, effizientere und anforderungsspezifische KI-Modelle neben Cloud-nativen Anwendungen einen wesentlichen Teil des IT-Stacks von Unternehmen ausmachen werden. Um dies zu erreichen, muss die generative KI jedoch leichter zugänglich und verfügbar sein – von den Kosten über die Mitwirkenden bis hin zur Möglichkeit, sie in der Hybrid Cloud einzusetzen. Jahrzehntelang haben Open-Source-Communities geholfen, ähnliche Herausforderungen bei komplexen Softwareproblemen durch Beiträge verschiedener Nutzergruppen zu bewältigen; ein vergleichbarer Ansatz kann nun die Hürden für eine effektive Einführung der generativen KI überwinden. (Red Hat: ra)
Qlik kündigte neue Erweiterungen der "AutoML"-Funktionen an. Diese Updates erleichtern es Analyseteams, leistungsstarke Machine-Learning-Modelle zu erstellen und einzusetzen, und bieten native Analysen zur Erklärung von Vorhersagen in Echtzeit.
Mit der Verlagerung von KI-Workloads in Richtung Edge wird verbesserte Transparenz an entfernten Rechenzentrumsstandorten immer wichtiger. Mit "Vertiv Environet Connect" bietet Vertiv jetzt eine Cloud- und webbasierte Gerätemanagement- und Überwachungslösung an.
Couchbase hat einige Erweiterungen für "Capella" veröffentlicht. Mit "Capella Columnar on AWS", "Couchbase Mobile" mit Vektorsuche und "Capella Free Tier" stehen Unternehmen zahlreiche neue Features zur Verfügung. Zudem erhalten Entwickler einfachen Zugang zu DBaaS (Database as a Service)-Kapazitäten.
Red Hat gibt die allgemeine Verfügbarkeit von "Red Hat Enterprise Linux (Rhel) AI" in der Hybrid Cloud bekannt. Rhel AI ist die grundlegende Modellplattform von Red Hat, mit der Anwender generative KI-Modelle zur Unterstützung von Unternehmensanwendungen nahtlos entwickeln, testen und einsetzen können.
Neo4j hat ihr Portfolio rund um ihre Cloud-Graphdatenbank "Neo4j AuraDB" umgestaltet und mit zahlreichen neuen Features und Verbesserungen ausgestattet.
Databricks "Lakehouse Federation" ist jetzt allgemein über AWS, Azure und Google Cloud verfügbar. Unternehmen können alle ihre Daten an einem Ort finden, abfragen und verwalten. Mit dieser Version erhalten Unternehmen mehr Stabilität, Sicherheit und Fähigkeiten für ihre föderierten Workloads.
Databricks hat die allgemeine Verfügbarkeit von Serverless Compute für Notebooks, Jobs und Delta Live Tables (DLT) auf AWS und Azure angekündigt. Unternehmen schreiben den Code und sind nun in der Lage, Workloads schnell zu starten, die Skalierung der Infrastruktur zu automatisieren und nahtlose Versions-Upgrades der Databricks Runtime durchzuführen.
Sysdig gab die Einführung von "Cloud Identity Insights" bekannt, einer Erweiterung ihrer Cloud Detection and Response (CDR)-Funktionen, die das Verhalten von Identitäten mit Workload-Aktivitäten und Cloud-Ressourcen korreliert. Cloud Identity Insights ist in der Lage, kompromittierte Identitäten sofort zu erkennen, sie in Echtzeit einzudämmen und zukünftige Verstöße durch intelligente Richtlinienoptimierung zu verhindern.
Veeam Software hat die nächste Generation der "Veeam Data Cloud for Microsoft 365" mit den neuen Funktionen von "Microsoft 365 Backup Storage" angekündigt. Die Veeam Data Cloud, welche auf Microsoft Azure basiert, bietet Backup-as-a-Service (BaaS) für Microsoft 365 und ermöglicht Datenresilienz sowie die Nutzung leistungsstarker Datensicherungs- und Sicherheitstechnologien in einer einfachen, nahtlosen Benutzererfahrung.
Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen