Generative AI: Cloudera und NVIDIA arbeiten bei Microservices zusammen

KI Interview

Cloudera gibt seine erweiterte Zusammenarbeit mit NVIDIA bekannt. Cloudera powered by NVIDIA wird NVIDIA NIM Microservices, Teil der Software-Platform NVIDIA AI Enterprise, in Cloudera Machine Learning, einen Service der Cloudera Data Platform (CDP) für KI/ML-Workflows integrieren.

Dies ermöglicht schnelle, sichere und vereinfachte generative KI-Workflows.

Anzeige

Unternehmensdaten in Kombination mit einer umfassenden Full-Stack-Platform, die für Large Language Model (LLM) optimiert ist, spielen eine entscheidende Rolle, um generative KI-Anwendungen im Unternehmen von der Testphase zur Umsetzung zu bringen. Mit den Microservices NVIDIA NIM und NeMo Retriever können Entwickler KI-Modelle mit ihren Geschäftsdaten verknüpfen – einschließlich Text, Bildern und Visualisierungen wie Balken-, Linien- und Tortendiagramme – um präzise, kontextbezogene Antworten zu generieren. 

Entwickler, die diese Microservices nutzen, können Anwendungen über NVIDIA AI Enterprise erstellen, was optimierte Laufzeiten für die Erstellung, Anpassung und Bereitstellung von LLMs im Unternehmen bietet. Durch den Einsatz von NVIDIA Microservices können Kunden, die Cloudera Machine Learning nutzen, den Mehrwert ihrer Unternehmensdaten unter Cloudera-Verwaltung maximieren. Die Vorteile: Hochleistungsfähige KI-Workflows, Plattformsoftware und beschleunigtes Computing für Daten – unabhängig davon, wo sie sich befinden.

Integrierte Services für neue Möglichkeiten

Cloudera wird mehrere Integrationen mit NVIDIA Microservices anbieten. Cloudera Machine Learning wird Modell- und Anwendungsbereitstellung auf Basis von NVIDIA Microservices integrieren. So können Kunden Fehlertoleranz, Serving mit niedriger Wartezeit und automatische Skalierung für KI-Modelle erreichen, die überall eingesetzt werden – sowohl in Public als auch in Private Clouds. Darüber hinaus wird Cloudera Machine Learning integrierte NVIDIA NeMo Retriever Microservices bieten, um die Verbindung von benutzerdefinierten LLMs mit Unternehmensdaten zu vereinfachen. So können Anwender Retrieval-Augmented-Generation (RAG)-basierte Anwendungen für den Unternehmenseinsatz erstellen.

Cloudera arbeitete bereits zuvor mit NVIDIA zusammen, um GPU-optimierte Datenverarbeitung durch die Integration des NVIDIA RAPIDS Accelerator für Apache Spark in CDP nutzbar zu machen. Mit den geplanten zusätzlichen NVIDIA Microservices und der Integration von NVIDIA AI Enterprise wird CDP durchgängige hybrid KI-Pipelines bieten.

In Zukunft werden Unternehmen aller Branchen in der Lage sein, LLMs schneller und intuitiver zu erstellen, anzupassen und einzusetzen. Dazu gehören Anwendungen wie Coding Co-Pilots für schnellere Entwicklung, Chatbots für automatisierte Kundeninteraktionen und -services, Apps zur Textzusammenfassung für die schnelle Verarbeitung von Dokumenten, optimierte und kontextbezogene Suche und vieles mehr. Diese Innovationen machen Daten- und KI-Prozesse einfacher und schneller im gesamten Unternehmen, steigern den Umsatz und optimieren Kosten.

www.Cloudera.de

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.