KI-Tools wie ChatGPT werden ohne Datenintegrität scheitern

generative KI, ChatGPT
Quelle: Miranda / Shutterstock.com

Neue generative Werkzeuge der künstlichen Intelligenz (KI) wie ChatGPT haben in den letzten Monaten enormes Interesse geweckt, weil sie die Art und Weise verändern können, wie Menschen Informationen finden, neue Produkte schaffen, neue Inhalte entwickeln und in Echtzeit auf neue Ereignisse reagieren. Ein Kommentart von Anjan Kundavaram, Chief Product Officer bei Precisely.

ChatGPT wird nur auf Daten trainiert, die bis September 2021 reichen, so dass es die neuesten Ereignisse oder Entwicklungen nicht kennt. Obwohl historische Daten bei der Gewinnung dieser Erkenntnisse eine Rolle spielen, werden sie wertvoller, wenn ein ständiger Fluss präziser, aktueller Daten zur Verfügung steht, der Unternehmen hilft, auf veränderte Bedingungen zu reagieren. In der aktuellen Form von ChatGPT können keine neuen oder Echtzeitdaten eingegeben werden, was ein Hindernis für Unternehmen darstellt, die für eine sichere Entscheidungsfindung auf aktuelle Daten angewiesen sind. Zusätzlich zu den veralteten Informationen wird das Tool auf der Grundlage textbasierter menschlicher Unterhaltungen trainiert, und einige dieser Daten können ungenau, nicht wahrheitsgemäß oder anderweitig irreführend sein. Trotz der Bemühungen, Verzerrungen während des Trainings zu reduzieren, kann es bei sensiblen Themen oder wenn das Modell auf mehrdeutige Anfragen trifft, zu verzerrten oder subjektiven Antworten kommen.

Anzeige

Anjan Kundavaram, Chief Product Officer bei Precisely, erläuterte die Grenzen der aktuellen Versionen des Tools und warum genaue, konsistente und kontextbezogene Daten für den Erfolg von KI entscheidend sind:

„Die Integrität der Daten, die einem KI-Modell zugrunde liegen, wirkt sich direkt auf seine Leistung und Zuverlässigkeit aus. Daher muss sichergestellt werden, dass die für das Training verwendeten Daten genau, konsistent und kontextbezogen sind. Eine Datenintegritätsstrategie hilft Unternehmen dabei, unterschiedliche Datenquellen miteinander zu verbinden, ein Höchstmaß an Qualität und Governance zu gewährleisten und die Daten kontinuierlich zu überwachen, damit Probleme proaktiv angegangen werden können, bevor sie zu Folgeproblemen führen. Auch die KI-Technologie profitiert in hohem Maße von einem reichhaltigen Kontext, der es ihr ermöglicht, aussagekräftigere Muster in den Daten zu entdecken. Ortsbezogene Intelligenz und Datenanreicherung sind entscheidende Elemente einer erfolgreichen Datenintegritätsstrategie, die dazu beitragen, zusätzliche Erkenntnisse zu gewinnen, die sonst möglicherweise übersehen würden.

Der Umgang mit und die Abschwächung von Verzerrungen während des KI-Trainings ist ebenfalls von entscheidender Bedeutung. Techniken wie eine sorgfältige Kuratierung von Datensätzen, eine vielfältige Datendarstellung, eine voreingenommene Auswertung und eine kontinuierliche Überwachung können dabei helfen, Vorurteile zu erkennen und zu korrigieren und Fairness und Inklusivität zu fördern. Indem sie der Datenintegrität Priorität einräumen, können Unternehmen sicherstellen, dass die von KI-Modellen gewonnenen Erkenntnisse vertrauenswürdig und zuverlässig sind.

Bevor der Einsatz von ChatGPT oder anderen Geschäftsanwendungen von GPT-Modellen in Erwägung gezogen wird, müssen Unternehmen zunächst sicherstellen, dass die Daten, die zum Trainieren dieser Modelle verwendet werden, vertrauenswürdig und korrekt für die Verwendung in intelligenten Modellen aufbereitet sind. OpenAI erkennt an, dass es beim Training von GPT-Modellen auf die richtigen Daten ankommt, und dass Unternehmen darauf achten müssen. Das ordnungsgemäße Trainieren intelligenter Modelle ist nur möglich, wenn man über vertrauenswürdige Daten verfügt. Wenn Sie also nicht in hochintegrierte Daten investieren, um diese Technologien voranzutreiben, wird Ihr Unternehmen zurückbleiben.”

www.precisely.com/de

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.