Während Unternehmen weiterhin mit KI-Technologien experimentieren, zeigt sich ein klarer Spitzenreiter unter den Anwendungsfällen – und der ist gar nicht so neu: der klassische Chatbot.
Wer in den letzten zehn Jahren eine Unternehmenswebsite besucht hat, ist ihm mit hoher Wahrscheinlichkeit begegnet, besonders im Bereich Kundenservice. Was viele jedoch nicht wissen: Chatbots gibt es in verschiedenen Versionen bereits seit Jahrzehnten.
Die Anfänge der Chatbots
Der erste Chatbot, ELIZA, erschien bereits 1967. Das regelbasierte Programm war der erste erfolgreiche Versuch, eine Unterhaltung zwischen Mensch und Maschine zu ermöglichen. Aus heutiger Sicht wirkte die Interaktion überraschend vertraut: Nutzer stellten Fragen in Textform und erhielten eine Antwort – ähnlich wie bei modernen Prompts. Der große Unterschied zu heutigen Modellen: Die Antworten waren vollständig vorgegeben und wurden anhand von Schlüsselwörtern im Nutzertext ausgewählt. Dennoch markierte ELIZA einen Meilenstein in der Mensch-Maschine-Kommunikation und schuf damit auch eine Grundlage für heutige Vektor-Datenbanken.
In den 1980er-Jahren folgte der nächste Fortschritt: Jabberwocky ermöglichte erstmals Sprachinteraktion. Heute sind Sprachassistenten auf Smartphones oder smarten Geräten selbstverständlich, damals veränderte diese Neuerung das Verhältnis zur Technik erneut. Auch Jabberwocky war jedoch noch regelbasiert – mit vorab definierten Antworten.
Die nächste Entwicklung kam in den 1990er-Jahren mit der Entstehung von A.L.I.C.E. (Artificial Linguistic Internet Computer Entity). Das System konnte Antworten speichern und zur Bildung neuer Reaktionen nutzen. Das Prinzip blieb jedoch weitgehend unverändert. Nur dass nun die metaphysische Frage ins Spiel kam, was „Lernen“ eigentlich bedeutet. Konnte die Tatsache, dass Alice frühere Antworten nutzte, um neue Antworten zu erstellen, als Lernen eingestuft werden? Technisch gesehen handelte es sich noch nicht um echtes Lernen, philosophisch jedoch öffnete sich ein neues Feld.
Zwar gab es in den folgenden Jahrzehnten immer wieder Fortschritte, die zu komplexeren Dialogen führten, doch die zugrunde liegende Technologie blieb weitgehend unverändert. Bis Sprachmodelle und Natural Language Processing (NLP) den Markt grundlegend veränderten.
Die datengetriebene Ära
Zwei Entwicklungen treiben moderne Chatbots besonders stark voran: steigende Rechenleistung und der Zugang zu enormen Datenmengen – ermöglicht durch GPUs und Quellen wie das Internet. Mit der Einführung großer Sprachmodelle begann der Übergang von regelbasierten zu datengetriebenen Systemen, die variablere Antworten liefern können. ChatGPT, basierend auf der Transformer-Architektur, erschien 2022 und verwandelte ein einfaches Textvervollständigungsmodell durch den Einsatz von semi-supervised Learning in ein dialogfähiges System. Dabei wird das Modell mit Dialogbeispielen trainiert, um ein möglichst natürliches Gesprächsverhalten zu entwickeln. Und so funktionieren auch Chatbots heute: Sie basieren auf riesigen Datenmengen – vorprogrammierte Antworten sind nicht mehr nötig.
Ein weiterer entscheidender Faktor für die Weiterentwicklung von Chatbots – und von Data Science und KI im Allgemeinen – war die Entwicklung und das Wachstum von Open-Source-Bibliotheken für maschinelles Lernen, wie PyTorch und TensorFlow. Diese senkten die Einstiegshürden erheblich und machten die Entwicklung eigener Chatbots oder NLP-Anwendungen für Unternehmen deutlich zugänglicher.
Die größte Herausforderung liegt heute oft nicht mehr in der Technik, sondern in den Kosten. Manchmal steigen bei Chatbots im Kundenservice, die rund um die Uhr im Einsatz sind, die Kosten abhängig von der Architektur, da Interaktionen unterschiedliche Ressourcen verbrauchen können. Daher ist der Einsatz kleinerer, effizienter Modelle meist kostengünstiger, da größere Modelle deutlich höhere Ressourcen benötigen.
Eine multimodale Zukunft
Eine der bedeutendsten Entwicklungen in der Geschichte der Chatbots, die auch weiterhin neue Anwendungsfälle und eine höhere Effizienz ermöglichen wird, sind multimodale Modelle. Während früher nur Text oder Sprache verarbeitet wurde, lassen sich heute verschiedene Modalitäten kombinieren.
Diese Fähigkeiten eröffnen völlig neue kreative und praktische Möglichkeiten: von der automatisierten Erstellung interner Berichte über Marketingmaterialien bis hin zu maßgeschneiderten Präsentationen auf Basis unternehmensspezifischer Informationen. Durch den Einsatz von RAG-Architekturen (Retrieval-Augmented Generation) können Chatbots zudem auf unternehmensinterne Datenquellen zugreifen. Dadurch werden fortschrittliche Anwendungen wie interne Q&A-Systeme oder intelligente Suchfunktionen, die auf organisationsspezifisches Wissen zugreifen, möglich.
Mit der Weiterentwicklung der Chatbots und ihrer zugrunde liegenden Architekturen verändern sich auch die Technologien, die sie unterstützen. RAG-Systeme und KI-Agenten werden ab 2025 in vielen Branchen für enorme Effizienzsteigerungen sorgen. In Kombination mit multimodalen Modellen scheint das Potenzial von Chatbots nahezu grenzenlos.