Wie Unternehmen generative KI nachhaltiger einsetzen

Klimasünder KI?

KI, Klima

Unternehmen setzen zunehmend auf generative KI, um die Effizienz zu steigern. Den hohen Energieverbrauch für das Training und den Betrieb von LLMs sowie dessen Umweltauswirkungen sollten Unternehmen allerdings genau im Blick behalten – auch angesichts der CSR-Berichtspflicht.

Large Language Models (LLMs) haben sich mittlerweile fest im öffentlichen Diskurs etabliert. Die auf ihnen basierenden Tools finden zunehmend Anwendung – einerseits als unterhaltsames Spielzeug im privaten Alltag, andererseits als Arbeitswerkzeug im Beruf. Unternehmen setzen zunehmend auf generative KI (GenAI), um die Effizienz in verschiedenen Geschäftsbereichen zu steigern.

Anzeige

Im Kundenservice geht es beispielsweise darum, virtuelle Agenten auf Basis generativer KI aufzubauen. Das soll einerseits den Alltag der Contact-Center-Mitarbeitenden erleichtern und andererseits den Kund*innen einen bestmöglichen Service bieten. Betrachtet man dabei allerdings den zusätzlichen Energieverbrauch, stellt sich die Frage der Nachhaltigkeit – insbesondere angesichts der zahlreichen vorhandenen Contact Center. Deshalb ist es ratsam, den Energieverbrauch solcher Lösungen bereits während ihrer Konzeption zu optimieren.

Berechnungen des Datenwissenschaftlers Kasper Groes Ludvigsen zufolge überstieg der CO2-Ausstoß von ChatGPT im Januar 2023 den durchschnittlichen CO2-Ausstoß einer kleineren Großstadt. In Anbetracht der globalen Erderwärmung, politischer Klimaabkommen und ESG-Auflagen für Unternehmen ist diese Tatsache nur schwer zu ignorieren. Trotzdem sind der hohe Energieverbrauch für das Training und den Betrieb von LLMs sowie dessen Umweltauswirkungen noch wenig beachtet.

Warum ist das so? Und wie können Unternehmen ihre ökologische Verantwortung im Umgang mit LLMs zukünftig stärker wahrnehmen?

Mangelnde Auskünfte und fehlende Standards

Vorweg: Nutzer*innen ist der Energieverbrauch von LLMs nicht grundsätzlich egal. Laut Studien von Microsoft oder EY bevorzugen immer mehr Verbraucher:innen Produkte und Dienstleistungen mit einem geringen CO2-Ausstoß. An Informationen über den Energieverbrauch von LLMs heranzukommen, ist allerdings herausfordernd, wie auch eine Mozilla-Studie verdeutlicht. Die Verfügbarkeit relevanter Daten zum Energieverbrauch ist noch sehr limitiert und hauptsächlich in Fachforen sowie wissenschaftlichen Journalen verstreut. Nur wenige frei verfügbare Medien berichten ausführlich über die bisherigen Erkenntnisse, weshalb diese Informationen für die breite Öffentlichkeit nicht zugänglich sind.

Jedoch fehlen standardisierte Methoden und Modelle, um LLM-Emissionen zu ermitteln. Gegenwärtige wissenschaftliche Erhebungen berücksichtigen zwar zunehmend vor- und nachgelagerte CO2-Emissionen der LLM-Nutzung, doch die zahlreichen unterschiedlichen Faktoren erschweren eine einheitliche Erfassung und Vergleichbarkeit der Umweltauswirkungen. Klare, standardisierte Vorgaben und Kontrollen durch zuständige Regierungsinstitutionen – etwa das Umweltbundesamt – können hier für mehr Transparenz sorgen. Die Erwartungen dafür gibt es schon heute. Laut einer internationalen Verbraucherumfrage von Thoughtworks fordern Verbraucher*innen etwa, dass Entwickler*innen oder Betreiber*innen von LLMs zur Veröffentlichung der damit verbundenen CO2-Emissionen verpflichtet werden sollten. Noch sind diese Stimmen selten und leise, doch vor dem Hintergrund eines wachsenden Nachhaltigkeitsbewusstseins werden diese vermutlich an Lautstärke zunehmen.

Die Rolle der Unternehmen

Eine verbesserte Nachvollziehbarkeit der Emissionen ist allerdings nur ein Teil der Herausforderungen. Anbieter*innen und Betreiber*innen von LLMs müssen schon bei Entwicklung und Betrieb ihren Teil zur Nachhaltigkeit beisteuern, indem sie möglichst ressourcenschonend vorgehen. Gleichzeitig beeinflusst allerdings die Art und Weise, wie Anwender*innen KI-Sprachmodelle nutzen, signifikant den CO2-Ausstoß. Mit der Anzahl und der Komplexität der Prompts steigen auch die Emissionen.

Wie können Unternehmen also ihren Anteil an den durch ChatGPT und Co. verursachten CO2-Emissionen so gering wie möglich halten?

Zum einen hilft hier Aufklärung. Unternehmen, die LLM-basierte Anwendungen nutzen, müssen ihre Mitarbeitenden über den Energiebedarf einer intensiven Nutzung informieren und sie für eine umsichtige Nutzung sensibilisieren. Sprachmodelle erleichtern und beschleunigen zwar unsere Arbeitsprozesse, bezahlen das aber mit einem damit einhergehend hohen Energieverbrauch. Nutzer*innen sollten daher vor einem massiven Einsatz erst einmal die Umweltkosten abwägen.

Um nicht auf rechenstarke aber stromfressende Modelle setzen zu müssen, können Unternehmen zudem eine eigene, kleinere LLM- oder GenAI-Lösung hosten. Technische Fortschritte ermöglichen mittlerweile die Entwicklung kleinerer Modelle. Das Training für, beispielsweise, Metas LLaMa und Alpaca AI von der Uni Stanford ist nicht nur deutlich stromsparender, sondern auch wesentlich günstiger – ein paar hundert Dollar statt Millionen. Für das Training mancher Lösungen ist in kleinstem Rahmen sogar ein einzelnes MacBook ausreichend.

Darüber hinaus können Unternehmen ihre eigene Hardware effizienter machen. Die SpiNNaker2-Architektur verbraucht etwa im Vergleich zu den meisten aktuellen CPUs und GPUs viel weniger Strom, während sie eine ähnliche Menge an Rechenarbeit leistet.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Strategie zur KI-Begrünung

Zunächst müssen Unternehmen allerdings erst einmal verstehen, wo sie ansetzen können. Dafür benötigen sie Klarheit über den CO2-Fußabdruck des gewählten Sprachmodells – ob intern oder extern gehostet. Das betrifft die Software ebenso wie die Hardware.

Um die Emissionen von LLMs durch den Betrieb ihrer Software zu reduzieren, eignen sich Tools wie Cloud Carbon Footprint. Diese analysieren die Gesamtemissionen von Cloud-Lösungen und vergleichen sie mit Flügen, Smartphone-Emissionen oder der Anzahl von Bäumen, die für eine Kompensation nötig wären. Demnächst soll auch die KI- und Datenplattform watsonx von IBM zur Verfügung stehen, um LLMs besser validieren und miteinander vergleichen zu können. Mit automatisierten Funktionen soll das Softwareprodukt Modellfakten in allen Phasen des KI-Lebenszyklus dokumentieren und Zusatzdetails wie Datengröße, Latenz und Durchsatz verfolgen, um Engpässe und rechenintensive Workloads zu identifizieren.

Auf dieser Grundlage können Unternehmen konkrete Optimierungsmaßnahmen angehen, sowohl bei der Auswahl von Modellen als auch beim Programmieren eigener Lösungen. Solche Dienste werden immer wichtiger, um unabhängig von KI-Unternehmen zu bleiben, die sich nicht ausreichend für eine sozial- und umweltverträgliche KI einsetzen.

IT-Hardware nicht unterschätzen

Neben dem Einsparen von Energie sind die Rechenzentren selbst, in denen die Hardware für das Hosten von LLMs steht, ein relevanter Faktor. Hier auf saubere, erneuerbare Energiequellen zu setzen, beeinflusst die Nachhaltigkeit positiv. Eine Anlaufstelle dafür bildet die Climate Neutral Data Centre Initiative, ein Zusammenschluss von über 100 Rechenzentren, deren Betreiber sich der Klimaneutralität bis 2030 verschrieben haben. 

Hosten Unternehmen ein LLM selbst, sollten sie eine energieeffiziente Computerinfrastruktur bevorzugen und erneuerbare Energiequellen für Rechenzentren nutzen. Daneben sollten sie unter anderem den Wasserverbrauch minimieren und effizientere Kühlsysteme einführen. Zudem ist es ratsam, in die Forschung grüner KI-Technologien zu investieren. 

Darüber hinaus reduzieren konfliktfreie, nachhaltig hergestellte Tech-Komponenten weiter die Emissionen der KI-Wertschöpfungskette. Daher sollten Unternehmen über den Einsatz von zertifizierten generalüberholten Geräten nachdenken.

Damit ist demnächst zu rechnen

Mit wachsender Bekanntheit der vorgestellten Tools und Anlaufstellen wird das Engagement von Unternehmen für einen nachhaltigeren Einsatz von LLMs hoffentlich zunehmen. Gesetzliche Regularien wie die Corporate Sustainability Reporting Directive (CSRD) sind ein weiterer wichtiger Baustein, um Unternehmen zu mehr Nachhaltigkeit zu verpflichten. Angesichts dessen sollten Unternehmen selbst in Forschung investieren, um neue Wege zu finden, aktuellen sowie zukünftigen Gesetzgebungen zu entsprechen.

Steigende Verbraucheransprüche an die Transparenz moderner Technologien schaffen eine zusätzliche Motivation für Unternehmen, ihre (KI-) Praktiken offenzulegen. Unternehmen erkennen darüber hinaus, dass eine verbesserte Energieeffizienz nicht nur negative Umweltauswirkungen reduziert, sondern zudem Kosten senkt. Doch der vollumfängliche Wandel wird zukünftig noch weitere gemeinsame Anstrengungen von Nutzer*innen, Entwickler*innen und Regierungen erfordern, denn niemand möchte mehr auf die Vorteile von generativer KI verzichten.

Iryna Sorokovska

Iryna

Sorokovska

AI Consultant

Telekom MMS

Iryna Sorokovska ist AI Consultant bei Telekom MMS und betreut dort seit 2017 unter anderem das Thema Chat- und Voicebots im Kundenservice.
Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.