Anne Mollen: „Bei der Nachhaltigkeit von KI geht es um viel mehr als nur den Energieverbrauch“
Anne Mollen arbeitet bei AlgorithmWatch und befasst sich dort mit der Nachhaltigkeit von KI-Systemen. Auf der re:publica 2022 stellte sie zentrale Ergebnisse ihrer Arbeit bei einer Podiumsdiskussion vor. Lena Schulze Frenking sprach für iRights.info mit ihr darüber, worauf es bei der Nachhaltigkeit von KI ankommt – und warum das wichtig ist.
Lena Schulze Frenking: Frau Mollen, was ist KI überhaupt? Und wie intelligent ist sie?
Anne Mollen: Den Begriff der „Künstlichen Intelligenz“ mögen wir nicht so gern, weil er sehr schwer zu definieren ist. Das lässt sich zwar umgehen, indem man verschiedene Unterkategorien von KI definiert, wie zum Beispiel Algorithmen, Maschinelles Lernen oder neuronale Netze. Aber hinzu kommt noch, dass Intelligenz selbst schwer zu definieren ist. Unserer Ansicht nach beschreibt der Begriff der „Künstlichen Intelligenz“ sogenannte KI-Systeme auch nicht sonderlich gut, weil sie gar nicht die menschliche Intelligenz nachahmen. KI-Systeme haben nicht die gleichen kognitiven Fähigkeiten wie die Menschen, sondern sind für ganz bestimmte Aufgaben definiert.
Was wäre eine bessere Bezeichnung?
Wir sprechen meistens von Automatisierung. Uns interessiert es also besonders, wenn Systeme beispielsweise Methoden des Maschinellen Lernens einsetzen, um Entscheidungen zu treffen. Das kann die Automatisierung von Verwaltungsprozessen betreffen, wenn beispielsweise Steuerinformationen von mir automatisiert verarbeitet werden. Es kann aber auch um automatisierte Produktempfehlung auf Online-Plattformen gehen. Automatisierung findet in immer mehr Lebensbereichen statt.
In Ihrem Projekt SustAIn untersuchen Sie die Nachhaltigkeit von KI-Systemen. Was sind das für Systeme? Begegnen wir ihnen auch in unserem Alltag?
Ja, absolut. Im Alltag begegnen uns KI-Systeme zum Beispiel beim Online-Shopping, wenn wir uns Such- oder Empfehlungsalgorithmen auf jeder Online-Shopping-Plattform und in jedem Online-Shop anschauen. Bisher zeigen solche Systeme jedoch kaum Nachhaltigkeitsansätze. Oder wenn wir uns im Verkehr bewegen und dafür einen Routing-Dienst wie Google Maps nutzen. Da werden die Routen automatisiert berechnet. Google will jetzt damit anfangen nachhaltigere Routen anzuzeigen. Wir können aber auch zu Hause damit zu tun haben, wenn unsere Energieversorgung über eine KI optimiert wird. Bei SustAIn schauen wir vor allem auf die Bereiche Energie, Mobilität und Online-Konsum. Aber die Auswirkungen auf die Nachhaltigkeit sind natürlich unabhängig davon, wo die KI angewandt wird. Deswegen müssen wir uns die Nachhaltigkeit von KI-Systemen in allen Bereichen anschauen. Dafür müssen wir aber erst mal definieren, was Nachhaltigkeit von KI überhaupt bedeutet.
Die Nachhaltigkeit von KI betrifft soziale, ökonomische und ökologische Fragen
Worauf kommt es bei der Nachhaltigkeit von KI an?
Für unseren Nachhaltigkeitsindex schauen wir uns die Nachhaltigkeit von KI aus sozialer, ökonomischer und ökologischer Perspektive an. Wir sind der Ansicht, dass eine nachhaltige KI sich in den planetaren Grenzen bewegen, den gesellschaftlichen Zusammenhang nicht gefährden und keine problematischen ökonomischen Dynamiken verstärken sollte.
Worum geht es bei der ökologischen Nachhaltigkeit?
Im ökologischen Bereich geht es zum Beispiel um den Energieverbrauch, aber auch die Hardware. Wie wird die Hardware hergestellt, wie wird sie entsorgt? Wird sie vielleicht sogar recycelt? Wieviel Emissionen werden beim Training, bei der Entwicklung oder der Anwendung einer KI ausgestoßen?
Und ökonomisch?
Die ökonomische Seite beinhaltet, dass Marktkonzentration unserer Meinung nach nicht nachhaltig ist. Genauso wenig wie eine Wettbewerbsverzerrung. Im Moment gibt es gerade bei den Produzenten großer KI-Systeme eine starke Marktkonzentration in den USA und in China. Eigentlich müssten vielfältige Akteure auf dem Markt aktiv werden und die Produzenten global besser verteilt sein. Die ökonomische Perspektive hat aber auch was mit Arbeitsbedingungen zu tun. Also: Wer bereitet die Daten für die Trainingsläufe einer KI auf? Wer baut die Mineralien ab, die für die Hardware eingesetzt werden? Es muss faire Bedingungen entlang der gesamten Wertschöpfungskette geben.
Und die soziale Seite?
Da geht es unter anderem um Fairness, Diskriminierung, den Schutz der Privatsphäre und Datenschutz. Da zeigt sich auch, dass es viele Querverbindungen zwischen den einzelnen Kategorien gibt. Denn ein datenminimalistischer Ansatz hat einerseits eine soziale Komponente, nämlich Datenschutz und Privatsphäre sowie die Selbstbestimmung über die Daten. Gleichzeitig verbraucht er weniger Energie, zum Beispiel beim Training. Wenn ich weniger Energie verbrauche und mit kleineren Datensätzen operiere, ist das außerdem ökonomisch günstiger.
Der Energieverbrauch während des gesamten Lebenszyklus’ einer KI entscheidet
KI hat verschiedene Lebenszyklen: Erst wird sie entwickelt, dann trainiert, bevor sie schließlich in die Anwendung kommt. Wie sieht das mit der Nachhaltigkeit in diesen Zyklen aus?
Aus der Literaturrecherche und den Analysen, die wir gemacht haben, wissen wir, dass man sich den Energieverbrauch entlang des Lebenszyklus einer KI besonders gut anschauen sollte. In der Forschungs- und Entwicklungsphase ist der Energieverbrauch sicherlich am höchsten. Zum Beispiel, wenn es darum geht, die richtige Architektur für ein neuronales Netz zu finden. Hier muss viel getestet und experimentiert werden. Das kostet Rechenzeit und damit Strom. Anschließend kommt die Trainingsphase, in der oft viele Trainingsdurchläufe gemacht werden. Auch da ist der Energieverbrauch noch relativ hoch. In der Anwendungsphase ist der Energieverbrauch dann deutlich geringer, aber gleichzeitig finden in dieser Phase viel mehr Wiederholungen statt.
Können Sie den Energieverbrauch denn genau einschätzen?
Nein. Denn uns fehlen leider die Daten, um das genau beziffern zu können. Wir bräuchten viel mehr öffentlich zugängliche Daten über den Energieverbrauch – und ich rede jetzt wirklich nur über den Energieverbrauch, das ist nicht gleichzusetzen mit der Nachhaltigkeit von KI insgesamt. Oft wissen die Organisationen selbst nicht, was ihre KI-Systeme für einen Energieverbrauch haben. Da fehlt noch das Bewusstsein, um den Energieverbrauch zu erfassen und dadurch auch vergleichbar zu machen.
Schlechte Datensets begünstigen Diskriminierung und erhöhen den Energieverbrauch
Gibt es bestimmte Arten von KI, die eher nachhaltig sind? Und andere, die weniger nachhaltig sind, weil sie auf viele Daten und viele Ressourcen angewiesen sind?
Die Tendenz, insbesondere der großen Big-Tech-Unternehmen wie Google oder Meta, immer größere KI-Sprachmodelle zu bauen, ist sicherlich nicht nachhaltig. Diese Systeme haben einen wahnsinnig hohen Energieverbrauch, da sie mit mehreren Milliarden Parametern arbeiten. Gleichzeitig haben die großen Unternehmen ihre eigenen Rechenzentren, die mittlerweile häufig größtenteils mit erneuerbaren Energien betrieben werden. Was den Energiemix angeht, sind sie also relativ gut aufgestellt. Dafür werden ihre KI-Systeme aber oft auf schlechten Datensets trainiert. Meist verwenden sie viel zu große Datensets, die aus dem Internet gezogen werden. Es besteht kein Datenqualitätsanspruch und es findet keine gezielte Auswahl von Daten statt, was die Trainingszeiten klein halten könnte. Dazu kommt, dass schlechte Daten Diskriminierung begünstigen können, indem KI-Systeme problematische Tendenzen aus dem Internet übernehmen und beispielsweise frauenverachtende oder rassistische Sprachmuster erlernen.
Wenn es um Nachhaltigkeit geht, ist es also wichtig, sich alle Perspektiven anzuschauen.
Genau. Ein KI-System kann in einem Bereich sehr nachhaltig sein, aber in einem anderen Bereich dann wieder überhaupt nicht. Bei dem großen Blumenstrauß an Nachhaltigkeitsindikatoren, die wir entwickelt haben, muss man deshalb immer genau hinsehen. Gleichzeitig stehen die von uns entwickelten Indikatoren manchmal auch in Konflikten miteinander. Wir wollen mit unserem Bewertungsansatz vor allem eine Diskussion anstoßen. Damit man in Zukunft besser entscheiden kann, was nachhaltig ist und was nicht.
Das AlgorithmWatch-Projekt „SustAIn“ ist auf der Suche nach Kooperationspartner*innen, um die Nachhaltigkeitsindikatoren für KI in der Praxis anzuwenden. Im Juni 2022 hat das Projekt ein Magazin veröffentlicht, in dem es seinen Bewertungsansatz und Beispiele für nachhaltige KI in der Praxis vorstellt.
Was müsste sich denn ändern, damit KI nachhaltiger wird?
Das Interessante ist, dass das gar nicht so sehr in der Technologie liegt. Denn es gibt schon technologische Ansätze, um KI nachhaltiger zu machen. Viele Entscheidungen, die eine KI nachhaltig machen oder nicht, werden aber in den Planungsprozessen und in den Teams getroffen, die die KI entwickeln. In den vielen kleinen Entscheidungen in der Entwicklung einer KI könnte schon die Grundlage für mehr Nachhaltigkeit gelegt werden. Da geht es dann zum Beispiel darum, ob ich bewusst ein kleineres oder ein weniger komplexes Modell wähle, um den Energieverbrauch zu reduzieren. Außerdem muss eine Abwägung stattfinden, wie gut die Performance meines Systems wirklich sein muss und ob der Energieverbrauch dafür gerechtfertigt ist. Macht es wirklich Sinn, eine minimale Steigerung bei der Performance zu haben und dafür einen deutlich höheren Energieverbrauch, weil wir mehr Trainingsrunden brauchen? Für solche Abwägungen müssen wir mehr Bewusstsein schaffen. Viele Fragen sind aber noch unbeantwortet, weil einfach die Daten fehlen. Zum Beispiel fehlen uns Vergleichsdaten, damit wir überhaupt sagen könnten, was eine nachhaltige KI in Bezug auf den Energieverbrauch wäre.
Anne Mollen: „Tracking hat oft einen relativ hohen Energieverbrauch“
Das heißt, da wäre dann auch die Politik gefragt?
Absolut. Wichtig ist sicherlich, mehr Transparenz für die Nutzer*innen zu schaffen, damit sie sich gut informiert für eine nachhaltigere KI entscheiden können. Aber die Entwicklung von KI-Systemen ist oft ein sehr langer und komplexer Prozess, an dem viele verschiedene Leute beteiligt sind. Das bedeutet, dass es dabei viele Mikroprozesse und Mikroentscheidungen gibt, die aber alle Auswirkungen auf die Nachhaltigkeit haben. Deshalb brauchen wir auch verschiedene regulatorische Ansätze durch die Politik.
Was können User*innen direkt tun, wenn sie KI nachhaltiger einsetzen wollen?
Leider nicht viel. Denn das meiste entscheidet sich in der Entwicklung und die Unternehmen sammeln ja noch nicht einmal selbst Daten zu ihrer Nachhaltigkeit. Einen kleinen Spielraum gibt es vielleicht bei der sogenannten Datensammlung, obwohl es auch dort den User*innen sehr schwer gemacht wird. Wenn ich online von Cookies getrackt werde, dann entsteht da mitunter viel CO2, denn das Tracking hat oft einen relativ hohen Energieverbrauch.
Aber über den tatsächlichen Verbrauch gibt es meist nur wenige Informationen vor. Das macht es für Nutzer*innen schwer, die ökologischen Auswirkungen des Trackings zu beurteilen. Das ist aber eine Voraussetzung, damit sie für mehr Nachhaltigkeit versuchen, das Tracking möglichst umfassend zu unterbinden. Hinzu kommt, dass die meisten Menschen noch kein Bewusstsein für die Relevanz nachhaltiger KI entwickelt haben. Sie entscheiden sich daher bisher kaum bewusst für eine nachhaltige KI in ihren Konsumentscheidungen. Dafür müssten die Organisationen, die KI entwickeln und einsetzen, allerdings auch viel mehr Daten zur Nachhaltigkeit ihrer KI erfassen und veröffentlichen.
Frau Mollen, vielen Dank für das Gespräch!
Offenlegung: Matthias Spielkamp, der Gründer und Geschäftsführer von AlgorithmWatch, ist zugleich Mitbegründer von iRights.info und gehörte bis 2018 zum Kreis der Mitherausgeber*innen. Spielkamp ist darüber hinaus Mitglied im iRights e.V., dem Träger von iRights.info.
Was sagen Sie dazu?