Ein KI-Bild benötigt so viel Energie wie eine Handyladung — Klimakiller ChatGPT & Co?
Generative KI ist eine leistungsstarke Technologie, die in vielen Bereichen eingesetzt wird, von der Produktentwicklung bis zur medizinischen Forschung. Allerdings kann der Einsatz von künstlicher Intelligenz auch einen hohen CO₂-Fußabdruck verursachen.
Eine aktuelle Studie von Forschern bei Hugging Face und der Carnegie Mellon University zeigt, dass die Anwendung von (Cloud-basierter) AI bei der Generierung eines einzelnen Bildes etwa so viel Energie verbraucht wie das vollständige Aufladen eines Smartphones.
Die Studie, die von Sasha Luccioni von Hugging Face geleitet wurde, untersuchte die Auswirkungen von 10 Prompts auf 88 verschiedene KI-Modelle. Dabei wurde der Energieverbrauch mit einem Tool namens Code Carbon gemessen.
1.000 Bilder entsprechen 6,6-Kilometern-Autofahrt
Die Erstellung von 1.000 Bildern mit einem leistungsstarken KI-Modell wie Stable Diffusion XL verursacht etwa so viel Kohlendioxid wie eine Fahrt mit einem durchschnittlichen Benzin betriebenen Auto über eine Strecke von 6,6 Kilometern, was etwa 1,1 Kilogramm Kohlendioxid entspricht.
Im Vergleich dazu ist der CO₂-Fußabdruck von Textgenerierungsmodellen deutlich geringer. Das kohlenstoffärmste Modell, das untersucht wurde, verursachte nur so viel Kohlenstoffdioxid wie eine Fahrt von 0,0006 Meilen in einem ähnlichen Fahrzeug. Das entspricht etwa 0,002 Kilogramm CO₂. Es stellte sich heraus, dass die Erstellung von Bildern die energie- und kohlenstoffintensivste Aktivität ist. Betrachtet man jedoch NPUs, die lokal eingesetzt werden, können KI-Anwendungen deutlich energiesparender betrieben werden.
Emissionen durch Anwendung großer KI-Modelle
Man könnte annehmen, dass die hohen CO₂-Emissionen von KI-Bildern auf den erheblichen Energiebedarf des Trainings zurückzuführen sind, da die KI-Modelle mit riesigen Datensätzen von Bildern trainiert werden, die auf Supercomputern verarbeitet werden. Denn diese benötigen viel Strom, der in der Regel aus fossilen Brennstoffen stammt. Doch die meisten Emissionen resultieren aus der tatsächlichen Verwendung und nicht aus dem Training großer Modelle.
Luccioni geht davon aus, dass die Energie, die für das Training von großen Sprachmodellen wie ChatGPT verbraucht wurde, bereits nach wenigen Wochen der Nutzung überschritten wird. Denn der beliebte Chatbot wird von rund 10 Millionen Nutzern täglich genutzt. Außerdem zeigen die Untersuchungen, dass der Einsatz großer generativer Modelle deutlich energieintensiver ist als der Einsatz spezifischerer Modelle, die nur für bestimmte Aufgaben verwendet werden.
Wenn Sie eine bestimmte Anwendung durchführen, wie das Durchsuchen von E-Mails ... brauchen Sie dann wirklich diese großen Modelle, die alles können? Ich würde sagen, nein.
- Sasha Luccioni
Luccioni hofft, dass die Ergebnisse dazu führen werden, dass generative KI bewusster eingesetzt wird und man sich wann immer möglich für energieeffizientere Modelle entscheidet. Vor allem geht es den Forschern jedoch darum Aufmerksamkeit für dieses Thema zu wecken und Unternehmen stärker für ihren Energieverbrauch in die Verantwortung zu ziehen.
Die Verantwortung liegt hier beim Unternehmen, das die Modelle herstellt und damit Gewinn erzielt.
- Jesse Dodge, Forschungswissenschaftler am Allen Institute for AI
Quelle(n)
MIT Technology Review | Symbolbild: Bing AI