banner
Heim / Nachricht / Welchen Tribut wird der Boom der KI-Branche für die Umwelt bedeuten?
Nachricht

Welchen Tribut wird der Boom der KI-Branche für die Umwelt bedeuten?

Jun 12, 2023Jun 12, 2023

Tech-Unternehmen machen kein Geheimnis daraus, wie viel Energie und Wasser sie für die Schulung ihrer komplexen Programme und Modelle benötigen

Eine Frage, die ChatGPT nicht ganz beantworten kann: Wie viel Energie verbrauchen Sie?

„Als KI-Sprachmodell bin ich weder physisch präsent noch verbrauche ich direkt Energie“, heißt es darin, oder: „Der mit meinem Betrieb verbundene Energieverbrauch hängt in erster Linie von den Servern und der Infrastruktur ab, die zum Hosten und Ausführen verwendet werden.“ Modell."

Googles Bard ist noch dreister. „Mein CO2-Fußabdruck ist Null“, heißt es darin. Auf die Frage nach der Energie, die bei seiner Entstehung und Ausbildung verbraucht wird, antwortet es: „nicht öffentlich bekannt“.

KI-Programme können unkörperlich erscheinen. Sie werden jedoch von Servernetzwerken in Rechenzentren auf der ganzen Welt betrieben, die große Energiemengen für den Betrieb und große Wassermengen für die Kühlung benötigen.

Da KI-Programme so komplex sind, benötigen sie mehr Energie als andere Formen der Datenverarbeitung. Aber das Problem ist – es ist unglaublich schwer, genau zu bestimmen, wie viel.

Im Wettbewerb um die Entwicklung immer ausgefeilterer KI-Modelle geben Unternehmen wie OpenAI – das ChatGPT entwickelt hat –, Google und Microsoft nicht bekannt, wie viel Strom und Wasser zum Trainieren und Betreiben ihrer KI-Modelle benötigt werden und welche Energiequellen ihre Rechenzentren versorgen oder sogar dort, wo sich einige ihrer Rechenzentren befinden.

Meta, die Muttergesellschaft von Facebook, gab beispielsweise letztes Jahr bekannt, dass sie den ihrer Meinung nach schnellsten Supercomputer der Welt baut, den AI Research SuperCluster (RSC). Es würde jedoch nicht verraten, wo sich der Supercomputer befand oder wie er mit Strom versorgt wurde.

Jetzt, da die Technologiebranche bestrebt ist, generative KI in praktisch alles zu integrieren – von E-Mail und Suche bis hin zu Apps für die Lieferung von Lebensmitteln und psychiatrischen Diensten –, warnen Branchenexperten und Forscher, dass das unkontrollierte Wachstum der Technologie erhebliche Kosten für die Umwelt verursachen könnte.

„Dieser exponentielle Einsatz von KI bringt einen Bedarf an immer mehr Energie mit sich“, sagte Sasha Luccioni, Klimaleiterin des KI-Unternehmens Hugging Face. „Und doch erleben wir diesen Wandel dahingehend, dass Menschen generative KI-Modelle nutzen, nur weil sie das Gefühl haben, dass sie es sollten, ohne dass Nachhaltigkeit berücksichtigt wird.“

Luccioni ist einer von wenigen Forschern, die versucht haben, die Emissionen zu bewerten, die bei der Erstellung spezifischer KI-Modelle entstehen.

In einer Forschungsarbeit, die noch nicht von Experten begutachtet wurde, haben sie und ihre Co-Autoren ermittelt, wie viel Energie aufgewendet wurde, um Hugging Faces eigenes großes Sprachmodell, Bloom, auf einem Supercomputer zu trainieren; die Energie, die zur Herstellung der Hardware des Supercomputers und zur Wartung seiner Infrastruktur verwendet wird; und der Strom, der für den Betrieb des Programms nach dem Start verwendet wurde. Sie fanden heraus, dass dadurch etwa 50 Tonnen Kohlendioxidemissionen verursacht wurden, was etwa 60 Flügen zwischen London und New York entspricht.

Blooms Energie-Fußabdruck ist geringer als der anderer generativer KI-Programme, schätzen Luccioni und ihr Team, da Blooms Supercomputer mit Kernenergie betrieben werden, die keine Kohlenstoffemissionen verursacht. Im Gegensatz dazu deuten begrenzte öffentlich verfügbare Daten darauf hin, dass allein beim Training des GPT3-Modells von ChatGPT etwa 500 Tonnen CO2 erzeugt wurden – das Äquivalent von über einer Million Meilen, die ein durchschnittliches benzinbetriebenes Auto zurücklegt, stellten die Forscher fest.

„Für das neueste Modell von ChatGPT, GPT4, hat [OpenAI] nichts darüber gesagt, wie lange es trainiert wurde, wo es trainiert wurde oder überhaupt etwas über die Daten, die sie verwenden“, sagte Luccioni. „Das bedeutet im Wesentlichen, dass es unmöglich ist, die Emissionen abzuschätzen.“

Mittlerweile werden neuere KI-Modelle immer größer – und energieintensiver. Größere Modelle erfordern den Einsatz immer leistungsfähigerer Grafikprozessoren (GPUs) und das Training dauert länger – was mehr Ressourcen und Energie verbraucht, sagte Luccioni.

Noch unklarer ist die Menge an Wasser, die bei der Erstellung und Nutzung verschiedener KI-Modelle verbraucht wird. Rechenzentren verwenden Wasser in Verdunstungskühlsystemen, um eine Überhitzung der Geräte zu verhindern. Eine nicht von Experten begutachtete Studie, die von Forschern der UC Riverside durchgeführt wurde, schätzt, dass das Training von GPT3 in den hochmodernen US-Rechenzentren von Microsoft möglicherweise 700.000 Liter (184.920,45 Gallonen) Süßwasser verbraucht hätte.

In Ermangelung genauer, öffentlicher Daten mussten die Forscher die „Wassernutzungseffektivität“ oder das Verhältnis von Energie, die ein Rechenzentrum verbraucht, und Wasser, das zu seiner Kühlung und Funktionsfähigkeit verwendet wird, basierend auf dem von Microsoft selbst gemeldeten Durchschnitt annehmen.

Die tatsächliche Anzahl der verbrauchten Liter kann erheblich variieren, je nachdem, wo und wann genau GPT-3 trainiert wurde – im sengenden Arizona wäre viel Wasser erforderlich, um eine Überhitzung der Server zu verhindern, während ein Zentrum in Wyoming möglicherweise weniger Wasser verbraucht. Auch die Gestaltung der jeweiligen Rechenzentren könnte die Zahlen stark beeinflussen. Anstatt wasserintensive Verdunstungskühlsysteme zu verwenden, könnte ein Zentrum herkömmliche Klimaanlagen verwenden, die weniger Wasser, aber mehr Strom verbrauchen.

Google war der erste Technologieriese, der seinen Wasserverbrauch weltweit öffentlich machte, lieferte jedoch Durchschnittszahlen, die wichtige Details über die lokalen Auswirkungen seiner Rechenzentren verheimlichten. Nach einem langwierigen Rechtsstreit mit dem Oregonian veröffentlichte die Stadt Dalles, Oregon, Daten, aus denen hervorgeht, dass Google-Rechenzentren ein Viertel der Wasserversorgung der Stadt verbrauchen.

Da die Wassernutzungseffektivität eines KI-Projekts genutzt werden könnte, um die Rechenkapazität abzuschätzen, möchten Unternehmen ihren Wasserverbrauch geheim halten, sagte Shaolei Ren, außerordentlicher Professor für Elektro- und Computertechnik an der UC Riverside. „Sie wollen uns so wenig Informationen wie möglich geben“, sagte er.

Im Allgemeinen neigen Unternehmen dazu, Rechenzentren dort zu bauen, wo der Strom günstig ist. Da große Technologieunternehmen wie Google und Microsoft ein Netto-Null-Emissionsziel anstreben, sind sie möglicherweise besonders motiviert, in Gebieten zu bauen, in denen es reichlich Solar- oder Windenergie gibt – wie Arizona –, aber Wasser knapp ist.

Meta und OpenAI reagierten nicht auf die Bitte des Guardian um einen Kommentar. Google und Microsoft lehnten eine offizielle Antwort ab.

Als Spitzenmanager führender KI-Unternehmen eine Regulierung forderten, um das von der KI ausgehende „existentielle Risiko“ zu verhindern, löste dies Spekulationen über die Bedrohungen aus, die die Superintelligenz für die Gesellschaft darstellt. Forscher warnten jedoch davor, dass eines der unmittelbareren und relevanteren Risiken die Umwelt sei.

Wenn Unternehmen transparenter über die verwendeten natürlichen Ressourcen und die freigesetzten CO2-Emissionen bei der Erstellung und Nutzung von KI-Modellen werden, könnten sie dazu beitragen, Diskussionen darüber anzustoßen, wann und wie generative KI strategisch eingesetzt werden sollte, sagte Luccioni. Der Einsatz generativer KI-Technologie in der Krebsbehandlung mag die Umweltkosten lohnen, in anderen Fällen wäre es jedoch eine Verschwendung, sie einzusetzen.

Und doch ist generative KI zu einer Fixierung geworden. „Es gibt die Vorstellung, dass Ihr Unternehmen passé ist, wenn Sie es nicht nutzen“, sagte Luccioni.

Vor ein paar Monaten bot OpenAI einen kostenpflichtigen Zugang zur Integration von ChatGPT in ihre Apps an, und Unternehmen wie Instacart, der Online-Lebensmittellieferdienst, nutzen die Funktion, um Einkaufslisten und Zutatenempfehlungen anzupassen. Und letzten Monat kündigte Google an, generative KI in Gmail und die Suche zu integrieren – und dabei exponentiell komplexere und energieintensivere Technologien zu nutzen, um im Wesentlichen dieselben Aufgaben zu erfüllen. Unternehmen haben vorgeschlagen, ähnliche Tools zur Aufdeckung von Bankbetrug zu verwenden und statistische Modelle anzufechten, die bei der Aufdeckung bereits recht gut sind.

„Es ist frustrierend, weil es tatsächlich so viele schonende, effiziente KI-Ansätze und -Methoden gibt, die Menschen im Laufe der Jahre entwickelt haben, aber die Menschen wollen generative KI für alles nutzen“, sagte Luccioni. „Es ist, als würde man mit einem Mikroskop einen Nagel einschlagen – es mag zwar funktionieren, aber dafür ist dieses Werkzeug eigentlich nicht gedacht.“