Der CEO von OpenAI hat über den Energieverbrauch von Künstlicher Intelligenz und deren Rechenzentren nachgedacht.
In einem der letzten Beiträge seines persönlichen Blogs hat Sam Altman einen Aspekt der Künstlichen Intelligenz beleuchtet, der oft übersehen wird, jedoch von großer Bedeutung ist: den Energieverbrauch. Haben Sie sich jemals über die Umweltauswirkungen Ihrer Abfragen bei ChatGPT oder anderen KI-Tools Gedanken gemacht?
Der Experte hat sein Interesse am Energieverbrauch dieser Technologie zum Ausdruck gebracht, dessen Nachfrage in den kommenden Jahren weiter zunehmen wird. Bewusst, dass viele Nutzer auch Bedenken hinsichtlich der „dunklen Seite“ der Künstlichen Intelligenz haben, hat er klargestellt, wie hoch der tatsächliche Verbrauch beim Einsatz dieser Technologie ist.
Der Energie- und Wasserverbrauch pro Abfrage
„Eine durchschnittliche Anfrage verbraucht etwa 0,34 Wattstunden, was ungefähr dem Energieverbrauch eines Ofens in etwas mehr als einer Sekunde oder einer Energiesparlampe in wenigen Minuten entspricht“, erklärt der CEO von OpenAI.
Doch damit ist es nicht getan; die KI benötigt auch Wasser zur Kühlung ihrer Rechenzentren. Für jede Anfrage „werden etwa 0,00032176 Liter Wasser verbraucht, was ungefähr einem fünfzehntel eines Teelöffels entspricht“, hebt er hervor.
Auf der Suche nach nachhaltigen Lösungen
Um sich der Größe des Problems bewusst zu werden, erklärt Sam Altman, dass man die gesamte Anzahl täglicher Anfragen an ChatGPT berücksichtigen sollte. Derzeit liegt diese Zahl bei etwa 2,5 Milliarden Anfragen pro Tag, ohne die anderen Chatbots und KI-Tools, die weltweit verfügbar sind, zu berücksichtigen.
So hat der Erfinder von ChatGPT auch darauf abgezielt, ein besseres Verständnis für die Umweltauswirkungen dieser Technologien zu schaffen. In diesem Zusammenhang hat Sam Altman bereits erklärt, dass eines seiner Ziele darin besteht, eine Künstliche Intelligenz zu entwickeln, die ihren eigenen Energieverbrauch optimieren kann, um so die Energieeffizienz zu verbessern.









