Der Energieverbrauch generativer KI steigt, aber die Rolle des ROI ist unklar

Photo of author

By Jasper Thomas

IT-Führungskräfte müssen bei der Entwicklung eines Geschäftsmodells für generative KI mehrere Kostenüberlegungen berücksichtigen – einige davon sind offensichtlich, andere verborgen.

Gebühren im Zusammenhang mit großen Sprachmodellen (LLMs) und SaaS-Abonnements gehören zu den sichtbarsten Ausgaben. Hinzu kommen jedoch die weniger offensichtlichen Kosten der Technologieeinführung: Aufbereitung von Daten, Aktualisierung der Cloud-Infrastruktur und Bewältigung organisatorischer Veränderungen.

Ein weiterer latenter Kostenfaktor ist der Energieverbrauch der generativen KI (GenAI). Das Training von LLMs erfordert enorme Rechenleistung, ebenso wie das Reagieren auf Benutzeranfragen – zum Beispiel das Beantworten von Fragen oder das Erstellen von Bildern. Solche rechenintensiven Funktionen erzeugen Wärme und erfordern aufwändige Kühlsysteme für Rechenzentren, die auch Energie verbrauchen.

Unternehmenskunden von GenAI-Tools haben sich nicht auf den Energiebedarf der Technologie fixiert. Doch diesen Anforderungen wird zunehmend Beachtung geschenkt, zumindest auf hohem Niveau. Im Januar prognostizierte die Internationale Energieagentur (IEA), ein Forum von 29 Industrienationen, den weltweiten „Stromverbrauch anhand von Daten“. [centers]KI und Kryptowährung könnten sich bis 2026 verdoppeln.“ IEAs „Electricity 2024“-Bericht notiert Der Stromverbrauch von Rechenzentren könnte im Jahr 2026 mehr als 1.000 Terawattstunden erreichen, eine Summe, die die Agentur mit dem gesamten Stromverbrauch Japans verglich.

Goldman Sachs im April Bericht verwies auch auf den steigenden Energieverbrauch und nannte KI als einen Grund dafür. Laut dem Finanzdienstleistungsunternehmen hat das Wachstum durch KI – zusammen mit anderen Faktoren, wie zum Beispiel einem breiteren Energiebedarf – zu einem „Stromschub aus Rechenzentren“ geführt. Der Bericht geht davon aus, dass sich der weltweite Stromverbrauch von Rechenzentren bis 2030 mehr als verdoppeln wird.

Was ein höherer Energieverbrauch für GenAI-ROI-Berechnungen bedeutet, bleibt unklar. Bisher überwogen die erwarteten Vorteile des Einsatzes generativer KI die Bedenken hinsichtlich der Energiekosten. Das typische Geschäft ist in gewisser Weise davon abgeschirmt, sich direkt mit Energieaspekten auseinanderzusetzen, die vor allem für Hyperscaler ein Problem darstellen. Google beispielsweise meldete im Jahresvergleich einen Anstieg von 13 % Anstieg seiner Treibhausgasemissionen im Jahr 2023, unter Berufung auf einen höheren Energieverbrauch von Rechenzentren und auf KI als Mitverursacher.

„Da wir KI immer weiter in unsere Produkte integrieren, kann die Reduzierung der Emissionen aufgrund des steigenden Energiebedarfs aufgrund der größeren Intensität der KI-Berechnung eine Herausforderung darstellen“, sagte der Firma notiert in seinem „Umweltbericht 2024“.

Es wird Energie verbraucht – das ist nicht selbstverständlich. Irgendwo entstehen Kosten für das Unternehmen, und das müssen wir berücksichtigen.

Scott LikensUS-amerikanischer und globaler Chief AI Engineering Officer, PwC

Führungskräfte aus der Branche schlugen jedoch vor, dass Unternehmen als Konsumenten fortschrittlicher Technologie mit der Energiedimension von GenAI rechnen sollten – auch wenn dies kein entscheidendes Hindernis für die Einführung darstellt.

„Ich würde nicht sagen, dass es ein Hindernis war, aber wir glauben, dass es ein wichtiger Teil der langfristigen Strategie ist“, sagte Scott Likens, US-amerikanischer und globaler Chief AI Engineering Officer beim Beratungsunternehmen PwC. „Es wird Energie verbraucht – das ist nicht selbstverständlich. Irgendwo entstehen Kosten für das Unternehmen, und das müssen wir berücksichtigen.“

Abrechnung der Energiekosten

Unternehmenskunden von GenAI sehen Energiekosten möglicherweise nicht als Abrechnungsposten, sind aber dennoch vorhanden.

Ryan Gross, Senior Director für Daten und Anwendungen bei Caylent, einem AWS-Cloud-Services-Anbieter in Irvine, Kalifornien, sagte, dass der Energieverbrauch generativer KI direkt proportional zu den Kosten sei.

Ein Großteil der Energiekosten entsteht durch zwei Kategorien: Modelltraining und Modellinferenz. Die Modellinferenz erfolgt jedes Mal, wenn ein Benutzer ein GenAI-Tool auffordert, eine Antwort zu erstellen. Der mit einer einzelnen Abfrage verbundene Energieverbrauch ist im Vergleich zum Training eines LLM winzig – Bruchteile eines Cents im Vergleich zu Millionen von Dollar. Allerdings summieren sich der Leistungsbedarf und die Kosten einzelner Abfragen im Laufe der Zeit und über Millionen von Benutzern hinweg.

Wie die Kunden diese Kosten auffangen, bleibt etwas unklar. Ein Unternehmen, das eine Unternehmensversion eines generativen KI-Produkts nutzt, zahlt eine Lizenzgebühr für den Zugriff auf die Technologie. Soweit die Energiekosten in der Gebühr enthalten sind, werden diese Ausgaben auf den Kundenstamm verteilt.

Tatsächlich ein PwC NachhaltigkeitsstudieDie im Januar veröffentlichte Studie ergab, dass die Emissionen, die durch den Stromverbrauch der generativen KI – beispielsweise während des Modelltrainings – entstehen, auf alle Unternehmenseinheiten verteilt sind, die das Modell lizenzieren.

„Da die Grundschulung geteilt wird, verteilen sich die Kosten tatsächlich auf viele Benutzer“, sagte Likens.

Was die Inferenzkosten betrifft, verwenden GenAI-Anbieter ein Token-System, um die LLM-Nutzungsgebühren zu ermitteln. Für jeden Token wird eine Gebühr erhoben. Je komplexer die Abfrage, desto mehr Token verarbeitet der Anbieter. Mehr Token signalisieren einen höheren Energieverbrauch, da die Schlussfolgerung Strom erfordert. Die finanziellen Auswirkungen auf die Unternehmen scheinen jedoch minimal zu sein.

Energie zählt zu den GenAI-Kosten, ihre Rolle bei ROI-Berechnungen war jedoch auf diesen Punkt beschränkt.

„Die Token-Kosten sind seit letztem Jahr gesunken“, sagte Likens und verwies auf den internen Einsatz generativer KI durch PwC. „Die Schlussfolgerungskosten waren also nicht groß [cost] Treiber, auch wenn wir ihn häufiger verwenden.

Die größten Kostenfaktoren für den Einsatz generativer KI seien nach wie vor die üblichen Verdächtigen wie Infrastruktur und Datenaufbereitung, sagte Likens.

Rajesh Devnani, Vizepräsident für Energie und Versorgung bei Hitachi Digital Services, der Technologiedienstleistungstochter von Hitachi Ltd., äußerte eine ähnliche Einschätzung. Er erkannte die Bedeutung des Energieverbrauchs generativer KI an und verwies auf verschiedene Schätzungen, wonach eine GenAI-Anfrageantwort mindestens vier- bis fünfmal so viel Energie verbraucht wie eine typische Internet-Suchanfrage. Er wies jedoch darauf hin, dass andere Kostenfaktoren eine größere Rolle bei der Bestimmung einer finanziellen Rendite spielen: Datenaufbereitung und laufende Datenverwaltung; Schulung und Änderungsmanagement; und Modellschulung, die Infrastruktur- und Werkzeugkosten umfasst.

„Bei der ROI-Berechnung von GenAI sollten die Energiekosten auf jeden Fall als relevanter Kostenfaktor berücksichtigt werden, auch wenn sie nicht als der bedeutendste gelten würden“, sagte er.

Indirekte Beeinflussung des Energieverbrauchs

Für die meisten GenAI-Anwender scheinen erhöhte Energiekosten kein Problem zu sein. Aber sie könnten letztendlich indirekt den Verbrauch angehen, während sie andere Bereitstellungsherausforderungen angehen.

Diese Aussicht hat viel damit zu tun, wie Unternehmen ihre größten Hindernisse wahrnehmen. Bis vor kurzem habe die Kosteneffizienz von Modellen Unternehmen daran gehindert, GenAI von begrenzten Bereitstellungen auf ganze Kundenstämme zu skalieren, sagte Gross. Allerdings seien die Modelle der neuesten Generation sparsamer, fügte er hinzu.

Nach Angaben des Unternehmens ist beispielsweise der im Juli veröffentlichte GPT-4o mini von OpenAI hinsichtlich der Gebühr pro verarbeitetem Token 60 % günstiger als GPT-3.5 Turbo.

Vor diesem Hintergrund beginnen Unternehmen nun, sich auf die Erwartungen der Benutzer zu konzentrieren, insbesondere auf die Zeit, die benötigt wird, um eine an ein generatives KI-Modell gestellte Anfrage zu erfüllen.

„Es ist eher ein Latenzproblem“, sagte Gross. „Benutzer werden nicht akzeptieren, was wir von der Benutzerfreundlichkeit sehen [perspective].”

Unternehmen können jedoch auf kleinere, fein abgestimmte Modelle zurückgreifen, um die Latenz zu reduzieren. Solche Modelle erfordern im Allgemeinen weniger Rechenressourcen – und benötigen daher weniger Energie zum Betrieb. Laut Gross können Organisationen auch kleinere Modelle als Teil eines Multimodell-GenAI-Ansatzes einbeziehen. Mehrere Modelle bieten unterschiedliche Latenz- und Genauigkeitsstufen sowie unterschiedliche CO2-Fußabdrücke.

Darüber hinaus bedeutet das Aufkommen der agentischen KI, dass Probleme in mehrere Schritte unterteilt und über einen autonomen Agenten zum optimalen GenAI-Modell weitergeleitet werden können. Eingabeaufforderungen, die kein Allzweck-LLM erfordern, werden zur schnelleren Verarbeitung und – im Hintergrund – geringerem Energieverbrauch an kleinere Modelle weitergeleitet.

Doch trotz des gestiegenen Interesses an Latenz bleibt die Kosteneffizienz für GenAI-Anwender ein Problem.

„Im Allgemeinen versuchen wir, die Agentenarchitektur zu nutzen, um die Kosten zu optimieren“, sagte Likens. „Also, eine aufgeschlüsselte Frage nach dem richtigen Modell durchgehen, das am wenigsten Geld kostet und die höchste Genauigkeit bietet.“

Allerdings können Organisationen, die KI-Agenten entwickeln und effektive Agentenarchitekturen schaffen, auch den Energieverbrauch senken, so Likens.

Top-Rechenzentren befassen sich mit dem Energiebedarf der GenAI

Unternehmen, die generative KI nutzen, könnten sich indirekt mit dem Energieverbrauch befassen. Doch Rechenzentren, die Modelle trainieren und betreiben, sehen sich einem steigenden Energiebedarf gegenüber. Ihre wachsenden Investitionen in Kühlsysteme sind ein Beweis dafür.

Nach Angaben der Dell’Oro Group stieg die Wachstumsrate des Marktes für physische Rechenzentrumsinfrastruktur (DCPI) im zweiten Quartal 2024 zum ersten Mal seit fünf Quartalen. The Redwood City, Kalifornien, sagte ein Marktforschungsunternehmen Der Aufwärtstrend signalisiert den Beginn des „KI-Wachstumszyklus“ für Infrastrukturverkäufe.

Zu dieser Infrastruktur gehören Wärmemanagementsysteme. Lucas Beran, Forschungsdirektor bei der Dell’Oro Group, sagte, dass der Markt für Wärmemanagement im zweiten Quartal zu einer zweistelligen Wachstumsrate zurückgekehrt sei, nach einer einstelligen Rate im ersten Quartal. Beran fügte hinzu, dass das Wärmemanagement ein „bedeutsamer Teil“ der Rückstände bei DCPI-Anbietern sei, die seiner Meinung nach in der ersten Hälfte des Jahres 2024 deutlich zugenommen hätten.

Flüssigkeitskühlung gewinnt an Bedeutung

Im Bereich des Wärmemanagements gewinnt die Flüssigkeitskühlung zunehmend an Bedeutung, um Rechenzentren mit hoher Dichte zu kühlen, die KI-Arbeitslasten verarbeiten.

„Flüssigkeitskühlung leitet Wärme definitiv weitaus effizienter als Luftkühlung“, sagte Devnani.

Flüssigkeiten hätten eine höhere Wärmekapazität als Luft und könnten Wärme effizienter aufnehmen, sagte er. Er fügte hinzu, dass die Flüssigkeitskühlung aufgrund der Leistungsdichte von GenAI und verbesserter Hochleistungsrechner-Workloads immer relevanter werde.

Die Flüssigkeitskühlung stellt einen viel kleineren Teil des Marktes für das Wärmemanagement von Rechenzentren dar, aber die Methode verzeichnete im ersten Halbjahr 2024 ein starkes Umsatzwachstum, stellte Beran fest. Der Einsatz von Flüssigkeitskühlungen werde sich in der zweiten Hälfte des Jahres 2024 und bis ins Jahr 2025 hinein „erheblich beschleunigen“, fügte er hinzu und verwies auf KI-Workloads und beschleunigte Rechenplattformen wie die kommenden Blackwell-GPUs von Nvidia.

Darüber hinaus hat IDTechEx, ein Technologie- und Marktforschungsunternehmen mit Sitz in Cambridge, Großbritannien, projiziert Der jährliche Umsatz mit Flüssigkeitskühlung für Rechenzentren soll bis 2035 50 Milliarden US-Dollar überschreiten. Chips mit immer höheren TDP-Werten (Thermal Design Power) erfordern effizientere Wärmemanagementsysteme, sagte Yulin Wang, leitender Technologieanalyst bei IDTechEx. TDP ist die maximale Wärmemenge, die ein Chip erzeugt.

Wang sagte, das Unternehmen habe Chips mit einer TDP von rund 1.200 Watt beobachtet und sagte, dass Chips mit einer TDP von rund 1.500 Watt wahrscheinlich in den nächsten ein oder zwei Jahren auf den Markt kommen werden. Im Vergleich dazu könnte die CPU eines Laptops eine TDP von 15 Watt haben.

Kernkraft zur Bewältigung des KI-Energiebedarfs

Eine weitere Energiestrategie, die Gestalt annimmt, ist die Nutzung der Kernenergie für Rechenzentren, eine Richtung, die AWS, Google und Microsoft erkunden. AWS beispielsweise kaufte Anfang des Jahres den Campus des nuklear betriebenen Rechenzentrums von Talen Energy in Pennsylvania. Die Nutzung der Kernenergie soll dazu beitragen, dass riesige Rechenzentren mit dem Energiebedarf der KI Schritt halten und Nachhaltigkeitsziele erreichen. Kernkraft hat einen geringeren CO2-Fußabdruck als Energiequellen wie Kohle und Erdgas.

Die Energiemaßnahmen der Hyperscaler können letztendlich die Kühleffizienz verbessern, Nachhaltigkeit fördern und die Stromkosten der generativen KI unter Kontrolle halten. Das letztgenannte Ergebnis könnte Unternehmen weiterhin vor den ROI-Effekten der Energiebranche schützen. Dennoch kann die sorgfältige Auswahl von GenAI-Modellen, sei es durch Menschen oder KI-Agenten, zur Energieeinsparung beitragen.

Likens sagte, PwC beziehe „CO2-Auswirkungen“ in seinen Teil ein generatives KI-Wert-Schwungradein Framework zur Priorisierung von GenAI-Bereitstellungen, die das Unternehmen intern und bei Kunden verwendet.

„Es ist Teil der Entscheidungsfindung“, sagte er. „Die Kosten für Kohlenstoff sind da drin, also sollten wir sie nicht ignorieren.“

John Moore ist Autor für TechTarget Editorial und berichtet über die Rolle des CIO, wirtschaftliche Trends und die IT-Dienstleistungsbranche.

Leave a Comment