KI-Energieverbrauch-Rechner: Was kostet eine ChatGPT- oder Claude-Anfrage wirklich?

Strom, CO₂ und Wasser pro KI-Anfrage – transparent berechnet und verglichen

Eine einzige ChatGPT-Anfrage verbraucht laut IEA (2024) bis zu 10× mehr Strom als eine Google-Suche. Wer täglich 20 KI-Abfragen stellt, verbraucht im Jahr so viel Energie wie hunderte Smartphone-Ladungen – und verdampft dabei Kühlwasser in der Größenordnung einer kleinen Badewanne. Dieser Rechner macht den versteckten Ressourcenverbrauch von KI-Tools wie ChatGPT, Claude, Gemini und Co. sichtbar und vergleichbar – mit Jahreshochrechnung, CO₂-Äquivalent und konkreten Alltagsvergleichen.

🤖 KI-Nutzung eingeben – Verbrauch sofort berechnen
ChatGPT-4o (GPT-4 Turbo): ca. 0,003–0,010 kWh pro Textanfrage · Quelle: IEA 2024, Goldman Sachs 2024
Längere Ausgaben = mehr Token = mehr Rechenaufwand = höherer Verbrauch
1 20 Anfragen/Tag 200
Anfragen/Tag
Beeinflusst ausschließlich den CO₂-Wert. Strom- und Wasserverbrauch bleiben gleich.
Werte aktualisieren sich auch automatisch bei jeder Änderung · alle Angaben sind Schätzwerte (siehe Methodik)

KI-Energieverbrauch 2026: Was eine Anfrage wirklich kostet – vollständige Analyse

Künstliche Intelligenz ist die ressourcenintensivste Technologie, die je in den Massenmarkt eingeführt wurde. Während eine Google-Suche weniger als eine Sekunde Rechenzeit und etwa 0,0003 kWh Strom benötigt, ist eine vollständige ChatGPT-4o-Antwort nach Schätzungen der IEA 5- bis 50-mal so energieintensiv. Was das für den Alltag, die Klimabilanz und die globale Infrastruktur bedeutet – dieser Ratgeber rechnet es durch.

Warum verbraucht KI so viel Energie?

Große Sprachmodelle (Large Language Models, LLMs) wie GPT-4, Claude oder Gemini bestehen aus Milliarden von Parametern – mathematischen Gewichten, die bei jeder Anfrage durch Grafikprozessoren (GPUs) berechnet werden müssen. Diese GPUs (meist NVIDIA H100 oder A100) sind hocheffizient, aber extrem leistungshungrig: Ein einzelner H100-Chip hat eine Thermal Design Power von bis zu 700 Watt. In einem modernen KI-Rechenzentrum laufen Tausende solcher Chips parallel.

Der Energieverbrauch entsteht auf drei Ebenen:

  • Rechenleistung (Inference): Die eigentliche Berechnung der Antwort. Je größer das Modell und je länger die Ausgabe, desto mehr Rechenzeit und Strom.
  • Kühlung: Rechenzentren müssen aktiv gekühlt werden. Für jeden Watt Rechenleistung werden typischerweise 0,3–0,6 Watt zusätzlich für Kühlung benötigt (PUE-Faktor 1,3–1,6).
  • Infrastruktur: Netzwerke, Speicher, Beleuchtung, Sicherheit – auch das fließt anteilig in die Bilanz ein.

Zahlen pro Anfrage: Strom, CO₂, Wasser

Da KI-Anbieter keine offiziellen Verbrauchsdaten pro Anfrage veröffentlichen, basieren alle Schätzungen auf indirekten Berechnungen aus Rechenzentrumskapazitäten, Modellarchitekturen und Nachhaltigkeitsberichten. Die folgende Tabelle zeigt die aktuell belastbarsten Schätzwerte:

KI-ToolStrom pro Anfrage (Wh)CO₂ pro Anfrage (g, DE-Mix)Wasser pro Anfrage (ml)Quelle / Basis
Google-Suche (Vergleich)0,3 Wh0,11 g~1 mlGoogle Environmental Report 2023
ChatGPT-3.5 (kurze Anfrage)~1,0 Wh~0,38 g~10 mlIEA 2024 / Goldman Sachs 2024
ChatGPT-4o (kurze Anfrage)~3,5 Wh~1,3 g~25 mlIEA 2024 / Schätzung
ChatGPT-4o (langer Text)~10 Wh~3,8 g~60 mlLuccioni et al. 2023 (hochgerechnet)
Claude Sonnet (kurze Anfrage)~2,5 Wh~0,95 g~18 mlSchätzung auf Basis Modellgröße
Gemini Pro (kurze Anfrage)~3,0 Wh~1,1 g~22 mlSchätzung auf Basis Google-Berichte
Llama 3 lokal (kurze Anfrage)~0,5 Wh~0,19 g~0 ml (keine Rechenzentrumskühlung)Eigene Berechnung (GPU-Leistung)
DALL-E / Midjourney (1 Bild)~25 Wh~9,5 g~150 mlLuccioni et al. 2023

Alle Werte: Schätzwerte mit erheblichem Unsicherheitsbereich (Faktor 2–10). CO₂-Werte basieren auf deutschem Strommix 2025: ~380 g CO₂/kWh (Bundesnetzagentur).

Modellvergleich: ChatGPT vs. Claude vs. Gemini vs. Llama

Die Unterschiede zwischen den Modellen sind erheblich – und hängen vor allem von der Modellgröße (Anzahl der Parameter) und der Effizienz der Infrastruktur ab.

ModellAnbieterModellgröße (geschätzt)Relativer VerbrauchBesonderheit
GPT-4oOpenAI~200 Mrd. Parameter⬛⬛⬛⬛⬜Multimodal (Text + Bild + Audio)
Claude 3.5 SonnetAnthropic~70 Mrd. Parameter (geschätzt)⬛⬛⬛⬜⬜Effizienter als Opus; Constitutional AI
Gemini 1.5 ProGoogleunbekannt⬛⬛⬛⬜⬜Sehr langer Kontextfenster (1M Token)
Llama 3.1 70B (lokal)Meta (Open Source)70 Mrd. Parameter⬛⬜⬜⬜⬜Kein Rechenzentrum nötig; kein Wasserverbrauch
Mistral 7B (lokal)Mistral AI7 Mrd. Parameter⬛⬜⬜⬜⬜Sehr effizient; läuft auf normalem Laptop
DALL-E 3 / MidjourneyOpenAI / MidjourneyDiffusion Model⬛⬛⬛⬛⬛Höchster Verbrauch aller KI-Typen
Wichtig: Lokale Modelle (Llama, Mistral auf eigenem PC/Mac) verbrauchen zwar Strom über den lokalen Rechner, haben aber keinen Rechenzentrum-Wasserverbrauch und keinen PUE-Overhead. Bei Nutzung von 100 % Ökostrom im Haushalt ist der CO₂-Fußabdruck eines lokalen Modells nahezu null.

Sonderfall Bildgenerierung: Bis zu 10× mehr Verbrauch

Bildgenerierende Modelle (DALL-E, Midjourney, Stable Diffusion, Adobe Firefly) sind deutlich energieintensiver als Textmodelle. Der Grund: Diffusionsmodelle führen typischerweise 50–100 Rechenschritte (Denoising-Steps) pro Bild durch, wobei jeder Schritt ein vollständiges Forward-Pass durch das Modell darstellt.

Für die Produktion eines einzigen Bildes mit hoher Qualität (1024×1024 px, 50 Steps) werden nach Luccioni et al. (2023) zwischen 0,002 und 0,07 kWh benötigt – je nach Modell und Auflösung. Das entspricht beim deutschen Strommix 0,76 bis 26,6 Gramm CO₂ pro Bild.

TätigkeitStrom (Wh)CO₂ (g, DE-Mix)Faktor vs. Google-Suche
Google-Suche0,3 Wh0,11 g
ChatGPT-4o Textanfrage (kurz)~3,5 Wh~1,3 g~12×
ChatGPT-4o Textanfrage (lang)~10 Wh~3,8 g~33×
Bildgenerierung (mittlere Qualität)~25 Wh~9,5 g~83×
Video-KI (1 Minute, z.B. Sora)~500–2.000 Wh~190–760 g~1.600–6.600×
Smartphone einmal laden (Vergleich)~15 Wh~5,7 g~50×

Rechenzentren und globaler Strombedarf

Der Boom der generativen KI treibt den globalen Strombedarf von Rechenzentren auf ein historisches Niveau. Laut IEA-Bericht „Electricity 2024" werden KI-Rechenzentren bis 2026 weltweit 1.000 Terawattstunden (TWh) pro Jahr verbrauchen – das entspricht in etwa dem gesamten Stromverbrauch Japans.

JahrGlobaler RZ-Strombedarf (TWh)Anteil KI-spezifischVergleich
2022~460 TWh~5 %= Spanien + Portugal
2024~620 TWh~20 %= Deutschland + Österreich
2026 (Prognose)~1.000 TWh~40 %= Japan
2030 (Prognose)~1.500–2.000 TWh~60 %= Indien (2024)

Quellen: IEA Electricity 2024; Goldman Sachs AI Infrastructure Report 2024.

Einordnung für Deutschland: Der gesamte deutsche Stromverbrauch lag 2024 bei ca. 485 TWh. Der weltweite KI-Strombedarf 2026 entspricht also bereits etwa dem doppelten deutschen Jahresstromverbrauch – und wächst weiter exponentiell.

Wasserverbrauch: der unsichtbare Fußabdruck

Weniger bekannt als der Stromverbrauch ist der Wasserverbrauch der KI-Industrie. Rechenzentren kühlen ihre Server-Racks mit Wasser – entweder durch direkte Verdampfung (evaporative Kühlung) oder durch Wärmetauscher. Das Wasser wird dabei nicht verschmutzt, sondern verdunstet und steht dem lokalen Wasserkreislauf nicht mehr zur Verfügung.

Microsoft gab in seinem Nachhaltigkeitsbericht 2024 an, dass der Wasserverbrauch seiner Rechenzentren von 2022 auf 2023 um 34 % gestiegen ist – direkte Folge der massiven KI-Investitionen (insbesondere für das Training von GPT-4). Google verzeichnete einen ähnlichen Anstieg von 20 %.

VerbrauchsartWasser pro Anfrage (ml)Entspricht
Google-Suche~1 ml1 Tropfen
ChatGPT-4o kurze Anfrage~25 mlEin kleiner Schluck
ChatGPT-4o lange Anfrage~60 mlEin Espresso
Bildgenerierung (1 Bild)~150 mlEin kleines Glas Wasser
20 Anfragen/Tag × 365 Tage~182.500 ml = 182 Liter~1 Badewanne voll (180 L)

Alltagsvergleiche: Was ist eine KI-Anfrage wert?

Abstrakte Wattstunden-Zahlen sagen wenig. Diese Vergleiche helfen beim Einordnen:

AktivitätStrom (Wh)CO₂ (g, DE-Mix)
1 ChatGPT-4o-Anfrage (kurz)~3,5 Wh~1,3 g
1 Google-Suche0,3 Wh0,11 g
1 E-Mail versenden~0,05 Wh~0,02 g
1 Minute YouTube-Streaming~1,5 Wh~0,57 g
Smartphone einmal laden (15 Wh)15 Wh~5,7 g
1 Stunde Laptop-Nutzung~50 Wh~19 g
1 km Auto fahren (Diesel, 6 L/100 km)~160 g
20 ChatGPT-Anfragen/Tag (1 Jahr)~25,5 kWh~9,7 kg
Perspektive: 20 ChatGPT-Anfragen täglich über ein Jahr verbrauchen ungefähr so viel Strom wie ein moderner Kühlschrank in 2 Monaten (ca. 150 kWh/Jahr → ~25 kWh in 2 Monaten). Das ist kein dramatischer Wert für eine Einzelperson – aber bei 200 Millionen täglich aktiven ChatGPT-Nutzern multipliziert sich dieser Verbrauch zu astronomischen Zahlen.

Wie kann man den KI-Verbrauch reduzieren?

  • Kleinere Modelle für einfache Aufgaben nutzen: Für kurze Zusammenfassungen oder einfache Fragen reicht GPT-3.5 oder Claude Haiku – mit einem Bruchteil des Energieverbrauchs von GPT-4o oder Claude Opus.
  • Lokale Modelle installieren: Llama 3, Mistral oder Phi-3 laufen auf modernen Laptops (M2/M3 Mac, NVIDIA GPU). Kein Rechenzentrum, kein Wasserverbrauch, volle Datenkontrolle. Tools: Ollama, LM Studio, Jan.
  • Anfragen bündeln und präzisieren: Eine präzise Anfrage statt fünf ungenaue Nachfragen spart 80 % des Verbrauchs. Gut formulierte Prompts = weniger Tokens = weniger Energie.
  • Anbieter mit Ökostrom bevorzugen: Google und Microsoft betreiben ihre Rechenzentren mit wachsenden Anteilen erneuerbarer Energie. Bei gleichem Strommix (100 % Erneuerbar) sinkt der CO₂-Fußabdruck auf nahezu null.
  • Bildgenerierung bewusst einsetzen: Ein einziges KI-Bild verbraucht so viel Energie wie ~7 ChatGPT-Textanfragen. Stock-Fotos oder manuelle Grafiken haben oft einen geringeren ökologischen Fußabdruck.
  • Ergebnisse cachen und wiederverwenden: Wer häufig dieselben Anfragen stellt, kann Antworten speichern und wiederverwendete statt neu erzeugte Ausgaben nutzen.

FAQ: Häufige Fragen zum KI-Energieverbrauch

Warum veröffentlichen OpenAI und Google keine exakten Zahlen?

Zum einen ist es aus Wettbewerbsgründen heikel, Infrastrukturdetails preiszugeben. Zum anderen variiert der Verbrauch pro Anfrage erheblich je nach Modell-Auslastung, Antwortlänge und technischer Infrastruktur. Eine Durchschnittszahl wäre schwer zu verteidigen und würde Kritik provozieren.

Ist Training oder Inference (Nutzung) energieintensiver?

Das Training eines großen Modells wie GPT-4 hat schätzungsweise 50–100 Millionen US-Dollar Energiekosten verursacht und mehrere GWh Strom verbraucht – einmalig. Das ist enorm, aber einmalig. Die Inference (alltägliche Nutzung) passiert dagegen Milliarden Mal täglich und summiert sich langfristig zu einem vielfachen des Trainingsaufwands.

Ist KI-Nutzung schlechter für das Klima als andere Technologien?

Im Einzelfall nicht dramatisch: Eine Anfrage entspricht dem CO₂-Verbrauch von wenigen Sekunden Autofahrt. Das Problem ist die Skalierung: Wenn Milliarden Menschen täglich Dutzende Anfragen stellen, entstehen die CO₂-Mengen ganzer Industrien.

Rechnet der Fixrechner auch Training-Kosten ein?

Nein. Dieser Rechner bezieht sich ausschließlich auf die Inference-Phase – also den Verbrauch beim tatsächlichen Nutzen des Modells. Training-Kosten werden auf die Nutzungsdauer umgerechnet nur zu einem sehr kleinen Anteil pro Anfrage wirksam und werden aus Gründen der Unsicherheit nicht einbezogen.

Weitere passende Rechner auf Fixrechner.de

Quellen & Datengrundlage

  • IEA – Electricity 2024: Globaler Strombedarf von Rechenzentren und KI
  • Goldman Sachs – AI Infrastructure: Too Much Spend, Too Little Benefit? (2024)
  • Luccioni, A. et al. – Power Hungry Processing: Watts Driving the Cost of AI Deployment? (2023, ACM)
  • Microsoft – Environmental Sustainability Report 2024 (Wasserverbrauch +34 %)
  • Google – Environmental Report 2024 (Strommix, Wasserverbrauch)
  • Bundesnetzagentur – Monitoringbericht 2025 (CO₂-Intensität Strommix Deutschland: ~380 g/kWh)
  • Strubell, E. et al. – Energy and Policy Considerations for Deep Learning in NLP (2019, Univ. Massachusetts)

Stand: März 2026. Da die Datenlage sich schnell verändert, werden die Schätzwerte halbjährlich auf Basis neuer Forschung aktualisiert. Alle Werte sind Mittelwerte mit erheblichem Unsicherheitsbereich.

Vertrauen Sie unserer Expertise

Daniel Niedermayer

Daniel Niedermayer

Geschäftsführer

Zuletzt geprüft am: 12. März 2026

Unsere Methodik

Dieser Rechner basiert auf Schätzwerten aus wissenschaftlichen Studien und Nachhaltigkeitsberichten. Da KI-Anbieter keine offiziellen Verbrauchsdaten pro Anfrage veröffentlichen, wurden mittlere Schätzwerte aus der verfügbaren Literatur verwendet und mit einem Unsicherheitsbereich von Faktor 2–10 ausgewiesen. CO₂-Werte werden je nach gewähltem Strommix dynamisch berechnet.

Mehr zur Methodik erfahren

4,9 von 5 Sternen

Basierend auf über 1.893 echten Nutzerbewertungen

Ergebnisse einer umfassenden Nutzerbefragung auf unserer Website im April 2025

Daniel G.

Die Qualität der Rechner ist enorm, und das kostenlos. Besten Dank.

Daniel G.

Head of Sales & Business Development

Sabine K.

Neben den Rechnern für den Arbeitsalltag finde ich auch die rund um die eigene Finanzplanung sehr hilfreich.

Sabine K.

Agentur Geschäftsführerin

Jeremiah H.

Ich schätze die Genauigkeit und Benutzerfreundlichkeit dieser Rechner sehr.

Jeremiah H.

 

Fixrechner.de ist Ihre vertrauenswürdige Plattform für präzise Online-Berechnungen. Unser Ziel: komplexe Zusammenhänge verständlich machen – mit klaren Eingaben, transparenter Logik und Ergebnissen, die man sofort einordnen kann.

Präzision & Genauigkeit

Alle Rechner werden von Experten entwickelt und regelmäßig auf Aktualität geprüft.

🔒

Datenschutz garantiert

Wir speichern keine persönlichen Eingaben. Alles bleibt in deinem Browser.

🔬

Wissenschaftlich fundiert

Basierend auf peer-reviewed Studien und offiziellen Nachhaltigkeitsberichten.

Letzte Aktualisierung: 12. März 2026