KI-Energieverbrauch-Rechner: Was kostet eine ChatGPT- oder Claude-Anfrage wirklich?
Strom, CO₂ und Wasser pro KI-Anfrage – transparent berechnet und verglichen
Eine einzige ChatGPT-Anfrage verbraucht laut IEA (2024) bis zu 10× mehr Strom als eine Google-Suche. Wer täglich 20 KI-Abfragen stellt, verbraucht im Jahr so viel Energie wie hunderte Smartphone-Ladungen – und verdampft dabei Kühlwasser in der Größenordnung einer kleinen Badewanne. Dieser Rechner macht den versteckten Ressourcenverbrauch von KI-Tools wie ChatGPT, Claude, Gemini und Co. sichtbar und vergleichbar – mit Jahreshochrechnung, CO₂-Äquivalent und konkreten Alltagsvergleichen.
KI-Energieverbrauch 2026: Was eine Anfrage wirklich kostet – vollständige Analyse
Künstliche Intelligenz ist die ressourcenintensivste Technologie, die je in den Massenmarkt eingeführt wurde. Während eine Google-Suche weniger als eine Sekunde Rechenzeit und etwa 0,0003 kWh Strom benötigt, ist eine vollständige ChatGPT-4o-Antwort nach Schätzungen der IEA 5- bis 50-mal so energieintensiv. Was das für den Alltag, die Klimabilanz und die globale Infrastruktur bedeutet – dieser Ratgeber rechnet es durch.
Inhaltsverzeichnis
- Warum verbraucht KI so viel Energie?
- Zahlen pro Anfrage: Strom, CO₂, Wasser
- Modellvergleich: ChatGPT vs. Claude vs. Gemini vs. Llama
- Sonderfall Bildgenerierung: 10× mehr Verbrauch
- Rechenzentren und globaler Strombedarf
- Wasserverbrauch: der unsichtbare Fußabdruck
- Alltagsvergleiche: Was ist eine KI-Anfrage wert?
- Wie kann man den Verbrauch reduzieren?
- FAQ
- Quellen
Warum verbraucht KI so viel Energie?
Große Sprachmodelle (Large Language Models, LLMs) wie GPT-4, Claude oder Gemini bestehen aus Milliarden von Parametern – mathematischen Gewichten, die bei jeder Anfrage durch Grafikprozessoren (GPUs) berechnet werden müssen. Diese GPUs (meist NVIDIA H100 oder A100) sind hocheffizient, aber extrem leistungshungrig: Ein einzelner H100-Chip hat eine Thermal Design Power von bis zu 700 Watt. In einem modernen KI-Rechenzentrum laufen Tausende solcher Chips parallel.
Der Energieverbrauch entsteht auf drei Ebenen:
- Rechenleistung (Inference): Die eigentliche Berechnung der Antwort. Je größer das Modell und je länger die Ausgabe, desto mehr Rechenzeit und Strom.
- Kühlung: Rechenzentren müssen aktiv gekühlt werden. Für jeden Watt Rechenleistung werden typischerweise 0,3–0,6 Watt zusätzlich für Kühlung benötigt (PUE-Faktor 1,3–1,6).
- Infrastruktur: Netzwerke, Speicher, Beleuchtung, Sicherheit – auch das fließt anteilig in die Bilanz ein.
Zahlen pro Anfrage: Strom, CO₂, Wasser
Da KI-Anbieter keine offiziellen Verbrauchsdaten pro Anfrage veröffentlichen, basieren alle Schätzungen auf indirekten Berechnungen aus Rechenzentrumskapazitäten, Modellarchitekturen und Nachhaltigkeitsberichten. Die folgende Tabelle zeigt die aktuell belastbarsten Schätzwerte:
| KI-Tool | Strom pro Anfrage (Wh) | CO₂ pro Anfrage (g, DE-Mix) | Wasser pro Anfrage (ml) | Quelle / Basis |
|---|---|---|---|---|
| Google-Suche (Vergleich) | 0,3 Wh | 0,11 g | ~1 ml | Google Environmental Report 2023 |
| ChatGPT-3.5 (kurze Anfrage) | ~1,0 Wh | ~0,38 g | ~10 ml | IEA 2024 / Goldman Sachs 2024 |
| ChatGPT-4o (kurze Anfrage) | ~3,5 Wh | ~1,3 g | ~25 ml | IEA 2024 / Schätzung |
| ChatGPT-4o (langer Text) | ~10 Wh | ~3,8 g | ~60 ml | Luccioni et al. 2023 (hochgerechnet) |
| Claude Sonnet (kurze Anfrage) | ~2,5 Wh | ~0,95 g | ~18 ml | Schätzung auf Basis Modellgröße |
| Gemini Pro (kurze Anfrage) | ~3,0 Wh | ~1,1 g | ~22 ml | Schätzung auf Basis Google-Berichte |
| Llama 3 lokal (kurze Anfrage) | ~0,5 Wh | ~0,19 g | ~0 ml (keine Rechenzentrumskühlung) | Eigene Berechnung (GPU-Leistung) |
| DALL-E / Midjourney (1 Bild) | ~25 Wh | ~9,5 g | ~150 ml | Luccioni et al. 2023 |
Alle Werte: Schätzwerte mit erheblichem Unsicherheitsbereich (Faktor 2–10). CO₂-Werte basieren auf deutschem Strommix 2025: ~380 g CO₂/kWh (Bundesnetzagentur).
Modellvergleich: ChatGPT vs. Claude vs. Gemini vs. Llama
Die Unterschiede zwischen den Modellen sind erheblich – und hängen vor allem von der Modellgröße (Anzahl der Parameter) und der Effizienz der Infrastruktur ab.
| Modell | Anbieter | Modellgröße (geschätzt) | Relativer Verbrauch | Besonderheit |
|---|---|---|---|---|
| GPT-4o | OpenAI | ~200 Mrd. Parameter | ⬛⬛⬛⬛⬜ | Multimodal (Text + Bild + Audio) |
| Claude 3.5 Sonnet | Anthropic | ~70 Mrd. Parameter (geschätzt) | ⬛⬛⬛⬜⬜ | Effizienter als Opus; Constitutional AI |
| Gemini 1.5 Pro | unbekannt | ⬛⬛⬛⬜⬜ | Sehr langer Kontextfenster (1M Token) | |
| Llama 3.1 70B (lokal) | Meta (Open Source) | 70 Mrd. Parameter | ⬛⬜⬜⬜⬜ | Kein Rechenzentrum nötig; kein Wasserverbrauch |
| Mistral 7B (lokal) | Mistral AI | 7 Mrd. Parameter | ⬛⬜⬜⬜⬜ | Sehr effizient; läuft auf normalem Laptop |
| DALL-E 3 / Midjourney | OpenAI / Midjourney | Diffusion Model | ⬛⬛⬛⬛⬛ | Höchster Verbrauch aller KI-Typen |
Sonderfall Bildgenerierung: Bis zu 10× mehr Verbrauch
Bildgenerierende Modelle (DALL-E, Midjourney, Stable Diffusion, Adobe Firefly) sind deutlich energieintensiver als Textmodelle. Der Grund: Diffusionsmodelle führen typischerweise 50–100 Rechenschritte (Denoising-Steps) pro Bild durch, wobei jeder Schritt ein vollständiges Forward-Pass durch das Modell darstellt.
Für die Produktion eines einzigen Bildes mit hoher Qualität (1024×1024 px, 50 Steps) werden nach Luccioni et al. (2023) zwischen 0,002 und 0,07 kWh benötigt – je nach Modell und Auflösung. Das entspricht beim deutschen Strommix 0,76 bis 26,6 Gramm CO₂ pro Bild.
| Tätigkeit | Strom (Wh) | CO₂ (g, DE-Mix) | Faktor vs. Google-Suche |
|---|---|---|---|
| Google-Suche | 0,3 Wh | 0,11 g | 1× |
| ChatGPT-4o Textanfrage (kurz) | ~3,5 Wh | ~1,3 g | ~12× |
| ChatGPT-4o Textanfrage (lang) | ~10 Wh | ~3,8 g | ~33× |
| Bildgenerierung (mittlere Qualität) | ~25 Wh | ~9,5 g | ~83× |
| Video-KI (1 Minute, z.B. Sora) | ~500–2.000 Wh | ~190–760 g | ~1.600–6.600× |
| Smartphone einmal laden (Vergleich) | ~15 Wh | ~5,7 g | ~50× |
Rechenzentren und globaler Strombedarf
Der Boom der generativen KI treibt den globalen Strombedarf von Rechenzentren auf ein historisches Niveau. Laut IEA-Bericht „Electricity 2024" werden KI-Rechenzentren bis 2026 weltweit 1.000 Terawattstunden (TWh) pro Jahr verbrauchen – das entspricht in etwa dem gesamten Stromverbrauch Japans.
| Jahr | Globaler RZ-Strombedarf (TWh) | Anteil KI-spezifisch | Vergleich |
|---|---|---|---|
| 2022 | ~460 TWh | ~5 % | = Spanien + Portugal |
| 2024 | ~620 TWh | ~20 % | = Deutschland + Österreich |
| 2026 (Prognose) | ~1.000 TWh | ~40 % | = Japan |
| 2030 (Prognose) | ~1.500–2.000 TWh | ~60 % | = Indien (2024) |
Quellen: IEA Electricity 2024; Goldman Sachs AI Infrastructure Report 2024.
Wasserverbrauch: der unsichtbare Fußabdruck
Weniger bekannt als der Stromverbrauch ist der Wasserverbrauch der KI-Industrie. Rechenzentren kühlen ihre Server-Racks mit Wasser – entweder durch direkte Verdampfung (evaporative Kühlung) oder durch Wärmetauscher. Das Wasser wird dabei nicht verschmutzt, sondern verdunstet und steht dem lokalen Wasserkreislauf nicht mehr zur Verfügung.
Microsoft gab in seinem Nachhaltigkeitsbericht 2024 an, dass der Wasserverbrauch seiner Rechenzentren von 2022 auf 2023 um 34 % gestiegen ist – direkte Folge der massiven KI-Investitionen (insbesondere für das Training von GPT-4). Google verzeichnete einen ähnlichen Anstieg von 20 %.
| Verbrauchsart | Wasser pro Anfrage (ml) | Entspricht |
|---|---|---|
| Google-Suche | ~1 ml | 1 Tropfen |
| ChatGPT-4o kurze Anfrage | ~25 ml | Ein kleiner Schluck |
| ChatGPT-4o lange Anfrage | ~60 ml | Ein Espresso |
| Bildgenerierung (1 Bild) | ~150 ml | Ein kleines Glas Wasser |
| 20 Anfragen/Tag × 365 Tage | ~182.500 ml = 182 Liter | ~1 Badewanne voll (180 L) |
Alltagsvergleiche: Was ist eine KI-Anfrage wert?
Abstrakte Wattstunden-Zahlen sagen wenig. Diese Vergleiche helfen beim Einordnen:
| Aktivität | Strom (Wh) | CO₂ (g, DE-Mix) |
|---|---|---|
| 1 ChatGPT-4o-Anfrage (kurz) | ~3,5 Wh | ~1,3 g |
| 1 Google-Suche | 0,3 Wh | 0,11 g |
| 1 E-Mail versenden | ~0,05 Wh | ~0,02 g |
| 1 Minute YouTube-Streaming | ~1,5 Wh | ~0,57 g |
| Smartphone einmal laden (15 Wh) | 15 Wh | ~5,7 g |
| 1 Stunde Laptop-Nutzung | ~50 Wh | ~19 g |
| 1 km Auto fahren (Diesel, 6 L/100 km) | – | ~160 g |
| 20 ChatGPT-Anfragen/Tag (1 Jahr) | ~25,5 kWh | ~9,7 kg |
Wie kann man den KI-Verbrauch reduzieren?
- Kleinere Modelle für einfache Aufgaben nutzen: Für kurze Zusammenfassungen oder einfache Fragen reicht GPT-3.5 oder Claude Haiku – mit einem Bruchteil des Energieverbrauchs von GPT-4o oder Claude Opus.
- Lokale Modelle installieren: Llama 3, Mistral oder Phi-3 laufen auf modernen Laptops (M2/M3 Mac, NVIDIA GPU). Kein Rechenzentrum, kein Wasserverbrauch, volle Datenkontrolle. Tools: Ollama, LM Studio, Jan.
- Anfragen bündeln und präzisieren: Eine präzise Anfrage statt fünf ungenaue Nachfragen spart 80 % des Verbrauchs. Gut formulierte Prompts = weniger Tokens = weniger Energie.
- Anbieter mit Ökostrom bevorzugen: Google und Microsoft betreiben ihre Rechenzentren mit wachsenden Anteilen erneuerbarer Energie. Bei gleichem Strommix (100 % Erneuerbar) sinkt der CO₂-Fußabdruck auf nahezu null.
- Bildgenerierung bewusst einsetzen: Ein einziges KI-Bild verbraucht so viel Energie wie ~7 ChatGPT-Textanfragen. Stock-Fotos oder manuelle Grafiken haben oft einen geringeren ökologischen Fußabdruck.
- Ergebnisse cachen und wiederverwenden: Wer häufig dieselben Anfragen stellt, kann Antworten speichern und wiederverwendete statt neu erzeugte Ausgaben nutzen.
FAQ: Häufige Fragen zum KI-Energieverbrauch
Warum veröffentlichen OpenAI und Google keine exakten Zahlen?
Zum einen ist es aus Wettbewerbsgründen heikel, Infrastrukturdetails preiszugeben. Zum anderen variiert der Verbrauch pro Anfrage erheblich je nach Modell-Auslastung, Antwortlänge und technischer Infrastruktur. Eine Durchschnittszahl wäre schwer zu verteidigen und würde Kritik provozieren.
Ist Training oder Inference (Nutzung) energieintensiver?
Das Training eines großen Modells wie GPT-4 hat schätzungsweise 50–100 Millionen US-Dollar Energiekosten verursacht und mehrere GWh Strom verbraucht – einmalig. Das ist enorm, aber einmalig. Die Inference (alltägliche Nutzung) passiert dagegen Milliarden Mal täglich und summiert sich langfristig zu einem vielfachen des Trainingsaufwands.
Ist KI-Nutzung schlechter für das Klima als andere Technologien?
Im Einzelfall nicht dramatisch: Eine Anfrage entspricht dem CO₂-Verbrauch von wenigen Sekunden Autofahrt. Das Problem ist die Skalierung: Wenn Milliarden Menschen täglich Dutzende Anfragen stellen, entstehen die CO₂-Mengen ganzer Industrien.
Rechnet der Fixrechner auch Training-Kosten ein?
Nein. Dieser Rechner bezieht sich ausschließlich auf die Inference-Phase – also den Verbrauch beim tatsächlichen Nutzen des Modells. Training-Kosten werden auf die Nutzungsdauer umgerechnet nur zu einem sehr kleinen Anteil pro Anfrage wirksam und werden aus Gründen der Unsicherheit nicht einbezogen.
Weitere passende Rechner auf Fixrechner.de
- Stromverbrauchs-Rechner – Haushaltsgeräte und Technik vergleichen
- Elektro vs. Verbrenner – CO₂-Bilanz Fahrzeuge
- Photovoltaik-Rechner – Ökostrom selbst erzeugen
Quellen & Datengrundlage
- IEA – Electricity 2024: Globaler Strombedarf von Rechenzentren und KI
- Goldman Sachs – AI Infrastructure: Too Much Spend, Too Little Benefit? (2024)
- Luccioni, A. et al. – Power Hungry Processing: Watts Driving the Cost of AI Deployment? (2023, ACM)
- Microsoft – Environmental Sustainability Report 2024 (Wasserverbrauch +34 %)
- Google – Environmental Report 2024 (Strommix, Wasserverbrauch)
- Bundesnetzagentur – Monitoringbericht 2025 (CO₂-Intensität Strommix Deutschland: ~380 g/kWh)
- Strubell, E. et al. – Energy and Policy Considerations for Deep Learning in NLP (2019, Univ. Massachusetts)
Stand: März 2026. Da die Datenlage sich schnell verändert, werden die Schätzwerte halbjährlich auf Basis neuer Forschung aktualisiert. Alle Werte sind Mittelwerte mit erheblichem Unsicherheitsbereich.
Vertrauen Sie unserer Expertise

Daniel Niedermayer
Geschäftsführer
Zuletzt geprüft am: 12. März 2026
Verwendete Quellen
Unsere Methodik
Dieser Rechner basiert auf Schätzwerten aus wissenschaftlichen Studien und Nachhaltigkeitsberichten. Da KI-Anbieter keine offiziellen Verbrauchsdaten pro Anfrage veröffentlichen, wurden mittlere Schätzwerte aus der verfügbaren Literatur verwendet und mit einem Unsicherheitsbereich von Faktor 2–10 ausgewiesen. CO₂-Werte werden je nach gewähltem Strommix dynamisch berechnet.
Mehr zur Methodik erfahrenFixrechner.de ist Ihre vertrauenswürdige Plattform für präzise Online-Berechnungen. Unser Ziel: komplexe Zusammenhänge verständlich machen – mit klaren Eingaben, transparenter Logik und Ergebnissen, die man sofort einordnen kann.
Präzision & Genauigkeit
Alle Rechner werden von Experten entwickelt und regelmäßig auf Aktualität geprüft.
Datenschutz garantiert
Wir speichern keine persönlichen Eingaben. Alles bleibt in deinem Browser.
Wissenschaftlich fundiert
Basierend auf peer-reviewed Studien und offiziellen Nachhaltigkeitsberichten.
Letzte Aktualisierung: 12. März 2026


