Accuracy-Rechner: Genauigkeit in % schnell ermitteln
Jetzt Methode wählen & Werte eingeben – Accuracy, Sensitivität & Spezifität berechnen
Mit unserem Accuracy-Rechner berechnen Sie die Genauigkeit (Accuracy) einer Klassifikation oder eines diagnostischen Tests – wahlweise über die Confusion Matrix, über Sensitivität/Spezifität & Prävalenz oder über den prozentualen Fehler (Percent Error). Geben Sie die passenden Werte ein – der Rechner zeigt Ihnen sofort die Accuracy sowie weitere Kennzahlen. Kostenlos, schnell und ohne Anmeldung.
Ihre Accuracy-Analyse
Genauigkeit (Accuracy) & Kennzahlen auf einen Blick
Kennzahlenübersicht
Visualisierung
🎯📊 Accuracy-Rechner: Genauigkeit (%) verstehen, berechnen & richtig interpretieren
Die Accuracy (Genauigkeit) gehört zu den wichtigsten Kennzahlen in Data Science, Machine Learning und der medizinischen Diagnostik. Sie beantwortet eine simple Frage:
Wie viele Fälle wurden insgesamt korrekt klassifiziert?
Genau hier setzt unser Accuracy-Rechner an: Du kannst die Genauigkeit wahlweise über die Confusion Matrix (TP/FN/FP/TN), über Sensitivität/Spezifität & Prävalenz oder über den prozentualen Fehler (Percent Error) berechnen. Zusätzlich bekommst du Sensitivität und Spezifität (falls definierbar) sowie eine schnelle Interpretation inkl. Visualisierung.
📑 Inhaltsverzeichnis
- Was ist Accuracy (Genauigkeit)?
- Welche Methode passt zu deinem Fall?
- Formeln: Accuracy, Sensitivität, Spezifität & Percent Error
- Confusion Matrix einfach erklärt (TP, FN, FP, TN)
- Accuracy mit Prävalenz: Warum die Grundrate alles verändert
- Accuracy vs. Precision vs. Recall (und wann Accuracy irreführt)
- Imbalanced Datasets: Warum 95% Accuracy wertlos sein können
- Praxisbeispiele (inkl. Rechenweg)
- Typische Fehler & Profi-Tipps
- ❓ XXL-FAQ zur Accuracy (mit konkreten Fällen)
- ✅ Fazit & 10 passende Fixrechner-Tools
📘 Was ist Accuracy (Genauigkeit)?
Accuracy ist der Anteil korrekt klassifizierter Fälle an allen Fällen. In der Praxis bedeutet das:
- Richtig positiv (TP): Treffer – „positiv“ korrekt erkannt
- Richtig negativ (TN): korrekte Entwarnung – „negativ“ korrekt erkannt
- Falsch positiv (FP): Fehlalarm – „positiv“ gemeldet, obwohl negativ
- Falsch negativ (FN): übersehen – „negativ“ gemeldet, obwohl positiv
Accuracy ist damit eine Gesamt-Quote. Sie ist super, wenn die Klassen (positiv/negativ) halbwegs ausgeglichen sind – kann aber massiv täuschen, wenn eine Klasse extrem dominiert (siehe Abschnitt Imbalanced Datasets).
🧭 Welche Methode passt zu deinem Fall?
1) Confusion Matrix (TP, FN, FP, TN)
Das ist der Standard in Klassifikationsproblemen und Diagnostik-Tests. Du hast Zählwerte (z. B. aus einem Testlauf oder einer Studie)? Dann ist diese Methode ideal, weil sie zusätzlich Sensitivität und Spezifität liefert.
2) Prävalenz-Formel (Sensitivität, Spezifität, Prävalenz)
Diese Methode ist perfekt, wenn du bereits Sensitivität und Spezifität kennst (z. B. aus Studien) und die Prävalenz in deiner Zielpopulation berücksichtigen willst. Gerade in Medizin & Screening ist das entscheidend: die Grundrate (Prävalenz) kann Accuracy dramatisch verändern.
3) Percent Error (Beobachtet vs. Referenz)
Wenn du keine Klassifikation hast, sondern Messwerte (Chemie, Physik, Labor, Kalibrierung), nutze den prozentualen Fehler. Der Rechner gibt daraus eine vereinfachte „Accuracy“ als 100% − Percent Error aus (auf 0–100 begrenzt).
Merksatz
Diagnostik/Classifier → Confusion Matrix
Studienwerte + echte Population → Prävalenz-Formel
Messwert vs. Referenz → Percent Error
📐 Formeln: Accuracy, Sensitivität, Spezifität & Percent Error
Accuracy (über Confusion Matrix)
Accuracy = (TP + TN) / (TP + TN + FP + FN)
Interpretation: Anteil aller korrekten Entscheidungen (Treffer + korrekte Entwarnungen) an allen Fällen.
Sensitivität (Recall, True Positive Rate)
Sensitivität = TP / (TP + FN)
Interpretation: Wie gut erkennt der Test die tatsächlich Positiven? Hohe Sensitivität = wenige übersehene Positive (FN).
Spezifität (True Negative Rate)
Spezifität = TN / (FP + TN)
Interpretation: Wie gut erkennt der Test die tatsächlich Negativen? Hohe Spezifität = wenige Fehlalarme (FP).
Accuracy mit Prävalenz (Population berücksichtigen)
Accuracy = (Sensitivität × Prävalenz) + (Spezifität × (1 − Prävalenz))
Wichtig: Sensitivität, Spezifität und Prävalenz werden hier als Anteile gerechnet (z. B. 0,83 statt 83%).
Percent Error (Messwert-Genauigkeit)
Percent Error = (|Vo − Va| / |Va|) × 100
Vo = beobachteter Wert, Va = Referenz-/Wahrwert. Je größer der Fehler, desto geringer die Genauigkeit.
🧩 Confusion Matrix einfach erklärt (TP, FN, FP, TN)
Die Confusion Matrix ist das Fundament vieler ML- und Diagnostik-Auswertungen. Sie zerlegt die Ergebnisse in vier Felder:
| Vorhersage: Positiv | Vorhersage: Negativ | |
|---|---|---|
| Tatsächlich: Positiv | TP (Treffer) | FN (übersehen) |
| Tatsächlich: Negativ | FP (Fehlalarm) | TN (korrekt negativ) |
Warum das wichtig ist: Zwei Modelle können die gleiche Accuracy haben – aber völlig unterschiedliche Fehlerprofile. In Medizin (Screening) sind FN oft gefährlicher als FP. In Fraud Detection kann es umgekehrt sein. Genau deshalb solltest du Accuracy immer zusammen mit Sensitivität & Spezifität betrachten.
🧠 Accuracy mit Prävalenz: Warum die Grundrate alles verändert
Die Prävalenz ist der Anteil tatsächlich Positiver in der Zielgruppe (Population). Und genau sie bestimmt, wie „leicht“ Accuracy zu erreichen ist.
Extrem-Beispiel
Prävalenz = 1% (sehr seltene Krankheit). Ein „dummes“ Modell, das immer negativ sagt, erreicht schon ≈ 99% Accuracy – erkennt aber 0% der Positiven (Sensitivität = 0).
Take-away: Accuracy kann bei seltenen Ereignissen glänzen, obwohl das Modell praktisch nutzlos ist. Nutze dann zusätzlich Kennzahlen wie Precision, Recall oder (je nach Ziel) F1 – oder bewerte die Kosten von FP vs. FN.
🎯 Accuracy vs. Precision vs. Recall (und wann Accuracy irreführt)
Accuracy (Genauigkeit)
Gesamtquote: Wie viele Entscheidungen insgesamt korrekt waren. Ideal bei ausgeglichenen Klassen.
Precision (Positiver Vorhersagewert)
Trefferqualität: Wenn das Modell „positiv“ sagt – wie oft stimmt das wirklich? Wichtig, wenn Fehlalarme teuer sind (FP).
Recall (Sensitivität)
Trefferquote bei Positiven: Wie viele echte Positive findet das Modell? Wichtig, wenn Übersehen teuer ist (FN).
Mini-Merksatz
Accuracy = insgesamt richtig
Precision = „positiv“ ist wirklich positiv
Recall = Positive werden gefunden
⚖️ Imbalanced Datasets: Warum 95% Accuracy wertlos sein können
Ein Datensatz ist „imbalanced“, wenn eine Klasse viel häufiger vorkommt als die andere (z. B. 95% negativ, 5% positiv). In solchen Fällen gilt:
- Hohe Accuracy kann nur bedeuten, dass das Modell die Mehrheitsklasse rät.
- Sensitivität/Recall kann trotzdem schlecht sein (viele FN).
- Precision kann schlecht sein (viele FP), je nach Schwellenwert.
Profi-Tipp: Beurteile Modelle bei Ungleichgewicht nie nur mit Accuracy. Ergänze mindestens Recall und Precision (oder F1). Accuracy ist dann höchstens ein grober Überblick.
📈 Praxisbeispiele: So rechnest du Accuracy korrekt (inkl. Rechenweg)
Beispiel 1: Confusion Matrix (Standardfall)
TP=50, FN=10, FP=5, TN=35
Accuracy = (50 + 35) / (50 + 10 + 5 + 35) = 85 / 100 = 85%
Zusätzlich:
- Sensitivität = 50 / (50 + 10) = 83,33%
- Spezifität = 35 / (5 + 35) = 87,50%
Beispiel 2: Prävalenz-Formel (Population realistisch abbilden)
Sensitivität=83,33%, Spezifität=87,50%, Prävalenz=50%
Accuracy = (0,8333 × 0,50) + (0,8750 × 0,50) = 0,8542 = 85,42%
Interpretation: Bei gleicher Testqualität kann eine andere Prävalenz die Accuracy deutlich verschieben.
Beispiel 3: Percent Error (Messwert-Genauigkeit)
Vo=95, Va=97,8
Percent Error = (|95 − 97,8| / 97,8) × 100 = 2,86%
Vereinfachte Accuracy im Rechner: 100% − 2,86% = 97,14%
⚠️ Typische Fehler & Profi-Tipps
- Accuracy ohne Kontext: Bei seltenen Ereignissen wirkt Accuracy „zu gut“, obwohl Recall mies ist.
- FN vs. FP nicht bewertet: Fehler sind nicht gleich teuer. Definiere zuerst, was schlimmer ist.
- Prävalenz ignoriert: Studien-Daten spiegeln oft nicht deine echte Zielpopulation wider.
- Percent Error ≠ Klassifikations-Accuracy: Messgenauigkeit ist ein anderer Use Case – nutze die Methode bewusst.
- Runden/Skalierung: Prozentwerte immer sauber als Anteil (0–1) rechnen, wenn du Formeln manuell nutzt.
Pro-Tipp für Modellvergleich
Wenn du zwei Modelle vergleichst, achte nicht nur auf Accuracy. Prüfe zusätzlich:
- Recall/Sensitivität (wie viele Positive findest du?)
- Precision (wie sauber sind deine „positiv“-Vorhersagen?)
- Spezifität (wie gut vermeidest du Fehlalarme?)
❓ XXL-FAQ zur Accuracy (mit konkreten Fällen)
Wie berechne ich Accuracy aus TP, FN, FP, TN?
Du addierst alle korrekten Entscheidungen und teilst durch die Gesamtzahl aller Fälle:
Accuracy = (TP + TN) / (TP + TN + FP + FN)
Unser Accuracy-Rechner übernimmt das automatisch und zeigt zusätzlich Sensitivität und Spezifität.
Kann Accuracy negativ sein?
Nein. Accuracy ist eine Quote (Anteil korrekter Entscheidungen) und liegt immer zwischen 0% und 100%.
Ist 90% Accuracy immer „gut“?
Nicht zwingend. Wenn die Klassen stark ungleich verteilt sind (z. B. 95% „negativ“), kann ein Modell auch mit 90–99% Accuracy praktisch wertlos sein. In solchen Fällen sind Recall/Sensitivität und Precision entscheidend.
Was ist der Unterschied zwischen Accuracy und Precision?
Accuracy bewertet alle Entscheidungen insgesamt. Precision betrachtet nur die „positiv“-Vorhersagen und fragt: Wie viele davon sind wirklich positiv? Precision ist besonders wichtig, wenn Fehlalarme (FP) teuer sind.
Was ist der Unterschied zwischen Sensitivität und Spezifität?
Sensitivität misst, wie gut echte Positive erkannt werden (TP/(TP+FN)).
Spezifität misst, wie gut echte Negative korrekt ausgeschlossen werden (TN/(TN+FP)).
Hohe Sensitivität = wenige übersehene Fälle (FN). Hohe Spezifität = wenige Fehlalarme (FP).
Warum hängt Accuracy von der Prävalenz ab?
Weil Prävalenz die Grundrate echter Positiver in der Population beschreibt. Wenn Positive selten sind, kann man mit „immer negativ“ schon sehr hohe Accuracy erzielen – ohne echte Treffer. Darum ist die Prävalenz-Formel wichtig, wenn du Studienwerte auf die Realität überträgst.
Wie berechne ich Accuracy über Sensitivität, Spezifität und Prävalenz?
Mit der Prävalenz-Formel:
Accuracy = (Sensitivität × Prävalenz) + (Spezifität × (1 − Prävalenz))
Achte darauf, Prozentwerte als Anteile zu rechnen (z. B. 80% = 0,80).
Was bedeutet Percent Error – und wie wird daraus „Accuracy“?
Percent Error misst die Abweichung eines Messwerts vom Referenzwert:
Percent Error = (|Vo − Va| / |Va|) × 100
Im Rechner wird daraus eine vereinfachte Genauigkeit als Accuracy = 100 − Percent Error abgeleitet (auf 0–100 begrenzt). Das ist praktisch für schnelle Einordnungen, ersetzt aber nicht immer eine vollständige Messunsicherheits-Analyse.
Welche Kennzahl soll ich bei stark ungleichen Klassen nutzen?
Bei Imbalanced Data solltest du Accuracy nie alleine verwenden. Minimum: Precision und Recall. Je nach Problem sind auch Spezifität, ROC/PR-Kurven oder kostensensitive Bewertungen sinnvoll.
✅ Fazit: Accuracy richtig nutzen – und mit passenden Tools sauber weiterrechnen
Accuracy ist eine starke Kennzahl, wenn sie zum Kontext passt: ausgeglichene Klassen, klare Kostenstruktur und transparente Confusion Matrix. In der Praxis gilt: Accuracy ist der Einstieg – nicht das Ende. Wer präzise entscheiden will, betrachtet zusätzlich Sensitivität (Recall), Spezifität und – bei Bedarf – Precision.
🔗 10 relevante Fixrechner-Tools (perfekt zum Weiterrechnen)
Diese Rechner passen thematisch ideal zu Accuracy, Prozentwerten, Performance-Kennzahlen & datengetriebenen Entscheidungen:
- Prozent-Rechner – Prozentwerte schnell berechnen (Basis für viele Accuracy-/Fehlerquoten)
- Dezimal in Prozent Rechner – 0,83 → 83% (perfekt für Sensitivität/Spezifität)
- Prozentuale Anteile berechnen – Anteile & Quoten sauber auswerten
- Dreisatz-Rechner – schnelle Umrechnungen & Plausibilitätschecks
- Klickraten-Rechner (CTR) – Performance-Quote im Marketing berechnen & vergleichen
- Conversion-Rate Vergleichs-Rechner – Conversion-Quoten analysieren (ähnliche Logik wie Trefferquoten)
- Churn-Rate Rechner – Abwanderungsquote berechnen (Quotenlogik wie bei Fehlerraten)
- ROI-Rechner – datenbasierte Entscheidungen wirtschaftlich bewerten
- Cost-per-Lead Vergleichsrechner – Effizienzkennzahl für Kampagnen vergleichen
- ROAS Vergleichsrechner – Return on Ad Spend als Performance-Maß berechnen
„Eine Kennzahl ist nur so gut wie ihre Interpretation.“ – Nutze Accuracy als Kompass, aber entscheide mit dem ganzen Instrumenten-Set.
Vertrauen Sie unserer Expertise

Daniel Niedermayer
Geschäftsführer
Zuletzt geprüft am: 8. September 2025
Verwendete Quellen
Unsere Methodik
Dieser Rechner basiert auf den mathematischen Grundlagen der Zinseszinsrechnung und verwendet die standardisierten Formeln für verschiedene Ausschüttungsintervalle. Die Berechnungen berücksichtigen alle relevanten Parameter für eine präzise Vermögensplanung.
Mehr zur Methodik erfahrenFixrechner.de ist Ihre vertrauenswürdige Plattform für präzise Online-Berechnungen aller Art. Unser Ziel ist es, komplexe Berechnungen einfach und zugänglich zu machen – getreu unserem Motto „Alles ist berechenbar“.
Präzision & Genauigkeit
Alle Rechner werden von Fachexperten entwickelt und regelmäßig auf Aktualität geprüft.
Datenschutz garantiert
Ihre Daten bleiben bei uns sicher. Wir speichern keine persönlichen Eingaben.
Wissenschaftlich fundiert
Alle Berechnungen basieren auf anerkannten Methoden und aktuellen Marktdaten.
Letzte Aktualisierung: 8. September 2025


