Accuracy-Rechner: Genauigkeit in % schnell ermitteln

Jetzt Methode wählen & Werte eingeben – Accuracy, Sensitivität & Spezifität berechnen

Mit unserem Accuracy-Rechner berechnen Sie die Genauigkeit (Accuracy) einer Klassifikation oder eines diagnostischen Tests – wahlweise über die Confusion Matrix, über Sensitivität/Spezifität & Prävalenz oder über den prozentualen Fehler (Percent Error). Geben Sie die passenden Werte ein – der Rechner zeigt Ihnen sofort die Accuracy sowie weitere Kennzahlen. Kostenlos, schnell und ohne Anmeldung.

🎯 Accuracy-Rechner
Wählen Sie die passende Berechnungsmethode für Ihre Daten.
Richtig positiv klassifiziert.
Fälschlich negativ klassifiziert.
Fälschlich positiv klassifiziert.
Richtig negativ klassifiziert.

Ihre Accuracy-Analyse

Genauigkeit (Accuracy) & Kennzahlen auf einen Blick

Accuracy

Kennzahlenübersicht

Korrekt (TP + TN)
Fehler (FP + FN)
Sensitivität
Spezifität

Visualisierung

🎯📊 Accuracy-Rechner: Genauigkeit (%) verstehen, berechnen & richtig interpretieren

Die Accuracy (Genauigkeit) gehört zu den wichtigsten Kennzahlen in Data Science, Machine Learning und der medizinischen Diagnostik. Sie beantwortet eine simple Frage:

Wie viele Fälle wurden insgesamt korrekt klassifiziert?

Genau hier setzt unser Accuracy-Rechner an: Du kannst die Genauigkeit wahlweise über die Confusion Matrix (TP/FN/FP/TN), über Sensitivität/Spezifität & Prävalenz oder über den prozentualen Fehler (Percent Error) berechnen. Zusätzlich bekommst du Sensitivität und Spezifität (falls definierbar) sowie eine schnelle Interpretation inkl. Visualisierung.

📑 Inhaltsverzeichnis

📘 Was ist Accuracy (Genauigkeit)?

Accuracy ist der Anteil korrekt klassifizierter Fälle an allen Fällen. In der Praxis bedeutet das:

  • Richtig positiv (TP): Treffer – „positiv“ korrekt erkannt
  • Richtig negativ (TN): korrekte Entwarnung – „negativ“ korrekt erkannt
  • Falsch positiv (FP): Fehlalarm – „positiv“ gemeldet, obwohl negativ
  • Falsch negativ (FN): übersehen – „negativ“ gemeldet, obwohl positiv

Accuracy ist damit eine Gesamt-Quote. Sie ist super, wenn die Klassen (positiv/negativ) halbwegs ausgeglichen sind – kann aber massiv täuschen, wenn eine Klasse extrem dominiert (siehe Abschnitt Imbalanced Datasets).

🧭 Welche Methode passt zu deinem Fall?

1) Confusion Matrix (TP, FN, FP, TN)

Das ist der Standard in Klassifikationsproblemen und Diagnostik-Tests. Du hast Zählwerte (z. B. aus einem Testlauf oder einer Studie)? Dann ist diese Methode ideal, weil sie zusätzlich Sensitivität und Spezifität liefert.

2) Prävalenz-Formel (Sensitivität, Spezifität, Prävalenz)

Diese Methode ist perfekt, wenn du bereits Sensitivität und Spezifität kennst (z. B. aus Studien) und die Prävalenz in deiner Zielpopulation berücksichtigen willst. Gerade in Medizin & Screening ist das entscheidend: die Grundrate (Prävalenz) kann Accuracy dramatisch verändern.

3) Percent Error (Beobachtet vs. Referenz)

Wenn du keine Klassifikation hast, sondern Messwerte (Chemie, Physik, Labor, Kalibrierung), nutze den prozentualen Fehler. Der Rechner gibt daraus eine vereinfachte „Accuracy“ als 100% − Percent Error aus (auf 0–100 begrenzt).

Merksatz

Diagnostik/Classifier → Confusion Matrix
Studienwerte + echte Population → Prävalenz-Formel
Messwert vs. Referenz → Percent Error

📐 Formeln: Accuracy, Sensitivität, Spezifität & Percent Error

Accuracy (über Confusion Matrix)

Accuracy = (TP + TN) / (TP + TN + FP + FN)

Interpretation: Anteil aller korrekten Entscheidungen (Treffer + korrekte Entwarnungen) an allen Fällen.

Sensitivität (Recall, True Positive Rate)

Sensitivität = TP / (TP + FN)

Interpretation: Wie gut erkennt der Test die tatsächlich Positiven? Hohe Sensitivität = wenige übersehene Positive (FN).

Spezifität (True Negative Rate)

Spezifität = TN / (FP + TN)

Interpretation: Wie gut erkennt der Test die tatsächlich Negativen? Hohe Spezifität = wenige Fehlalarme (FP).

Accuracy mit Prävalenz (Population berücksichtigen)

Accuracy = (Sensitivität × Prävalenz) + (Spezifität × (1 − Prävalenz))

Wichtig: Sensitivität, Spezifität und Prävalenz werden hier als Anteile gerechnet (z. B. 0,83 statt 83%).

Percent Error (Messwert-Genauigkeit)

Percent Error = (|Vo − Va| / |Va|) × 100

Vo = beobachteter Wert, Va = Referenz-/Wahrwert. Je größer der Fehler, desto geringer die Genauigkeit.

🧩 Confusion Matrix einfach erklärt (TP, FN, FP, TN)

Die Confusion Matrix ist das Fundament vieler ML- und Diagnostik-Auswertungen. Sie zerlegt die Ergebnisse in vier Felder:

Vorhersage: PositivVorhersage: Negativ
Tatsächlich: PositivTP (Treffer)FN (übersehen)
Tatsächlich: NegativFP (Fehlalarm)TN (korrekt negativ)

Warum das wichtig ist: Zwei Modelle können die gleiche Accuracy haben – aber völlig unterschiedliche Fehlerprofile. In Medizin (Screening) sind FN oft gefährlicher als FP. In Fraud Detection kann es umgekehrt sein. Genau deshalb solltest du Accuracy immer zusammen mit Sensitivität & Spezifität betrachten.

🧠 Accuracy mit Prävalenz: Warum die Grundrate alles verändert

Die Prävalenz ist der Anteil tatsächlich Positiver in der Zielgruppe (Population). Und genau sie bestimmt, wie „leicht“ Accuracy zu erreichen ist.

Extrem-Beispiel

Prävalenz = 1% (sehr seltene Krankheit). Ein „dummes“ Modell, das immer negativ sagt, erreicht schon ≈ 99% Accuracy – erkennt aber 0% der Positiven (Sensitivität = 0).

Take-away: Accuracy kann bei seltenen Ereignissen glänzen, obwohl das Modell praktisch nutzlos ist. Nutze dann zusätzlich Kennzahlen wie Precision, Recall oder (je nach Ziel) F1 – oder bewerte die Kosten von FP vs. FN.

🎯 Accuracy vs. Precision vs. Recall (und wann Accuracy irreführt)

Accuracy (Genauigkeit)

Gesamtquote: Wie viele Entscheidungen insgesamt korrekt waren. Ideal bei ausgeglichenen Klassen.

Precision (Positiver Vorhersagewert)

Trefferqualität: Wenn das Modell „positiv“ sagt – wie oft stimmt das wirklich? Wichtig, wenn Fehlalarme teuer sind (FP).

Recall (Sensitivität)

Trefferquote bei Positiven: Wie viele echte Positive findet das Modell? Wichtig, wenn Übersehen teuer ist (FN).

Mini-Merksatz

Accuracy = insgesamt richtig
Precision = „positiv“ ist wirklich positiv
Recall = Positive werden gefunden

⚖️ Imbalanced Datasets: Warum 95% Accuracy wertlos sein können

Ein Datensatz ist „imbalanced“, wenn eine Klasse viel häufiger vorkommt als die andere (z. B. 95% negativ, 5% positiv). In solchen Fällen gilt:

  • Hohe Accuracy kann nur bedeuten, dass das Modell die Mehrheitsklasse rät.
  • Sensitivität/Recall kann trotzdem schlecht sein (viele FN).
  • Precision kann schlecht sein (viele FP), je nach Schwellenwert.

Profi-Tipp: Beurteile Modelle bei Ungleichgewicht nie nur mit Accuracy. Ergänze mindestens Recall und Precision (oder F1). Accuracy ist dann höchstens ein grober Überblick.

📈 Praxisbeispiele: So rechnest du Accuracy korrekt (inkl. Rechenweg)

Beispiel 1: Confusion Matrix (Standardfall)

TP=50, FN=10, FP=5, TN=35

Accuracy = (50 + 35) / (50 + 10 + 5 + 35) = 85 / 100 = 85%

Zusätzlich:

  • Sensitivität = 50 / (50 + 10) = 83,33%
  • Spezifität = 35 / (5 + 35) = 87,50%

Beispiel 2: Prävalenz-Formel (Population realistisch abbilden)

Sensitivität=83,33%, Spezifität=87,50%, Prävalenz=50%

Accuracy = (0,8333 × 0,50) + (0,8750 × 0,50) = 0,8542 = 85,42%

Interpretation: Bei gleicher Testqualität kann eine andere Prävalenz die Accuracy deutlich verschieben.

Beispiel 3: Percent Error (Messwert-Genauigkeit)

Vo=95, Va=97,8

Percent Error = (|95 − 97,8| / 97,8) × 100 = 2,86%

Vereinfachte Accuracy im Rechner: 100% − 2,86% = 97,14%

⚠️ Typische Fehler & Profi-Tipps

  • Accuracy ohne Kontext: Bei seltenen Ereignissen wirkt Accuracy „zu gut“, obwohl Recall mies ist.
  • FN vs. FP nicht bewertet: Fehler sind nicht gleich teuer. Definiere zuerst, was schlimmer ist.
  • Prävalenz ignoriert: Studien-Daten spiegeln oft nicht deine echte Zielpopulation wider.
  • Percent Error ≠ Klassifikations-Accuracy: Messgenauigkeit ist ein anderer Use Case – nutze die Methode bewusst.
  • Runden/Skalierung: Prozentwerte immer sauber als Anteil (0–1) rechnen, wenn du Formeln manuell nutzt.

Pro-Tipp für Modellvergleich

Wenn du zwei Modelle vergleichst, achte nicht nur auf Accuracy. Prüfe zusätzlich:

  • Recall/Sensitivität (wie viele Positive findest du?)
  • Precision (wie sauber sind deine „positiv“-Vorhersagen?)
  • Spezifität (wie gut vermeidest du Fehlalarme?)

❓ XXL-FAQ zur Accuracy (mit konkreten Fällen)

Wie berechne ich Accuracy aus TP, FN, FP, TN?

Du addierst alle korrekten Entscheidungen und teilst durch die Gesamtzahl aller Fälle:

Accuracy = (TP + TN) / (TP + TN + FP + FN)

Unser Accuracy-Rechner übernimmt das automatisch und zeigt zusätzlich Sensitivität und Spezifität.

Kann Accuracy negativ sein?

Nein. Accuracy ist eine Quote (Anteil korrekter Entscheidungen) und liegt immer zwischen 0% und 100%.

Ist 90% Accuracy immer „gut“?

Nicht zwingend. Wenn die Klassen stark ungleich verteilt sind (z. B. 95% „negativ“), kann ein Modell auch mit 90–99% Accuracy praktisch wertlos sein. In solchen Fällen sind Recall/Sensitivität und Precision entscheidend.

Was ist der Unterschied zwischen Accuracy und Precision?

Accuracy bewertet alle Entscheidungen insgesamt. Precision betrachtet nur die „positiv“-Vorhersagen und fragt: Wie viele davon sind wirklich positiv? Precision ist besonders wichtig, wenn Fehlalarme (FP) teuer sind.

Was ist der Unterschied zwischen Sensitivität und Spezifität?

Sensitivität misst, wie gut echte Positive erkannt werden (TP/(TP+FN)).

Spezifität misst, wie gut echte Negative korrekt ausgeschlossen werden (TN/(TN+FP)).

Hohe Sensitivität = wenige übersehene Fälle (FN). Hohe Spezifität = wenige Fehlalarme (FP).

Warum hängt Accuracy von der Prävalenz ab?

Weil Prävalenz die Grundrate echter Positiver in der Population beschreibt. Wenn Positive selten sind, kann man mit „immer negativ“ schon sehr hohe Accuracy erzielen – ohne echte Treffer. Darum ist die Prävalenz-Formel wichtig, wenn du Studienwerte auf die Realität überträgst.

Wie berechne ich Accuracy über Sensitivität, Spezifität und Prävalenz?

Mit der Prävalenz-Formel:

Accuracy = (Sensitivität × Prävalenz) + (Spezifität × (1 − Prävalenz))

Achte darauf, Prozentwerte als Anteile zu rechnen (z. B. 80% = 0,80).

Was bedeutet Percent Error – und wie wird daraus „Accuracy“?

Percent Error misst die Abweichung eines Messwerts vom Referenzwert:

Percent Error = (|Vo − Va| / |Va|) × 100

Im Rechner wird daraus eine vereinfachte Genauigkeit als Accuracy = 100 − Percent Error abgeleitet (auf 0–100 begrenzt). Das ist praktisch für schnelle Einordnungen, ersetzt aber nicht immer eine vollständige Messunsicherheits-Analyse.

Welche Kennzahl soll ich bei stark ungleichen Klassen nutzen?

Bei Imbalanced Data solltest du Accuracy nie alleine verwenden. Minimum: Precision und Recall. Je nach Problem sind auch Spezifität, ROC/PR-Kurven oder kostensensitive Bewertungen sinnvoll.

✅ Fazit: Accuracy richtig nutzen – und mit passenden Tools sauber weiterrechnen

Accuracy ist eine starke Kennzahl, wenn sie zum Kontext passt: ausgeglichene Klassen, klare Kostenstruktur und transparente Confusion Matrix. In der Praxis gilt: Accuracy ist der Einstieg – nicht das Ende. Wer präzise entscheiden will, betrachtet zusätzlich Sensitivität (Recall), Spezifität und – bei Bedarf – Precision.

🔗 10 relevante Fixrechner-Tools (perfekt zum Weiterrechnen)

Diese Rechner passen thematisch ideal zu Accuracy, Prozentwerten, Performance-Kennzahlen & datengetriebenen Entscheidungen:

„Eine Kennzahl ist nur so gut wie ihre Interpretation.“ – Nutze Accuracy als Kompass, aber entscheide mit dem ganzen Instrumenten-Set.

Vertrauen Sie unserer Expertise

Daniel Niedermayer

Daniel Niedermayer

Geschäftsführer

Zuletzt geprüft am: 8. September 2025

Unsere Methodik

Dieser Rechner basiert auf den mathematischen Grundlagen der Zinseszinsrechnung und verwendet die standardisierten Formeln für verschiedene Ausschüttungsintervalle. Die Berechnungen berücksichtigen alle relevanten Parameter für eine präzise Vermögensplanung.

Mehr zur Methodik erfahren

4,9 von 5 Sternen

Basierend auf über 1.893 echten Nutzerbewertungen

Ergebnisse einer umfassenden Nutzerbefragung auf unserer Website im April 2025

Daniel G.

Die Qualität der Rechner ist enorm, und das kostenlos. Besten Dank.

Daniel G.

Head of Sales & Business Development

Sabine K.

Neben den Rechnern für den Arbeitsalltag finde ich auch die rund um die eigene Finanzplanung sehr hilfreich.

Sabine K.

Agentur Geschäftsführerin

Jeremiah H.

Ich schätze die Genauigkeit und Benutzerfreundlichkeit dieser Rechner sehr.

Jeremiah H.

 

Fixrechner.de ist Ihre vertrauenswürdige Plattform für präzise Online-Berechnungen aller Art. Unser Ziel ist es, komplexe Berechnungen einfach und zugänglich zu machen – getreu unserem Motto „Alles ist berechenbar“.

Präzision & Genauigkeit

Alle Rechner werden von Fachexperten entwickelt und regelmäßig auf Aktualität geprüft.

🔒

Datenschutz garantiert

Ihre Daten bleiben bei uns sicher. Wir speichern keine persönlichen Eingaben.

🔬

Wissenschaftlich fundiert

Alle Berechnungen basieren auf anerkannten Methoden und aktuellen Marktdaten.

Letzte Aktualisierung: 8. September 2025