Gütemaße für binäre Klassifikatoren

Vorhergesagte KlasseSpaltensummen
WahreTP: FN:
KlasseFP: TN:
Zeilensummen


Beispiel Klassifikator der Trinken von Nicht-Trinken unterscheidet

Im Beispiel versucht ein Klassifikator zu erkennen, ob es sich bei einer durchgeführten Aktivität um Trinken oder "Nicht Trinken" handelt.
  predicted classes - Vorhergesagte, klassifizierte Aktivität  
  TrinkenNicht TrinkenSummen
true classes - Wahre AktivitätTrinkenTP: 650
650 mal Trinken wurden vom Klassifikator korrekt als Trinken klassifiziert (richtige Entscheidung,Sensitivität)
FN: 50
50 mal Trinken wurde vom Klassifikator als Nicht Trinken klassifiziert (Fehler 1. Art, Alpha-Fehler)
700
Nicht TrinkenFP: 10
10 mal Nicht Trinken wurde vom Klassifikator als Trinken klassifiziert (Fehler 2. Art, Beta-Fehler)
TN: 290
290 mal Nicht Trinken wurde vom Klassifikator korrekt als Nicht Trinken klassifiziert (richtige Entscheidung, Spezifität)
300
 Summen6603401000

Bezeichungen und Erläuterungen

BegriffFormelErläuterung und Beispiel
EnglischDeutsch
TP (true positive)RP (richtig positiv)Ein guter Kunde wird als guter Kunde erkannt
FP (false positive)FP (falsch positiv)Ein nicht guter Kunde wird als guter Kunde erkannt
FN (false negative)FN (falsch negativ)Ein guter wird Kunde als nicht guter Kunde erkannt
TN (true negative)RN (richtig negativ)Ein nicht guter Kunde wird als nicht guter Kunde erkannt
Alle Fälle NNSumme über TP, FP, FN, TN
Korrekte Klassifikation T=TP+TNalle korrekten Vorhersagen
Falsche Klassifikation F=FP+FNalle falschen Vorhersagen
Relevanz (nach Cleve)R (RR) =TP+FNalle positven Fälle der Realität
IrrelevanzI = FP+TNalle negativern Fälle der Realität
PositivitätP =TP+FPAnzahl der negativen Vorhersagen (Klassifikationen)
Negativität N =TN+FNAnzahl der positiven Vorhersagen (Klassifikationen)
Korrektheitsrate, AccuracyT/NNAnteil der korrekten Klassifikationen
InkorrektheitsrateIN = F/NNAnzahl der nicht korrekten Klassifikationen
Richtig-Positiv Rate (Sensitivität, Recall)TPR=TP/R = TP/(TP+FN)Die Richtig-Positiv-Rate ist durch das Verhältnis von richtig positiven Entscheidungen zur Gesamtzahl der tatsächlich positiven Beobachtungen gegeben. Beispiel: Anteil der Kranken bei denen die Krankheit auch erkannt wurde.
Richtig-Negativ Rate (Spezifität)TNR = TN/I = TN/(FP+TN)Die Spezifität gibt den Anteil der zurecht negativ beurteilten Beobachtungen an der Gesamtzahl der in Wirklichkeit negativen Beobachtungen an. Anteil der als gesund eingestuften Personen an den tatsächlich Gesunden.
Falsch-Positiv Rate FPR = FP/I = FP / (FP+TN)Die Falsch-Positiv-Rate ist durch das Verhältnis von falsch positiven Entscheidungen zur Gesamtzahl der tatsächlich negativen Beobachtungen gegeben.Beispiel: Anteil der als krank eingestuften, tatsächlich aber gesunden Personen (Wahrscheinlichkeit für einen falschen Alarm).
Falsch-Negativ Rate FNR = FN/RAnteil der inkorrekten negativen Klassifikation
Positiver Vorhersagewert, Precision, Genauigkeit (*)PR=TP/P = TP/(TP+FP)Anteil der korrekt klassifizierten Objekte
Negativer Vorhersagewert TN/NDer negativer Vorhersagewert gibt das Verhältnis der zurecht als negativ beurteilten Beobachtungen an allen als negativ beurteilten Beobachtungen. Beispiel: Der Anteil der tatsächlich gesunden Personen bei denen keine Krankheit diagnostiziert wurde.
Neg. FalschklassifikationsrateFN/NAnteil negativer Klassifikationen zu negativen Realitätsfällen
Pos. Falschklassifikationsrate FP/PAnteil positiver Klassifikation zu positiven Realitätsfällen
Fehlerrate(FP+FN)/NNAnteil falscher Klassenzuordnungen zu allen Klassenzuordnungen
Relevanz (Geron)TP/(TP+FP)Die Relevanz ist das Verhältnis von richtig-positiven Entscheidungen zur Gesamtzahl aller positiven Entscheidungen
SpezifitätTN/(TN+FP) oder (1-FPR)Die Spezifität gibt den Anteil der zurecht negativ beurteilten Beobachtungen an der Gesamtzahl der in Wirklichkeit negativen Beobachtungen an
Prävalenz(TP+FN)/NNDie Prävalenz gibt den Anteil der tatsächlich positiven Beobachtungen an der Gesamtzahl aller Beobachtungen an
Positives Likelihood-VerhältnisSensitivität/(1-Spezifität)Das positive Likelihood-Verhältnis berechnet das Verhältnis der Wahrscheinlichkeit einer positiven Klassifizierung unter den allen tatsächlich positiven Beobachtungen zur Wahrscheinlichkeit einer positiven Klassifizierung unter den tatsächlich negativen Beobachtungen. Ein positives Likelihood-Verhältnis von z.B. 50 besagt, dass die Wahrscheinlichkeit einen Kranken unter den tatsächlich Kranken zu finden 50mal so hoch ist wie die Wahrscheinlichkeit unter den Gesunden einen (vermeintlich) Kranken zu finden.
Negatives Likelihood-Verhältnis(1-Sensitivität)/Spezifität)Das negative Likelihood-Verhältnis berechnet das Verhältnis der Wahrscheinlichkeit einer irrtümlichen negativen Klassifizierung unter den allen tatsächlich positiven Beobachtungen zur Wahrscheinlichkeit einer negativen Klassifizierung unter den tatsächlich negativen Beobachtungen. Ein negatives Likelihood-Verhältnis von 0.01 besagt, dass die Wahrscheinlichkeit unter den Kranken eine Person als (vermeintlich) gesund einzustufen 100 mal kleiner ist (1/0.01) als unter den Gesunden eine Person als gesund einzustufen.
F1 Score2 * Precision (PR) * Recall (TPR) / (Precision + Recall)Dieses kombinierte Maß bietet einen gleichwertigen Einfluss von ‚Precision' und ‚Recall' auf den Evaluationsprozess. Dies ist wichtig, denn eine gute Suche sollte alle relevanten Dokumente finden (hoher ‚Recall') und im gefundenen Datensatz eine hohe Dichte an wichtigen Dokumenten aufweisen (hohe ‚Precision').
Kappa Koeffizient(ACC-ACC0)/(1-ACC0) mit ACC0 = 0.5 bei binären KlassifikatorenDer Kappa-Koeffizient ist unabhängig von den Stichproben pro Klasse und der Anzahl der Klassen. k=0 bedeutet eine Klassifizierung auf Chance-Level Niveau; k=1 bedeutet eine perfekte Klassifizierung. k<0 bedeutet, dass die Klassifizierung auf einer schlechteren als der zufälligen Ebene erfolgt.
Distance ROC KurveSqrt((1-TPR)^2+(FPR^2))Gibt den Abstand TPR FPR zum Idealpunkt (0,1) in der ROC Kurve an
AUCTPR*(1-FPR)+0.5*(TPR*FPR)+0.5*(1-FPR)*(1-TPR)https://bci-lab.hochschule-rhein-waal.de/de/acc.html

Literatur

Bezeichnungen und Formeln nach: Cleve, Jürgen; Lämmel, Uwe (2014): Data Mining. München: Oldenbourg Wissenschaftsverl. (*)
Géron, Aurélien (2018): Praxiseinstieg Machine Learning mit Scikit-Learn und TensorFlow. Konzepte, Tools und Techniken für intelligente Systeme. 1. Auflage. Heidelberg: O'Reilly
Gütemaße für Klassifikatoren