Recall (sensitivity or true positive rate, Hit-Rate) ist definiert als:
Recall = TP / (TP + FN)
Recall = 30 / (30 + 10) = 0.75
Dieser Wert sollte nahe an 1 sein.
F1-Score ist ein Indikator, der sowohl Precision als auch Recall berücksichtigt:
F1-Score = 2 * Precision * Recall / (Precision + Recall)
F1-Score = 2 * 0.875 * 0.75 / (0.875 + 0.75) = 0.799
Dieser Wert ist im Idealfall 1. Es wird ersichtlich, dass die Schwangerschafts-Klassifikation noch „Luft nach oben“ hat.
Weitere reale Beispiele für die 4 Metriken und die Confusion-Matrix finden sich in den Kapiteln 6.1 und 6.2.
Zusammenfassung:
Wenn die Qualität von Maschinellem Lernen für Klassifizierungsmodelle definiert werden soll, dann gibt es u.a. die folgenden Metriken: Accuracy, Precision, Recall und den sog. F1-Score.
Der wahrscheinlich anschaulichste Wert ist die sog. „Richtigkeit“ der Output-Daten, die wie folgt definiert ist:
Accuracy = richtig erzeugter Output / Anzahl der Datensätze
Die sog. Confusion-Matrix veranschaulicht sehr gut den Lernerfolg für Klassifizierungsaufgaben.
- 59 -