Künstliche Intelligenz mit Java
Maschinelles Lernen mit Neuronalen Netzwerken

Recall (sensitivity or true positive rate, Hit-Rate) ist definiert als:

Recall = TP / (TP + FN)

Recall = 30 / (30 + 10) = 0.75

Dieser Wert sollte nahe an 1 sein.

F1-Score ist ein Indikator, der sowohl Precision als auch Recall berücksichtigt:

F1-Score = 2 * Precision * Recall / (Precision + Recall)

F1-Score = 2 * 0.875 * 0.75 / (0.875 + 0.75) = 0.799

Dieser Wert ist im Idealfall 1. Es wird ersichtlich, dass die Schwangerschafts-Klassifikation noch „Luft nach oben“ hat.


Weitere reale Beispiele für die 4 Metriken und die Confusion-Matrix finden sich in den Kapiteln 6.1 und 6.2.


Zusammenfassung:

Wenn die Qualität von Maschinellem Lernen für Klassifizierungsmodelle definiert werden soll, dann gibt es u.a. die folgenden Metriken: Accuracy, Precision, Recall und den sog. F1-Score.

Der wahrscheinlich anschaulichste Wert ist die sog. „Richtigkeit“ der Output-Daten, die wie folgt definiert ist:

Accuracy = richtig erzeugter Output / Anzahl der Datensätze

Die sog. Confusion-Matrix veranschaulicht sehr gut den Lernerfolg für Klassifizierungsaufgaben.


- 59 -