Ein anderes Beispiel für das Ende einer Ausgabe mit 10000 (in Worten: zehntausend) Epochen:
Da bei den Trainingsparametern eingestellt war, dass eine Genauigkeit von 0.1 für das Lernen ausreicht, sind alle 4 Ergebnisse im Rahmen der Toleranz und das Netzwerk gilt als vollständig trainiert.
b) Zweites Beispiel
Das zweite Beispiel fußt auf einen Blog-Beitrag „A Step by Step Backpropagation Example“ von Matt Mazur aus dem Jahre 2015 (siehe *Q25), in dem er an einem kleinen Beispiel die mathematischen Grundlagen der Backpropagation ausführlich darstellt. Er gibt hierfür ein einfaches Feed-Forward-Netzwerk an (s. Abbildung 39).
Abbildung 39 (*Q25): Feed-Forward-Netzwerk mit jeweils 2 Neuronen im Hidden- und im Output-Layer
- 52 -