Künstliche Intelligenz mit Java
Maschinelles Lernen mit Neuronalen Netzwerken

Ein anderes Beispiel für das Ende einer Ausgabe mit 10000 (in Worten: zehntausend) Epochen:

Da bei den Trainingsparametern eingestellt war, dass eine Genauigkeit von 0.1 für das Lernen ausreicht, sind alle 4 Ergebnisse im Rahmen der Toleranz und das Netzwerk gilt als vollständig trainiert.

b) Zweites Beispiel

Das zweite Beispiel fußt auf einen Blog-Beitrag „A Step by Step Backpropagation Example“ von Matt Mazur aus dem Jahre 2015 (siehe *Q25), in dem er an einem kleinen Beispiel die mathematischen Grundlagen der Backpropagation ausführlich darstellt. Er gibt hierfür ein einfaches Feed-Forward-Netzwerk an (s. Abbildung 39).

Abbildung 39 (*Q25): Feed-Forward-Netzwerk mit jeweils 2 Neuronen im Hidden- und im Output-Layer

- 52 -