Künstliche Intelligenz mit Java
Maschinelles Lernen mit Neuronalen Netzwerken

Stichwortverzeichnis

Accuracy     Kap. 5

Aktivierungsfunktion      Kap. 4.5

Anwendungen der KI      Kap. 1

Anwendungsbeispiel (Perzeptron)     Kap. 3.5

Anwendungsbeispiel (Neuronales Netzwerk)     Kap. 4.6

Anwendungsbeispiel (Mazur-Blog)     Kap. 4.6

Anwendungsbeispiel (Iris-Klassifikation)     Kap. 6.1

Anwendungsbeispiel (Klassifikation von Immobilien)      Kap. 6.2

Auswirkungen der KI      Kap. 1

Backward-Pass (backtracking)      Kap. 4.2

Beispiele der KI     Kap. 1

Bias      Kap. 3.1

Bias      Kap. 3.2

ChatGPT     Kap. 1

Confusion-Matrix     Kap. 5

Confusion-Matrix      Kap. 6.1

Confusion-Matrix      Kap. 6.2

Deep Learning    Kap. 6

Delta-Regel      Kap. 3.4

DL4J      Kap. 6

Epochen      Kap. 4.2

Epochen      Kap. 4.5

F1-Score     Kap. 5

Feed-Forward-Netzwerkes      Kap. 4.1

Fehlerberechnung     Kap. 4.2

Fehlertoleranz      Kap. 4.5

Forward-Pass      Kap. 4.2

Gebiete der KI      Kap. 1

Geschichte der KI      Kap. 1

Gewichte      Kap. 3.1

Gewichte      Kap. 3.2

Gewichte      Kap. 4.5

Gradientenabstiegsverfahren      Kap. 4.3

Heaviside-Aktivierungsfunktion      Kap. 3.3

Hidden-Layer      Kap. 4.1

Hidden-Layer      Kap. 4.5

Input      Kap. 3.1

Input      Kap. 3.2

Input      Kap. 4.5

Implementierung eines Perzeptrons     Kap. 3.3

Implementierung des Maschinellen Lernens mit einem Perzeptron     Kap. 3.4

Implementierung eines Neuronalen Feed-Forward-Netzwerkes     Kap. 4.5

Input-Layer      Kap. 4.1

Input-Layer      Kap. 4.5

Iris-Klassifikation      Kap. 6.1

Künstliche Intelligenz      Kap. 1

k-nächste-Nachbarn-Algorithmus      Kap. 4.4

Lernrate      Kap. 4.5

Lineare Regression      Kap. 4.3

Maschinelles Lernen       Kap. 2

Maschinelles Lernen      Kap. 3.4

Metriken für Klassifizierungsmodelle      Kap. 5

Neuron      Kap. 3

Neuronales Netzwerk      Kap. 4

Output      Kap. 3.1

Output      Kap. 3.2

Output      Kap. 4.5

Output-Layer      Kap. 4.1

Output-Layer      Kap. 4.5

Overfitting      Kap. 4.2

Perzeptron      Kap. 3.1

Perzeptron      Kap. 3.3

Precision     Kap. 5

Recall     Kap. 5

Reinforcement Learning      Kap. 2.3

ReLU-Aktivierungsfunktion      Kap. 6.2

Sigmoid-Aktivierungsfunktion      Kap. 3.3

Simulation eines Feed-Forward-Netzwerkes      Kap. 4

Supervised Learning      Kap. 2.1

Supervised Learning      Kap. 3.2

Supervised Learning      Kap. 4.2

Tanh-Aktivierungsfunktion      Kap. 6.2

Target      Kap. 3.2

Target      Kap. 4.5

Testdaten      Kap. 4.2

Training eines Perzeptrons     Kap. 3.2

Training eines neuronalen Netzwerkes     Kap. 4.2

Trainingsdaten      Kap. 4.2

Überwachtes Lernen      Kap. 2.1

Überwachtes Lernen      Kap. 3.2

Überwachtes Lernen      Kap. 4.2

Underfitting      Kap. 4.2

Unüberwachtes Lernen      Kap. 2.2

Unsupervised Learning      Kap. 2.2 

Verstärkendes Lernen      Kap. 2.3