Bernd ThomasinBeck et al.6.7 Neuronale Netzt zum Lernen von TreppenfunktionenIn 6.6 hatten wir eine angepasste Sigmoid-Funktion als Aktivierungsfunktion definiert, die den Anstieg steiler und zwischen 0 und 1…Mar 9, 2020Mar 9, 2020
Bernd ThomasinBeck et al.6.6 Boolesche Funktionen und Quanten-Gates — Neuronale Netze lernen LogikLogische Verknüpfungen ermöglichen einen anderen prinzipiellen Zugang zur “Universalität” von Neuronalen Netzen. NAND (Not And), zum…Mar 9, 2020Mar 9, 2020
Bernd ThomasinBeck et al.6.5 Das sin² Problem revisitedBei der Fragestellung in Teil 1, “Kann KI lernen, gerade und ungerade Zahlen zu unterscheiden?” versuchten wir den Ansatz einer…Jan 24, 2020Jan 24, 2020
Bernd ThomasinBeck et al.6.4 Multiplizieren Lernen — problematisch für NNDieser Abschnitt wird etwas intensiver. Wir versuchen das Multiplizieren Lernen von verschiedenen NN-Ansätzen aus anzugehen — ohne, das…Jan 14, 2020Jan 14, 2020
Bernd ThomasinBeck et al.6.3 Pythagoras LernenDer Satz von Pythagoras hat viele Schülergenerationen gequält. Ein guter Grund also, auch unser “universelles” Neuronales Netzwerk einmal…Jan 14, 2020Jan 14, 2020
Bernd ThomasinBeck et al.Bonustrack A: Formel-basierte Neuronale Netze zur MultiplikationDass das Multiplizieren Lernen für NNs keine einfache Aufgabe ist, hatten wir in 6.4 Multiplizieren Lernen — Problematisch für NN…Dec 23, 2019Dec 23, 2019
Bernd ThomasinBeck et al.6.2 NN-Modelle lernen Wurzeln und QuadrateDie Quadratwurzel einer Zahl ist eine stetige Funktion für Werte x > 0. Kann ein NN lernen, welche Zahlen Quadratzahlen sind? Die Frage…Dec 3, 2019Dec 3, 2019
Bernd ThomasinBeck et al.6.1 Ein kubisches Polynom als Beispiel für die NN-Approximation nicht-linearer FunktionenDass man mit Neuronalen Netzen lineare Funktionen darstellen kann, ist klar. Es geht letztlich um eine lineare Regression, wobei die…Dec 3, 2019Dec 3, 2019
Bernd ThomasinBeck et al.6 Machine Learning und die „Universelle Approximations-Eigenschaft“ Neuronaler NetzeSechs nicht so einfache Aufgaben für KI — Teil 6Dec 3, 2019Dec 3, 2019
Bernd ThomasinBeck et al.5.7 Zwei mal Drei ist Sechs — Ein keras/tf Modell lernt Vielfache von 6 und mehrVielfache von 6 lassen sich nicht so einfach charakterisieren wie gerade/ungerade Zahlen oder Vielfache aus den bisherigen Aufgaben…Nov 15, 2019Nov 15, 2019