3 Gerade / Ungerade Klassifikation Lernen mit Neuronalen Netzen

Bernd Thomas
Oct 14 · 2 min read

Sechs nicht so einfache Aufgaben für KI — Teil 3

freepik

Kann man ein “KI-System” mit dem Instrumentarium des Machine Learning einfache mathematische Gegebenheiten oder Algorithmen lernen lassen? Wie zum Beispiel erkennen zu lernen, ob eine Zahl gerade oder ungerade ist.

Nachdem wir in Teil 1 gescheitert waren, gängige Machine Learning Verfahren zu trainieren, Zahlen als arithmetische Objekte in gerade und ungerade zu unterscheiden, hatten wir in Teil 2 ein statistisches Lernverfahren (mit dem “Chi-Squared Test”) entwickelt, das Gerade / Ungerade zu unterscheiden lernt, indem zum Training die Zahlen als Ziffernketten vorgelegt werden und “Auffälligkeiten” der Ziffernverteilung auf den verschiedenen Positionen bewertet werden.

In diesem Teil 3 wollen wir untersuchen, ob wir auf Basis von Zahlen als Text (Ziffernketten) Neuronale Netze konstruieren können, die die Gerarde/Ungerade-Unterscheidung lernen können. Als Klasse von Algorithmen, die allgemein in der Mustererkennung ausgewiesene Fähigkeiten haben, wäre das eigentlich naheliegend. Immerhin zeigt das Chi-Squared Verfahren, dass nutzbare Muster-Informationen in den Zahlen (als Zeichenketten) enthalten sind. Wir fordern allerdings auch von NN-Verfahren starkes, robustes Lernen, wie in Teil 2 definiert.

Mit Blick auf die Literatur und die Universal Approximation Eigenschaft von Neuronalen Netzten (s. Teil 6) ist es wichtig zu unterscheiden, ob ein NN ‘by design’ oder ‘by learning’ funktioniert. By design bedeutet die a priori Festlegung der Parameter, so dass das NN Vorhersagen für Testfälle in der gewünschten Genauigkeit liefert. Damit wäre das NN ein Verfahren (Algorithmus) zur Berechnung der Lösung (Klassifikation) aus Input. Mit ML verbinden wir aber i.A. einen Prozess, der “Lernen” abbildet, also Veränderung der Parameter durch Korrekturen im Laufe des Trainings. Wird der Lernzustand am Ende des Trainings “eingefroren”, haben wir es von da an mit einem Berechnungsverfahren (z.B. für Testdaten) zu tun. Dieses kann, bei komplexeren ML Problemen, dann durchaus im Sinne von “Transfer Learning” eingesetzt und vom Re-Learning ausgenommen werden.

Der “Weg dahin” macht das Lernen aus. Und es nicht per se klar, dass ein lernendes NN auf ein funktionierendes NN by-design hin konvergiert. Der Teil 6 geht darauf näher ein.

Natürlich ist es bei vielen praktisch relevanten, komplexen Aufgaben aussichtslos, ein entsprechend komplexes Deep NN designen zu wollen. In 3.1 und 3.2 werden wir NN Lösungen für die Gerade/Ungerade Klassifikationsaufgabe aus theoretischen Überlegungen ableiten (designen), diese dann aber auf diesen Zustand hin trainieren können.

Anm.: Wieder sind zur Illustration iPython Notebook Code-Schnipsel in den Text eingefügt, meist nur Partien, die darstellen, was im Text gerade besprochen wird. Ausgabe-Routinen etc. werden der Lesbarkeit wegen weg gelassen. Die Code-Schnipsel können beim Lesen übersprungen werden, die Ergebnisse (Output) sind dagegen immer dargestellt.

Weiter lesen: 3.1 Gerade / Ungerade Lernen mit Neuronalen Netzten — Naiver Versuch, Variationen und Brute Force

Zurück auf Anfang

bernhard.thomas@becketal.com
www.becketal.com
www.im-pulse.info

Beck et al.

*Arbeiten ist Zusammenarbeiten*. Von Menschen, Daten, Infrastrukturen. Dafür stehen wir.

Bernd Thomas

Written by

Dr. Bernhard Thomas — Mathematics, Theor. Biology, Computational Sciences, AI and advanced Technologies for the Enterprise. Beck et al. Consultant

Beck et al.

*Arbeiten ist Zusammenarbeiten*. Von Menschen, Daten, Infrastrukturen. Dafür stehen wir.

Welcome to a place where words matter. On Medium, smart voices and original ideas take center stage - with no ads in sight. Watch
Follow all the topics you care about, and we’ll deliver the best stories for you to your homepage and inbox. Explore
Get unlimited access to the best stories on Medium — and support writers while you’re at it. Just $5/month. Upgrade