Vielen Dank für Ihre Registrierung. Sie haben den Aktivierungslink für Ihr Benutzerkonto per E-Mail erhalten.

Vielen Dank für Ihre Anmeldung.

Kolumne

Was Pinocchio mit Maschinellem Lernen zu tun hat

Bei der Weiterentwicklung des Maschinellen Lernens sollten wir uns an der Funktionsweise unseres Gehirns orientieren.
Edy Portmann
Edy Portmann.

Edy Portmann.

Maschinelles Lernen ist ein Begriff der künstlichen Intelligenz, welcher die automatische Generierung von Wissen aus Erfahrung beschreibt. Ein Algorithmus lernt aus Beispielen. Seine Lernfähigkeit bemisst sich daran, ob er sein Wissen verallgemeinern kann. Er wird mit einem kleinen Satz von Elementen trainiert, indem man ihm Ja/Nein-Antworten auf Fragen wie «Zeigt dieses Bild Pinocchio?» gibt. Nach seinem Training hat der Algorithmus dann gelernt, Pinocchio auch auf nicht fürs Training verwendeten Bildern zu erkennen.

Nun haben Forscher den Zusammenhang zwischen Lernfähigkeit und Datenkomprimierung, bei der wesentliche Merkmale eines grossen Datensatzes in einem kleineren zusammengefasst wird, untersucht. Sie stellten fest, dass die Frage, ob ein Algorithmus ein Muster aus begrenzten Daten lernen kann, mit einem altbekannten Paradoxon aus der Mengenlehre verbunden ist.

Lassen Sie mich dies am Beispiel von Pinocchio erklären: Von Pinocchio weiss man, dass seine Nase wächst, wenn er lügt. Was aber passiert, wenn dieser sagt, «meine Nase wächst gerade»? Wenn seine Aussage wahr ist, so folgt durch ihre Selbstreferenz, dass sie falsch ist, und umgekehrt. Derartige Lügner-Paradoxa sind der Kern der Arbeiten des Mathematikers Kurt Gödel. Seine Unvollständigkeitssätze widmen sich der Ableitbarkeit von Aussagen in formalen Systemen wie etwa der Mengenlehre. Ausgehend von als wahr erachteten Aussagen, sogenannten Axiomen, zeigt seine Forschung, dass formale Aussagen grosser Systeme wie eben der Mengenlehre teilweise weder als richtig bewiesen noch als falsch abgetan werden können. Sie sind unentscheidbar, es gibt für sie kein Entscheidungsverfahren, sie können nicht mit Ja oder Nein beantwortet werden.

Zurück zum maschinellen Lernen: In ihrem Komprimierungsexperiment weisen die Forscher Lernfähigkeit als Kompetenz aus, anhand von Stichproben mit einem kleinen Satz von Datenpunkten eine Vorhersage über einen grossen Datensatz zu treffen. Die Verbindung zu Gödels Unvollständigkeitssätzen – und damit zu unserem Lügner-Paradoxon – ist, dass es unendlich viele Möglichkeiten gibt, eine kleinere Menge zu wählen, aber die Grösse der Unendlichkeit unbekannt ist. Die Forscher zeigen, dass bereits ein klitzekleiner Trainingssatz ausreicht, um eine Hochrechnung durchzuführen. Wenn dieser Satz jedoch falsch ist, dann kann kein endlicher Datensatz jemals mehr ausreichend sein, um diesen zu erfassen. In ihrem Artikel zeigen die Forscher, dass ihr Problem der maschinellen Lernfähigkeit dem der Unvollständigkeitssätze entspricht. Daher befindet sich auch ihr Lernproblem in einem Zustand der Schwebe, der nur durch Axiomatisierung dieser Systeme respektive mit einer axiomatischen Mengenlehre gelöst werden kann.

Als Forscher, der das menschliche Gehirn als Massstab der Intelligenz wahrnimmt, erstaunt mich dieses Problem der maschinellen Lernforschung, das auf mathematisch exakte Ergebnisse oder eben Axiomatisierung setzt, wenig. Um natürlicher mit einem Lügner-Paradoxon umzugehen, sollten wir uns aber besser an der Funktionsweise unseres Gehirns orientieren, das mit Approximation locker(er) umgehen und das Problem auflösen kann.

Zurück zum Beispiel: Die Funktionsweise unseres Gehirns ermöglicht, den Kontext einer Aussage zu erkennen und zu verstehen, dass Pinocchio im übertragenen Sinn zum Ausdruck bringen wollte, dass er grade lügt. Damit löst sich also das vermeintliche Paradoxon auf, das entsteht, weil man ihm mit maschineller Exaktheit begegnet. «Wie wunderbar, dass wir auf ein Paradoxon gestossen sind», meinte der Quantenphysiker Niels Bohr einmal scherzhaft, «jetzt haben wir die Hoffnung, Fortschritte zu machen.» Gehen wir also den natürlichen Weg und lehren die Algorithmen unsere unscharfe Art des Denkens, um mit maschinellem Lernen Fortschritte zu machen.

Edy Portmann ist Informatikprofessor und Förderprofessor der Schweizerischen Post am Human-IST-Institut der Universität Freiburg.

Merkliste

Hier speichern Sie interessante Artikel, um sie später zu lesen.

  • Legen Sie Ihr persönliches Archiv an.
  • Finden Sie gespeicherte Artikel schnell und einfach.
  • Lesen Sie Ihre Artikel auf allen Geräten.