Im Schach schlagen sie uns schon längst. Bald sollen uns Roboter beim Autofahren ablösen. Das sei erst der Anfang, sagt Jürgen Schmidhuber und erklärt, weshalb die Entwicklung nicht schlecht ist.
Interview: Dominik Buholzer
Jürgen Schmidhuber wurde oft als Vater der modernen künstlichen Intelligenz (KI) bezeichnet. Der 54-jährige Deutsche hat sich an der Technischen Universität München habilitiert. Seit 1995 ist er wissenschaftlicher Direktor des Schweizer Forschungsinstituts für Künstliche Intelligenz IDSIA in Manno, einem Vorort von Lugano. Firmen wie Apple, Google, Microsoft, Facebook oder Amazon nutzen heute alle die von den Teams von Schmidhuber entwickelten Methoden des maschinellen Lernens, die täglich verwendet werden.
Ins Rampenlicht rückte Schmidhuber Ende August. Zusammen mit Tesla-Erfinder Elon Musk und 114 weiteren Vertretern von Robotik- und KI-Unternehmen rief Schmidhuber die Vereinten Nationen in einem offenen Brief auf, gegen die Entwicklung und Verbreitung sogenannter tödlicher autonomer Waffensysteme, auch «Killerroboter» genannt, vorzugehen.
Jürgen Schmidhuber, wie gefährlich ist künstliche Intelligenz?
95 Prozent der KI-Forschung zielen zwar darauf ab, Menschen langlebiger, gesünder und abhängiger von ihren Smartphones zu machen. Aber da gibt es halt noch die verbleibenden 5 Prozent. Beispiel: Unser Long Short Term Memory, eine Voralpenentwicklung meiner Teams in Bayern und der Schweiz, erleichtert heute zwar Milliarden von Menschen das Leben, steuert aber auch Kampfdrohnen. Unsere Erfindungen werden also nicht nur zum Guten verwendet, sondern auch für militärische Anwendungen.
Was muss ich mir unter dem Long Short Term Memory vorstellen?
Reden Sie manchmal mit Ihrem Smartphone?
Ähm ja, immer wieder mal. Wieso?
Dann nutzen Sie vermutlich ein Long Short Term Memory (LSTM). Dieses selbstlernende neuronale Netzwerk steckt in mittlerweile drei Milliarden Handys, wo es täglich vielen hilft durch Spracherkennung und automatische Übersetzung. Für diese Technologie interessieren sich aber auch die Militärs.
Nun haben Sie zusammen mit anderen Prominenten einen Appell an die UNO gerichtet, diese negativen Entwicklungen der künstlichen Intelligenz zu verbieten. Ist es nicht ein wenig naiv, zu glauben, dies genüge bereits?
Der Appell an die Vereinten Nationen wird natürlich nicht die Entwicklung autonomer Waffen stoppen, denn gegen den Willen der militärischen Grossmächte geht nichts. Die Genfer Konvention ächtet ja auch nur herkömmliche chemische Waffen, nicht aber von Grossmächten gewollte Nuklearwaffen, die ebenfalls höchst giftige chemische Substanzen produzieren und damit ganz nebenbei die schlimmsten aller Chemiewaffen sind. Doch der Brief kann zumindest die Aufmerksamkeit der Öffentlichkeit darauf lenken, dass man sich Gedanken darüber machen sollte, dass Waffen immer schlauer werden.
Stellen Sie fest, dass Bewegung in diese Frage kommt?
Es gibt zunehmendes Interesse an dieser Frage. Normalerweise betone ich aber lieber die positiven Seiten der künstlichen Intelligenz.
Laufen Roboter uns Menschen bald den Rang ab, beziehungsweise müssen wir um unsere Jobs bangen?
Künstliche Intelligenzen werden fast alles erlernen, was Menschen können – und noch viel mehr. Ihre neuronalen Netzwerke werden aus Erfahrung klüger und wegen der sich rasch verbilligenden Hardware alle zehn Jahre hundertmal mächtiger. Unsere formelle Theorie des Spasses erlaubt sogar, Neugierde und Kreativität zu implementieren, um künstliche Wissenschafter und Künstler zu bauen.
Schön und gut, aber Roboter und künstliche Agenten verfügen über keinerlei Empathie.
Unsere verhalten sich schon seit langem so, als hätten sie Gefühle. Sie lernen beispielsweise, negative Signale von Schmerzsensoren – zum Beispiel wenn man an Hindernissen anstösst – oder Hungersignale zu vermeiden; dies ist etwa der Fall, wenn die Batterie leer ist. Wer zum Beispiel einem lernenden Roboter ständig eine reinhaut, flösst ihm Angst ein, und motiviert ihn, sich hinter dem Vorhang zu verstecken. Vielleicht auch erwähnenswert: mit «Sunspring» kam der erste Kurzfilm heraus, dessen Drehbuch ein lernendes Long Short Term Memory verfasst hat.
Und wie geht es weiter?
Alle fünf Jahre wird das Rechnen 10-mal billiger. Hält der Trend an, werden kleine Rechner bald so viel rechnen können wie ein menschliches Gehirn, 50 Jahre später wie alle 10 Milliarden Hirne zusammen. Die dazu passende, selbstlernende Software hinkt nicht weit hinterher. Alles wird sich ändern.
Das heisst?
Viele KIs werden nicht nur sklavisch Menschenbefehle befolgen, sondern neugierig sich selbst Ziele setzen und die Welt erforschen, wie sie es in kleinem Massstab schon in meinem Labor tun. Da der weitgehend lebensfeindliche, doch höchst roboterfreundliche Weltraum weit mehr Ressourcen bietet als der dünne Biosphärefilm der Erde, werden viele KIs auswandern, und der grösste Teil der sich ausbreitenden KI-Ökologie wird nach anfänglicher Faszination am biologischen Leben weitgehend das Interesse am Menschen verlieren, mittels selbstreplizierender Roboterfabriken erst das Sonnensystem besiedeln und umgestalten, dann innerhalb von wenigen Jahrhunderttausenden die gesamte Milchstrasse und schliesslich innerhalb von Jahrmilliarden auch den Rest des erreichbaren Universums, im Zaum gehalten nur von der beschränkten Lichtgeschwindigkeit; KIs reisen gern per Funk von Sendern zu Empfängern, deren erstmalige Errichtung allerdings Zeit kostet.
Beunruhigt Sie dies nicht?
Da Menschen da schon aus physikalischen Gründen kaum folgen können, wird es zwischen Menschen und fast allen KIs auch keine Zielkonflikte geben.
Aber dann sind wir ja nicht mehr die Krone der Schöpfung?
Warum sollten wir das denn für immer bleiben? Ich bin überhaupt nicht beeindruckt von meiner eigenen Klugheit. Die meiste Zeit verbringe ich mit trivialen Tätigkeiten wie nicht gegen Stühle stossen, mir dreimal am Tag Kalorien zuführen. Ein-, zweimal im Jahr habe ich eine halbwegs brauchbare Idee. Ich verspüre nicht den Wunsch, Krone der Schöpfung zu bleiben.
Welchen Wunsch verspüren Sie dann?
Ich will Steigbügelhalter sein und dem Universum helfen, die nächste Stufe der Komplexität zu erklimmen. Die sich ausbreitende KI-Sphäre wird den Kosmos intelligent machen in einer Weise, die wir uns kaum ausmalen können.
Aber wir müssen ja nicht so weit gehen, sondern können den Prozess noch immer stoppen.
Die Entwicklung scheint mir unaufhaltsam, schon deswegen, weil so viele von ihr fasziniert sind. Wir erleben jetzt Jahrzehnte, in denen klar wird, wie Intelligenz funktioniert. Irgendwer wird bald die schon vorhandenen Puzzlestückchen zusammensetzen und das Wesen praktischer Intelligenz elegant und einfach formalisieren. Mir schien immer schon klar, dass die Prinzipien der Intelligenz im Rückblick so simpel sein werden, dass jeder Gymnasiast sie verstehen und mit KIs herumspielen kann. Das lässt sich nicht anhalten, höchstens vielleicht durch eine Katastrophe wie einen Atomkrieg.
Ihr Institut befindet sich in der Schweiz und nicht im Silicon Valley. Ist die Schweiz ein guter Nährboden für solche Entwicklungen?
Ja. Ein reicher Italiener, Dalle Molle, hat das Institut einst in der Schweiz gegründet. Und die Schweiz hat ja eine lange Geschichte von eingewanderten Wissenschaftern, die an unwahrscheinlichen Orten viel bewegt haben. Der berühmteste war Albert Einstein, der vor über hundert Jahren die Physik revolutionierte, und zwar nicht an einer famosen Uni, sondern am Patentamt in Bern. Und der britische Einwanderer Tim Berners-Lee hat hier vor fast 30 Jahren das WWW erfunden, und zwar nicht an einer bedeutsamen Informatikfakultät, sondern am Cern. Die Schweiz hat der Menschheit schon viel zu bieten.