10.00 - 10.05 Uhr WDR aktuell, Verkehrslage

Utopie oder Endzeitphantasien?

Utopie oder Endzeitphantasien?

Forscher arbeiten daran, eine künstliche Intelligenz zu schaffen, die sich selbst beobachten und daraus lernen kann. Das wirft jedoch grundlegende  moralisch-ethische Fragen auf. Denn diese KI ermöglicht totale Überwachung und die rein maschinelle Tötung von Menschen. Ein Ausblick.

Als im März 2016 die Software AlphaGo in einem legendären Match den südkoreanischen Go-Weltmeister Lee Sedol schlug, verbreitete sich diese Nachricht wie eine Sensation. Nur ein Jahr zuvor war AlphaGo noch ein Laie, der spätere Sieg unvorstellbar, selbst für Experten. Aber, die Software lernte und triumphierte. Nun fragen sich viele, wie eine Maschine so schnell so intelligent werden konnte.

Ein Go-Spiel ist wesentlich komplexer als Schach. Es erfordert Kreativität, Intuition und den Einsatz raffinierter Strategien. Die Software AlphaGo machte, laut Go-Profis, Spielzüge, wie kein Mensch sie jemals machen würde – und gewann. Für Neil Jacobstein, Co-Leiter für Robotik und KI an der Singularity University im Silicon Valley, ist der Sieg von AlphaGo ein Meilenstein in der KI-Forschung.

Neil Jacobstein

"Das war ein bewegender Moment, für die KI- und die Go-Community. Da haben wir eine echte Grenze überschritten, bezogen auf die Frage, mit wie viel Komplexität eine KI umgehen kann. Wir werden noch viele weitere und noch bessere Beispiele dafür erleben, wie sich KIs und Menschen auf einem gleichwertigen oder sogar höhreren Level beeinflussen werden.“

Neue Technologie sorgt für Schub in der KI-Forschung

Nahaufnahme schwarzer Hundekopf mit roter Katze

Was ist Hund und was ist Katze?

Im Jahr 2012 gab es einen Durchbruch durch die Entwicklung künstlicher neuronaler Netze: eine neue Multilayer-Technologie wurde entwickelt, die erstmals vielfach mehrschichtige neuronale Netze ermöglichte. Systeme konnten mehr und schneller lernen. Neu ist nun, dass diese neuronalen Netze noch tiefer und vielschichtiger sind. Deshalb spricht man auch von Deep Learning, oder Machine Learning. Nützlich sind diese Verfahren zum Beispiel zur höher entwickelten Sprach- oder Bilderkennung. Ein simples Beispiel: Will der KI-Forscher einem Netzwerk beibringen, was eine Katze ist, sagt er dem System: Finde Unterschiede, finde Muster. Anschließend zeigt er dem System Katzenbilder. Nicht eins, zwei, sondern hunderttausende, aus denen das Netz lernen und am Ende eine Katze von einem Hund unterscheiden kann.

Mit Algorithmen politische Meinungen erkennen

Eingesetzt werden diese Deep-Learning-Algorithmen aber auch, um politische Meinungen analysieren zu können. Aktuell leitet Damian Borth am DFKI das Projekt Multimedia Opinion Mining, das automatisiert Multimedia-Daten auf Meinungen hin auswertet.

Damian Borth

"2012 sind 3 Sachen zusammen gekommen: wir hatten (mit neuronalen Netzen) plötzlich eine Methode, bei denen wir Schichten hinzufügen können. Durch die Schichten, die wir hinzufügen, haben wir plötzlich mehr Kapazität zum Lernen. Das heißt, wir hatten diese Netze, wir hatten diese Kapazität, wir hatten plötzlich diese großen Datenmengen – jetzt musste man nur noch das trainieren, das heißt, die Maschinerie finden. (…) Dass das Netz auch entsprechend trainieren kann, wie ein Kind von Beispielen lernen kann, das hat dann nicht Monate gedauert, sondern nur Wochen. Heutzutage können wir ein solches Netzwerk innerhalb von 2-3 Std trainieren."

 Soziale Netzwerke Kommunikation Apps Soziale Dienste auf einem Handy

Totale Überwachung durch KI

Forscher der University of Rochester etwa haben eine Software entwickelt, die aus der Sprache eines Menschen seine aktuelle Gemütslage ableitet – und das erfolgreicher als die menschliche Vergleichsgruppe. Ein anderes Beispiel: Facebook. Forscher haben herausgefunden, dass die Facebook-Algorithmen die Persönlichkeit eines Nutzers nach einiger Zeit besser einschätzen können als Freunde, Kollegen oder sogar Partner.

Roboter, die aussehen wie Gottesanbeterinnen

Das DFKI in Bremen entwickelt zurzeit den Roboter MANTIS, nach dem Modell einer Gottesanbeterin. Er kann seine Vorderbeine aufrichten, und so geländegängig bleiben, aber auch Montagen erledigen. In der Robotik werden gerade große Fortschritte erzielt, sagt Frank Kirchner, Direktor des Robotics Institute am DFKI Bremen, besonders bei der Navigation, dank der sogenannten probabilistischen Navigation.

Frank Kirchner

Das sind „auf Wahrscheinlichkeiten beruhenden Navigationssystemen. Die sagen sich im Prinzip: ist mir gar nicht so wichtig, ob ich an Koordinate XY bin, sondern ich muss ungefähr wissen, wo ich bin - die waren und sind sehr, sehr erfolgreich. Ich glaube, wichtiger ist, was fehlt! Der ganze Bereich taktile Informationen. Also das Begreifen, Angreifen, Fühlen von Objekten und auch von Gegenständen in unserer Umgebung. Also, dass man künstliche Haut hat, ja, also künstliche Finger, die auch Tastsinn haben.

Der britische Mathematiker und auch KI-Pionier Alan Turing hatte bereits 1950 vorgeschlagen, einen richtigen Roboter zu bauen, mit Armen, Beinen, Haut und Gefühlen, um ihn mit der Umwelt kommunizieren, lernen und intelligent werden zu lassen. Denn: besonders durch Rückmeldung und Interaktion lernen wir.

Singularität bald erreicht?

Heute könnten Forscher solche selbstlernenden Roboter bald realisieren – und Maschinen sich selbst entwickeln lassen. Eine Maschine, die sich selbst beobachten und weiter entwickeln kann. Singularität nannte der amerikanische Informatiker Ray Kurzweil dieses Ereignis. Schon jetzt fürchten viele, bei dieser technischen Entwicklung der KIs den Kürzeren zu ziehen, eines Tages von Maschinen beherrscht zu werden – und nichts mehr tun zu können.

Namhafte Forscher warnen vor Missbrauch der KI

Anfang 2015 veröffentlichten über 100 namhafte Wissenschaftler einen Offenen Brief, als Warnung, vor allem vor einem militärischen Nutzen, oder Missbrauch von KI-Technologien. Auch der Astrophysiker Stephen Hawking, der Unternehmer Elon Musk und dutzende bei Google angestellte KI-Forscher unterschrieben die Ächtung von autonomen Waffensystemen. Viele KI-Forscher wollen aber eine solche grundlegende Skepsis nicht teilen. Sie betonen stattdessen die Verantwortung des Menschen für die moralisch-ethische Struktur seiner Systeme.

Frank Kirchner

"Grundsätzlich ist das, alles was wir hier tun, immer dual-use-fähig: ich kann das einsetzen, um Rehabilitationsroboter zu bauen, die Schlaganfalls-Patienten kurieren. Ich kann es aber auch dafür einsetzen, um Killerroboter zu bauen, die Menschen töten. Es liegt in unserer Verantwortung und in unserer ethischen Grundeinstellung, wie wir die Technologien, wie wir das Wissen, das wir anhäufen, wie wir es einsetzen. Und, wenn wir nicht in der Lage sind, in unserer Gesellschaft dafür zu sorgen, dass es ethische Grundprinzipien gibt, an denen wir uns orientieren, dann wird es immer Menschen geben,   die eben bestimmte Technologien einsetzen, um damit Schaden anzurichten. Es kommt auf uns Menschen an, nicht auf die Technologie."

Eine superintelligente KI könnte also die meisten Probleme der Menschheit lösen oder unser größtes Problem werden. Es wäre also ratsam, schon jetzt über diese Fragen nachzudenken und sich auf die ersten wirklich autonomen KIs oder künstlichen Menschen vorzubereiten.

Autorin des Radiobeitrags ist Nika Bertram.

Stand: 23.02.2017, 10:47