Menschen? Meat Machines!

Die Iris des sprechenden Computers HAL 9000 in "2001 - Odyssee im Weltraum" von Stanley Kubrick

Menschen? Meat Machines!

In Filmen wie 2001 von Stanley Kubrick gibt es sie längst - sprechende, denkende Maschinen. Künstliche Intelligenz, heißt dieses Forschungs-Gebiet seit den 50er Jahren, kurz: KI. Zwei Buchstaben, die Phantasien wecken und Ängste. Ein Beitrag über die Anfänge der KI-Forschung.

HAL: Guten Abend, Dave!
Dave: Guten Abend, Hal!
HAL: Alles läuft nach Wunsch. Wie geht es dir?
Dave: Sehr gut, vielen Dank.

Ein freundliches Hallo, etwas Smalltalk zwischen Mensch und Maschine. Diese Szene aus dem Science-Fiction-Klassiker "2001" von Stanley Kubrick lässt einen alten Mythos lebendig werden: den Traum des Menschen davon, sich ein Ebenbild zu erschaffen – oder, eben, einen menschenähnlichen Computer.

Doch Wesen wie den Supercomputer HAL 9000 gab es damals, Ende der Sechziger Jahre, nur im Kino. Die realen Computer dieser Zeit waren riesige, dumme Blechhaufen. Es gab allerdings bereits Forscher, die mehr wollten: Ihre Maschinen sollten lernen wie ein Mensch zu denken – und sogar zu fühlen. Künstliche Intelligenz, heißt dieses Forschungsgebiet, oder kurz: KI. Zwei Buchstaben, die Phantasien wecken und Ängste, die faszinierend wirken - und zugleich unheimlich.

Was ist eigentlich Intelligenz?

Marvin Minsky, Forscher, Wissenschaftler, Künstliche Intelligenz, USA

Marvin Minsky

Der Begriff "Künstliche Intelligenz" wurde zum ersten Mal im Juli 1956 verwendet. Schauplatz war die so genannte Dartmouth Conference. Die Veranstaltung sollte der Start eines Projekts sein. Zwei Monate sollte zur Künstlichen Intelligenz geforscht werden, durch zehn Personen.

Zu diesem Kreis von Wissenschaftlern gehörten inzwischen bekannte Pioniere der KI-Forschung. Darunter Marvin Minsky oder der Mathematiker Claude Shannon. Sie alle verband ein gemeinsames Ziel.

Marvin Minsky/Claude Shannon

"Die Untersuchung soll auf Grund der Annahme vorgehen, dass jeder Aspekt des Lernens oder jeder anderen Eigenschaft der Intelligenz im Prinzip genau so beschrieben werden kann, dass er mit einer Maschine simuliert werden kann."

Es galt zuerst herauszufinden, wie ein Mensch überhaupt lernt, Dinge versteht und Erkenntnisse gewinnt – und wie sich diese Prozesse dann für Maschinen automatisieren lassen. 1956 formulierten der Kognitionswissenschaftler Allen Newell und der Sozialwissenschaftler und spätere Nobelpreisträger Herbert Simon eine gewagte Hypothese.

Allen Newell/Herbert Simon

"Denken ist in erster Linie Informationsverarbeitung und der Mensch ein Informationsverarbeitungssystem - sein biologisches Gehirn eher unwichtig."

Simon behauptete außerdem, ein Computer werde bis spätestens Ende der Sechziger Jahre Schachweltmeister werden – eine Prognose, die sich nicht erfüllte. Sie passte jedoch zu dem neuen, zukunftsoptimistischen Zeitgeist.

Die Computergrafik zeigt einen menschlichen Oberkörper, auf dem ein Monitor angebracht ist. Auf dem Bildschirm des Monitors ist ein Gehirn zu sehen.

Kann die Forschung so etwas wie Bewusstsein nachbilden?

Doch das Kernproblem lautete schon damals: Was ist Intelligenz? Eine bis heute gültige Hypothese: Intelligenz zeigt sich in der Fähigkeit, Erkenntnisse oder Einsichten zu gewinnen, urteilen und Möglichkeiten zu erkennen und unerwartete Probleme zu lösen. Intelligent zu sein heißt aber auch, geschickt reflektieren und Gedanken sprachlich formulieren zu können, effizient und erfinderisch Aufgaben zu lösen oder kreativ zu sein.

Lagerbildung: Starke und schwache KI

Die Anhänger der sogenannten "starken" KI-Richtung behaupten jedenfalls, selbst Bewusstsein oder Kreativität wären berechenbare Prozesse, und Intelligenz und Erkenntnis nur eine Frage der Informationsverarbeitung. Und für eine starke KI sehen sie hier keinerlei Grenzen. Beweise für diese Theorie fehlen jedoch bis heute.

Die Vertreter einer "schwachen" KI-Theorie sehen hingegen die reine Informationsverarbeitung nur als einen Aspekt unter vielen, der Intelligenz ausmacht. Forscher dieser Richtung konzentrieren sich darauf, Maschinen zu entwerfen, die überschaubare, real berechenbare Probleme lösen. Damit erreichten sie tatsächlich schon früh Erfolge: bei einfachen Strategiespielen, beim Lösen von Puzzles oder mathematischen Beweisen.

Militärischer Zweig der Forschung

Ende der Sechziger Jahre begann auch die Förderung von KI-Projekten durch die "Advanced Research Projects Agency" - kurz: ARPA, dem Amerikanischen Verteidigungsministerium. Diese Förderung aus Militäretats spielt bis heute eine wichtige Rolle für die KI-Forschung in Amerika – und sie ist nicht unumstritten.

Joseph Weizenbaum, Computerfachmann und Gesellschaftskritiker

Joseph Weizenbaum

Einer der schärfsten Kritiker dieser militärisch-wissenschaftlichen Allianz war der Computerwissenschaftler Joseph Weizenbaum. Anfang 1966 hatte Weizenbaum das Software-Programm ELIZA veröffentlicht, benannt nach dem Blumenmädchen Eliza Doolittle aus dem Musical "My Fair Lady". ELIZA simulierte eine Gesprächstherapie, doch die Tester saßen nicht vor einem einem menschlichen Psychiater, sondern vor einem Computer. Sie tippten ihre Sorgen ein und lasen die Antworten auf dem Bildschirm.

ELIZA wurde zu einem Wendepunkt in Weizenbaums Leben. Er zweifelte am Sinn seiner eigenen Forschungen. Wenn schon dieser einfache Ansatz von KI Menschlichkeit vortäuschen konnte - wozu wären dann erst höher programmierte Systeme fähig?

Joseph Weizenbaum

"Das wurde gesehen, bei manchem Psychiater, und die waren sehr sehr begeistert und behaupteten, dass, ach, in der nahen Zukunft werden wir, sagen wir, 100 Patienten in einer Stunde betreuen können. Und - völlig missverstanden! - Und, was für ein Menschenbild haben denn diese Psychiater, die sagen: (egal) was sie machen, wir machen doch nichts anderes - als dieses doofe Programm, das ich geschrieben habe."

Der Mensch als "fleischliche Maschine"

Auf dem Höhepunkt seiner Karriere, als MIT-Professor für Computer Science, wurde Joseph Weizenbaum zu einem der größten Kritiker der KI-Forschung. Er warnte vor allem davor, dass Computerprogramme eines Tages den menschlichen Verstand ersetzen könnten. Er galt deshalb innerhalb der KI-Community fast als Verräter.

Zu den von Weizenbaum am schärfsten kritisierten Forscher-Kollegen gehörten damals auch die sogenannten Propheten der "starken" KI, Marvin Minsky und Hans Moravec. Hans Moravec, früher Professor und Direktor am Robotics Institute in Pittsburgh, prophezeite zum Beispiel, die Maschinen würden bis circa 2020 die Intelligenz des Menschen erreichen oder sogar überwinden. Dann würden Roboter das Wissen im menschlichen Gehirn in Computer übertragen, die menschliche Biomasse überflüssig machen und endlich das posthumane Zeitalter einleiten. Ein Zeitalter der unsterblichen Daten und Roboter. Für Marvin Minsky sind menschliche Gehirne ohnehin nur "meat machines", fleischliche Maschinen.

Künstlich-neuronale Netze als neue Perspektive für KI

Anfang der Neunziger Jahre bot die Entwicklung künstlich-neuronaler Netze neue Perspektiven. Es ging nun nicht mehr darum, ein Gehirn tatsächlich nachzubauen, sondern seine Informationsarchitektur so nachzumodellieren, dass damit anspruchsvollere Musterverarbeitungen möglich werden, zum Beispiel für Simulationen oder komplexe Computerspiele.

Schachweltmeister Garri Kasparow 1997 beim Spiel gegen den Computer "Deep Blue".

Beim "königlichen Spiel" Schach gewinnt meist der Rechner

Für eine echte Überraschung und Triumph der KI sorgte dann 1997 der IBM Schachcomputer Deep Blue, als er den damaligen Schachweltmeister Gary Kasparow besiegte. Simons Prophezeihung von 1956, dass eine Maschine Schachweltmeister wurde, war doch noch wahr geworden, wenn auch einige Jahrzehnte später als ursprünglich geplant.

Auf Deep Blue folgten weitere KIs, die Menschen in Strategie- und Wissensspielen schlugen. Es wurde ernst. Zum ersten Mal schien es wirklich eng zu werden für die menschliche Intelligenz, schien es tatsächlich vorstellbar, dass uns eine maschinelle künstliche Intelligenz eines Tages dem Menschen überlegen ist.

Autor des Radiobeitrags ist Nika Bertram.

Stand: 23.02.2017, 10:36