Symbolbild KI

Ist Künstliche Intelligenz eigentlich intelligent?

Stand: 25.01.2023, 06:00 Uhr

Roboter, die Anfragen von Bankkunden beantworten, Maschinen, die Referate schreiben - wir sind umgeben von Künstlicher Intelligenz. Wo hilft sie, wo eher nicht? Und was ist das überhaupt: Künstliche Intelligenz? Fragen und Antworten.

Von Rainer StriewskiRainer Striewski

Was ist Künstliche Intelligenz (KI)?

Ein Beispiel: Sehen Menschen das Bild eines Hundes oder einer Katze, ist für sie schnell klar, welche Art Vierbeiner hier gerade abgebildet ist. Sie haben gelernt, Hunde und Katzen zu unterscheiden. Auch Computer können das "lernen", indem sie mit vielen Hunde- und Katzenbildern gefüttert, also trainiert werden. Mit jedem neuen Bild erhält die Software Unterscheidungsmerkmale - und irgendwann reichen diese dann aus, um selbständig zu erkennen, welche Bilder Hunde oder Katzen zeigen.

Stilisiertes Gehirn vor Zahlenkolonne

KI versucht, das Gehirn nachzubilden

Aber ist das tatsächlich Intelligenz? "Der Begriff 'Künstliche Intelligenz' ist umstritten, aber er hat sich durchgesetzt", erklärt der Autor Thomas Ramge. "Der wahrscheinlich bessere Begriff wäre in den meisten Fällen 'maschinelles Lernen'", so Ramge. "Hinter all dem, was wir heute als 'Künstliche Intelligenz' (KI) oder 'Artificial Intelligence' (AI) bezeichnen, steckt maschinelles Lernen."

Wo wird KI eingesetzt?

In jedem modernen Smartphone steckt Künstliche Intelligenz. Sie sorgt etwa dafür, dass die Gesichtserkennung richtig funktioniert. Oder sie hilft beim Schreiben von Kurznachrichten, indem sie das mutmaßlich nächste Wort bereits beim Tippen vorschlägt. Auch in den Sprachassistenten im Smartphone oder den "smarten" Lautsprechern steckt Künstliche Intelligenz, ebenso in den KI-gestützten Sicherheitsfunktionen vieler Autos.

Dabei muss die Technik übrigens nicht immer aus den USA oder China kommen. Deutschland ist nach Einschätzung von Experten durchaus in der Lage, ein eigenes KI-Leuchtturmprojekt zu entwickeln. In einer am Dienstag vorgestellten Machbarkeitsstudie bezifferte der KI-Bundesverband den finanziellen Aufwand auf 350 Millionen bis 400 Millionen Euro für die Umsetzung der KI-Initiative "LEAM" (Large European AI Models).

In der Medizin werden MRT-Daten per KI analysiert, um Krankheiten zu erkennen. Auch in Kartendiensten wie Google Maps steckt Künstliche Intelligenz, wenn etwa die schnellste oder beste Route mit dem geringsten Spritverbrauch vorausgesagt wird.

Google Maps berechnet auf Wunsch künftig auch die nachhaltigste Strecke und berechnet das Sparpotenzial.

Routenberechnungen mit KI

Auch Internet-Browser oder auch Schreibprogramme werden immer "intelligenter". So hat etwa Microsoft angekündigt, in seinem Browser Bing oder den Cloud-Diensten wie Office vermehrt Künstliche Intelligenz einsetzen zu wollen. Das Unternehmen setzt dabei auf die Technologie der Firma OpenAI, die den auf Künstlicher Intelligenz basierenden Chatbot ChatGPT oder auch das Bildprogramm DALL-E entwickelt hat.

Die Anwendung ChatGPT versucht, Fragen von Nutzern zu verstehen und in einer schriftlichen Konversation so zu beantworten, wie es ein Mensch tun würde. Dabei kann sie nicht nur Nachfragen beantworten, sondern auch Programmcode oder beliebige Texte wie Aufsätze, Geschäftsbriefe oder Gedichte schreiben - und dabei auf Wunsch auch den Stil bestimmter Autoren imitieren.

Ähnlich funktioniert DALL-E. Das KI-Programm kann aufgrund von Texteingaben fotorealistische Bilder erstellen, auch hier wieder auf Wunsch in verschiedenen künstlerischen Stilrichtungen.

Das Potential ist gewaltig - und der neue große Trend. Microsoft hat bereits seit 2019 mehrere Milliarden Euro in das Unternehmen OpenAI gesteckt. Damit setzt der Konzern andere KI-Spezialisten wie Google oder den Facebook-Mutterkonzern Meta erheblich unter Druck, die auch auf dem Gebiet unterwegs sind. Google-Chef Sundar Pichai hat bereits die 2019 ausgeschiedenen Unternehmensgründer Larry Page und Sergey Brin wieder reaktiviert, um die KI-Strategie des Unternehmens zu prüfen.

Wo ist KI hilfreich?

Chatten

Kunden-Kommunikation per KI

Überall dort, wo große Datenmengen verarbeitet werden müssen, kann KI helfen, Muster zu erkennen und so Aufgaben zu lösen, bei denen der Mensch an seine Grenzen stößt - etwa bei selbstfahrenden Autos, bei der Berechnung von Klimamodellen oder der Warnung vor Naturkatastrophen. Auch wenn es darum geht, Routinefragen etwa nach Öffnungszeiten in einem Kundenchat zu beantworten, kann Künstliche Intelligenz die menschlichen Kundenberater entlasten.

Aber nicht nur große, auch immer mehr kleinere Unternehmen setzen KI-Systeme ein, um ihre Prozesse zu optimieren. So lässt sich die Bäckereikette Steinhoff in Welver von einer Software voraussagen, wie viele Backwaren ihre Filialen wann verkaufen werden. Das hilft nicht nur dem Unternehmen, sondern auch der Umwelt. So konnte nicht nur der Umsatz gesteigert, sondern auch der Wareneinsatz und damit der Abfall am Ende des Tages deutlich reduziert werden.

Helfen kann KI auch in der Schule - dort vor allem den Schülerinnen und Schülern. Schließlich verfasst etwa ChatGPT auf Kommando ganze Aufsätze oder Gedichte. Nach Ansicht von Bildungsfachleuten könnten dabei jedoch Kreativität und kritisches Denken auf der Strecke bleiben. "Auch wenn das Modell bereits sehr gut funktioniert, gibt es noch immer des Öfteren falsche Antworten, die gleichzeitig allerdings sehr überzeugend klingen", erläutert die Informatikprofessorin Iryna Gurevych von der Technischen Universität Darmstadt.

Wo kann KI schaden?

In falschen Antworten liegen auch die Risiken von Künstlicher Intelligenz wie ChatGPT. Denn mit dessen Hilfe können in Sekundenschnelle komplett falsche Hausarbeiten, Essays und Texte generiert werden. Ein Hinweis auf das Alter der von der KI verwendeten Daten oder die Quelle findet sich im Ergebnis oft nicht.

Kritiker geben auch zu bedenken, dass ChatGPT Vorurteile und Fehler verbreiten könnte, die sich aus ihrer Datenbasis ergeben. Die Stadt New York City hat die App deswegen für ihre Schulen verboten. Das steht in NRW noch nicht an. "Wir sehen durchaus auch Risiken, die da drin stecken. Auf der anderen Seite ist es ja unsere Aufgabe als Schule, auch dafür zu sorgen, dass wir Schülerinnen und Schülern die Kompetenz vermitteln, dass sie damit gut umgehen können", erklärte Schulministerin Dorothee Feller (CDU) dem WDR.

Deutliche Kritik hingegen gibt's am "Predictive Policing", das von Behörden eingesetzt wird, um kriminelles Verhalten oder Straftaten in bestimmten Gebieten vorherzusagen. Organisationen wie Amnesty International sehen hierbei etwa die Unschuldsvermutung bedroht. "Die Annahme, dass in dem Gebiet etwas passieren könnte, führt dazu, dass auch die Verdachtsschwelle sinkt", erklärt der Kriminologe Simon Egbert. "Personen werden tendenziell schneller und öfter als verdächtig angesehen, weil sie in einem Gebiet herumlaufen, das von der Software als riskant definiert wurde", so Egbert.

Massive Auswirkungen wird KI auch in der Arbeitswelt haben - in mehrfacher Hinsicht. Einige Konzerne setzen bereits KI-Systeme ein, um die Vielzahl an Bewerbungen zu sichten. Warum eine Bewerbung aussortiert wurde, weiß dann nur die KI. Aber auch bestehende Jobs sind durch KI in Gefahr. Im Kundenservice- oder IT-Bereich übernimmt die Software immer mehr Aufgaben, auch im Journalismus oder in der Werbung. Einige Verlage lassen heute schon Berichte automatisch erstellen, etwa bei der Spielberichterstattung im Regionalsport.

Wie sollten wir mit KI umgehen?

Beim Einsatz von KI-Software ist die zentrale Frage: Wie sehr kann oder will man sich auf das Ergebnis verlassen? Entscheidend ist hierbei immer der Datenbestand, also die "angelernten" Parameter, die die Software verwendet. Sind diese unvollständig oder nicht neutral, kann die Software durchaus diskriminierende Empfehlungen abgeben. Die Anwendung an sich ist dabei weder gut noch schlecht - sie kann eben nur in dem Rahmen agieren, der ihr antrainiert wurde.

Die EU-Kommission will mit neuen Regeln die Grundlage dafür schaffen, dass Nutzer KI-Anwendungen vertrauen können. So soll es verboten werden, Künstliche Intelligenz zur Bewertung von Menschen auf Grundlage ihres sozialen Verhaltens oder Persönlichkeitsmerkmalen einzusetzen, wenn dies zu Benachteiligungen führt.