Der WDR beteiligt sich am Forschungsprojekt Open GPT-X. Die Alternative zu ChatGPT könnte von 2025 an in Medienhäusern und der europäischen Wirtschaft diverse Routine-Aufgaben übernehmen. Doch Vorsicht: Sprachmodelle neigen zum Halluzinieren.

Wenn die KI halluziniert

Stand: 24.03.2023, 11:46 Uhr

Der WDR beteiligt sich am Forschungsprojekt Open GPT-X. Die Alternative zu ChatGPT könnte von 2025 an in Medienhäusern und der europäischen Wirtschaft diverse Routine-Aufgaben übernehmen. Doch Vorsicht: Sprachmodelle neigen zum Halluzinieren.

Von Christian Gottschalk

Die Idee lag auf der Hand. Natürlich habe ich erstmal ChatGPT beauftragt, diesen Artikel zu schreiben. "Bitte verfasse zirka 4000 Zeichen über den Gebrauch von ChatGPT im Westdeutschen Rundfunk. Der zuständige Mitarbeiter heißt Benedikt Schäfer." Mehr Information gab ich dem Programm nicht. Das Ergebnis klang so: "Ein zuständiger Mitarbeiter des WDR, Benedikt Schäfer, hat das Potenzial von ChatGPT erkannt und nutzt es aktiv. Er ist begeistert von der Geschwindigkeit und Genauigkeit, mit der ChatGPT Aufgaben erledigen und Informationen liefern kann."

Der WDR beteiligt sich am Forschungsprojekt Open GPT-X. Die Alternative zu ChatGPT könnte von 2025 an in Medienhäusern und der europäischen Wirtschaft diverse Routine-Aufgaben übernehmen. Doch Vorsicht: Sprachmodelle neigen zum Halluzinieren.

Was sind denkbare Anwendungen im WDR und anderen Medienhäusern? Benedikt Schäfer: "Wir wollen Know-how über KI-Sprachmodelle sammeln, um informierte Entscheidungen treffen zu können."

Die Tonalität sei doch ganz gut getroffen, meint Projektkoordinator Benedikt Schäfer aus dem Team Dateneinheit (Informationsmanagement/VD): "Was mich daran fasziniert: Die KI hat 'verstanden', was man von ihr möchte. Es ist ausgedacht, klingt aber plausibel." Später im Text behauptet mein KI-Kollege: "Der WDR nutzt Chatbots, die auf ChatGPT basieren, um Nutzern bei der Navigation auf der Website des WDR zu helfen und Fragen zu beantworten." Stimmt nicht. Sprachmodelle haben Probleme mit Faktentreue. "Halluzinieren" nennen das die Experten.

Forschungsprojekt

Ich muss den Artikel wohl selber schreiben. Fakt ist: ChatGPT wird nicht vom WDR genutzt. Vielmehr beteiligt sich der Sender am europaweiten Forschungsprojekt Open GPT-X. Gemeinsam mit zehn weiteren Partnern aus Wirtschaft und Wissenschaft, unter anderem zwei Fraunhofer-Instituten und dem Forschungszentrum Jülich, arbeitet man an einem europäischen KI-Sprachmodell. Finanziert vom Bundesministerium für Wirtschaft und Klimaschutz. Die Forschung soll also der Wirtschaft nutzen. "Wir wollen Know-how über KI-Sprachmodelle sammeln, um informierte Entscheidungen treffen zu können", erklärt Schäfer die Motivation des Hauses, sich daran zu beteiligen. Die Erwartung an den WDR: Er soll die Frage beantworten, was denkbare Anwendungen im Medienumfeld wären.

Anwendungsbereiche

Konkret experimentiert der WDR derzeit mit der Automatisierung in der Berichterstattung über Fußballbegegnungen auf sportschau.de. Das Ziel: Die KI verarbeitet Informationen zu einem Artikel, die ihr von einem spezialisierten Dienstleister zur Verfügung gestellt werden. Dafür erhält sie eine umfangreiche Statistik. Startaufstellung, welche Karte in welcher Minute, Tore, vergebliche Torschüsse und vieles mehr. "Manchmal klappt das ganz gut", erklärt Schäfer, "manchmal erfindet das Programm aber auch Spieler, die gar nicht mitgespielt haben." Mittelfristig soll die Redaktion mit Unterstützung der Automatisierung bislang unterrepräsentierte Ligen und Sportarten, beispielsweise die Regionalliga und den Frauenfußball, ins Rampenlicht rücken.

Weitere Anwendungen: Die Dateneinheit versucht, das Programm darauf zu trainieren, Zusammenfassungen für Inhalte der Mediathek zu schreiben. Außerdem wurde schon untersucht, wie KI-Sprachmodelle bei der Übersetzung von Texten in "leichte Sprache" unterstützen können, was ein weiterer Schritt in Richtung Barrierefreiheit wäre.

Ein großer Bereich, in dem ein KI-Sprachmodell für Arbeitsentlastung sorgen könnte, ist das Community Management. Klingt nach einem hippen Job, bedeutet aber, dass gut ausgebildete Menschen alle Kommentare lesen, die auf den Social-Media-Kanälen des WDR hinterlassen werden. Und dann entscheiden, worauf sie antworten oder welche Kommentare wegen der Community-Standards gelöscht werden müssen. Die KI wäre mit etwas Übung in der Lage, Kommentare zu filtern. Welche müssen dringend geprüft werden? Welche klingen wütend? Welche sind belanglos? Erkenne den Troll!

Funktionsweise

ChatGPT übt in seinem eingangs erwähnten Artikel sogar quasi Selbstkritik: "Es gibt jedoch auch Bedenken hinsichtlich des Einsatzes von künstlicher Intelligenz wie ChatGPT. Einige befürchten, dass der Einsatz von ChatGPT und anderen KI-Technologien langfristig Arbeitsplätze ersetzen könnte." Wie kommt das Programm zu seinen Ergebnissen? GPT, die Grundlage für die hier erwähnten Sprachmodelle, steht für "Generative Pretrained Transformer". Man trainiert diese Modelle mit großen Mengen an Texten aus dem Internet. Bücher, Wikipedia, Internet-Foren. Jedoch werden keine Informationen gespeichert, wie "Der Eiffelturm steht in Paris", sondern Wortbestandteile. Die werden wie in einem Wörterbuch abgelegt, und dann errechnet das Programm Wahrscheinlichkeiten von Wortbestandteilen, die aufeinander folgen. Schäfer: "Das Weltwissen ist da nicht drin, sondern das Modell kann ganz so reden, als hätte es das." Dieses Training ist teuer und aufwändig, weshalb alle Informationen, mit denen ChatGPT gespeist wurde, 2021 enden. Denn jede neue Eingabe setzt riesige Rechenprozesse in Gang, die enorme Server-Kapazitäten benötigen.

Risiken

ChatGPT-Entwickler OpenAI bietet derzeit als einzige Firma ein funktionsfähiges Sprachmodell an, das für den deutschen Markt interessant ist. Ein Risiko, "wenn diese Modelle mal das primäre Medium der Informationsbeschaffung werden", gibt Benedikt Schäfer zu bedenken. "Und wenn die – mal ein bisschen weiter gesponnen – bald Fachartikel schreiben, dann hat eine einzelne Firma einen enormen Einfluss darauf, was Menschen denken und was sie wissen." Auch deshalb gibt es OpenGPT-X.

Der WDR beteiligt sich am Forschungsprojekt Open GPT-X. Die Alternative zu ChatGPT könnte von 2025 an in Medienhäusern und der europäischen Wirtschaft diverse Routine-Aufgaben übernehmen. Doch Vorsicht: Sprachmodelle neigen zum Halluzinieren.

Auch der Grad der Political Correctness hängt von der Programmierung ab.

Natürlich brauchen solche Sprachmodelle inhaltliche Filter. ChatGPT wird keine rassistischen Texte schreiben und weigert sich hartnäckig, die Mondlandung zu leugnen. Der Grad der Political Correctness hängt aber immer von der Programmierung ab. Und es ist für die User:innen nicht ersichtlich, wann so ein Filter anspringt. Der andere große Player in der Entwicklung von Sprachmodellen ist China. Die Frage nach dem Status von Taiwan wird das chinesische Programm vermutlich anders beantworten als das amerikanische. Noch ein Grund, ein europäisches Modell zu entwickeln, das europäischen Prozessen unterworfen ist.

Ausblick

Das Forschungsprojekt läuft noch bis Ende 2024. Bis dahin soll OpenGPT-X professionell einsetzbar sein. In Tools, die vieles können, aber nicht alles. "Mit Kreativität und Humor tun Sprachmodelle sich schwer. KI kann auch keine Emotionen erzeugen," so Benedikt Schäfer. "Ich glaube, wir werden erst in ein paar Jahren sehen, wo KI Einzug gehalten hat. Vielleicht ganz woanders, als man heute denkt." Mit diesem Fazit ist er sich erstaunlich einig mit ChatGPT, das schrieb: "Es bleibt abzuwarten, wie sich die Verwendung von KI in Zukunft entwickeln wird und wie sie die Arbeitsabläufe und die Art und Weise, wie Informationen gesammelt und verbreitet werden, verändern wird."