Wenn Maschinen twittern

Facebook und Twitter Logo auf Tablet oder Smartphone

Propaganda-Software

Wenn Maschinen twittern

Der Konflikt in der Ost-Ukraine macht es deutlich: Viele Staaten nutzen Soziale Medien für ihre Sicht der Dinge - und für Propaganda. Aber nicht immer sitzen Menschen an den Rechnern, die auf Twitter, Facebook und Co Meinungsmache und Desinformation betreiben.

Folgender Schlagabtausch der Meinungen, aus dem Russischen übersetzt, fand genau so auf Twitter statt.

Januar 2015

Tweet von Nutzer Kiewer Demokrat: Putin schickt neue Truppen nach Donezk. Kampf um Flughafen verstärkt sich.

Antwort-Tweet von Nutzer Republik Donezk: Im Dezember hat Russland einen Hilfskonvoi mit Lebensmitteln und Medikamenten in die Ost-Ukraine geschickt, keine Truppen.

Antwort-Tweet von Nutzer Kiewer Demokrat: Das passiert jetzt, russische Truppen als Freischärler in Donezk.

Antwort-Tweet von Nutzer Republik Donezk: Russland achtet die Souveranität der Ukraine. Dort herrscht Bürgerkrieg.

Ob die Nutzer Kiewer Demokrat und Republik Donezk aber auch tatsächlich Menschen sind,  ist nicht gesichert. Nicht jeder Nutzer in sozialen Netzwerken, Chat-Gruppen, Maillinglisten und Kurznachrichtendiensten ist eine Person – immer öfter ist es ein Programm. Im anonymen Netz können auch Computerprogramme Diskussionen führen und die Meinung ihres Auftraggebers vertreten und verbreiten. Propaganda-Bots werden solche Systeme genannt.

Sinnvolle Texte von Maschinen

Der Sprachwissenschaftler Joachim Scharloth von der Technischen Universität Dresden forscht über solche Propaganda-Bots, hat selbst auch bereits solche Software zu Testzwecken entwickelt. "Das sind Computerprogramme", erklärt er, "die in der Lage sind, natürliche Sprachen zu produzieren und sinnvolle Sätze und Texte zu schreiben. Sie können diese auch automatisch zum Beispiel in sozialen Netzwerken zu posten. Sinnvoll heißt, dass sie Antworten geben oder reagieren können auf sprachliche Äußerungen von Menschen oder anderen Bots."

Die Antworten dieser Programme lesen sich, als hätte sie ein Mensch geschrieben. Sie bringen die Meinung auf den Punkt und antworten individuell auf den jeweiligen Tweet bei Twitter oder Post bei Facebook und anderen Internet-Diensten. Viele Regierungen, vor allen Dingen aber Geheim- und Nachrichtendienste, setzen solche Propaganda-Bots bereits ein.

Geheimdienst-Tweets im Wahlkampf

Einen prominenten Fall schildert Joachim Scharloth: "Beispielsweise bei der Präsidentschaftswahl in Südkorea wurde die amtierende Präsidentin vom Geheimdienst unterstützt mit Tweets auf Twitter. Ich glaube, das waren 1,3 Millionen, die sich positiv über sie geäußert haben. Ein Ziel dieser Bots sind Social-Media-Monitoring-Dienste die automatisch analysieren, wie über Personen gesprochen wird. Denn wer die öffentliche Meinung in dieser Form beeinflussen kann, produziert natürlich eine gute Nachricht. Das führt dazu, dass man Rückenwind bei den Wählerinnen und Wählern kriegt."

Menschen braucht es dafür nur als Programmierer. Der russische AuslandsgeheimdienstFSB hat allein im vergangenen Jahr eine Million Dollar in ein Entwicklungsprojekt namens "Storm-13" investiert. Hier soll Software entwickelt werden, die regelrechte Netzwerke von Propaganda-Bots steuern kann. Darin könnten dann mehrere Millionen Propaganda-Bots die Stimmung im Internet  im Sinne der russischen Regierung beeinflussen. Millionen von Bots, die wie Millionen individuelle menschliche Meinungsträger wirken.

Bots vernetzen sich auch

Das Verteidigungsministeriumder USA geht noch einen Schritt weiter. Die amerikanischen Militärs wollen die Propaganda-Bots so menschlich wie nur eben möglich erscheinen lassen. Joachim Scharloth erläutert die Entwicklung: "Wie kann man soziale Inhalte so gestalten, dass sie glaubhaft wirken? Wie kann man Bots so erscheinen lassen, dass sie menschlich sind? Da gehört natürlich mehr dazu, als nur sinnvolle Sätze zu posten. Man muss sich vernetzen, Katzenbilder posten, Privates äußern." Wer solch einen Bot baut, braucht klare Vorgaben wie sein Auftraggeber in der Diskussion erscheinen will, also zum Beispiel heimatverbunden oder kraftvoll. Ein semantisches Computerprogramm erzeugt dann entweder eigene Tweets und Posts oder antwortet auf die Tweets und Posts der Gegner.

Ganze Diskussionen ohne Menschen

Zuvor muss natürlich eine Erkennungssoftware die Tweets und Posts der Gegner analysieren und das Ergebnis dieser Analyse an das Semantik-Programm weitergeben. So entstehen dann automatische Antworten und sogar ganze Diskussionen. "Man kann Putin zum Beispiel vorwerfen er sei nationalistisch", sagt Scharloth. "Wenn man aber sagt, er ist patriotisch und dient seinem Volk, dann ist das wieder etwas Positives."

Computerprogramm oder Mensch? Was hinter einem Twitter- oder Facebook- Account steckt, ist für den normalen Nutzer oft gar nicht mehr zu erkennen.

Autor des Radiobeitrags: Peter Welchering

Stand: 26.02.2015, 06:00

Mehr zum Thema