Statement: Propaganda 4.0

So einfach lässt sich die Stimmung im Netz manipulieren

Chatbots, genauer gesagt Social Bots, haben sich zu den erfolgreichsten Influencern im Social Media Marketing entwickelt. Die menschliche Konkurrenz ist chancenlos, wenn es um die effiziente und gleichzeitig zielgerichtete Verbreitung von Inhalten und Botschaften geht. Die Maschine vom Menschen zu unterscheiden wird dabei immer schwieriger. Das Ergebnis ist paradox: Wir programmieren Chatbots, die die Algorithmen der Social Bots erkennen – um uns gegen deren ungefilterten Einfluss, etwa die Verbreitung von Fake News, zu schützen.

Es klingt wie der feuchte Traum eines jeden Despoten: automatisierte Propaganda, die sich wie ein Lauffeuer verbreitet – und das quasi von allein. Nur, dass es kein Traum mehr ist – zumindest in den sozialen Netzwerken. Zugegeben, Propaganda gab es schon immer – aber nie zuvor konnte sie so weit und so zielgerichtet verbreitet werden. Das Ziel: Meinungspluralismus durch die eine Botschaft zu ersetzen. Also das, was Diktatoren seit jeher über Medien zu erreichen versuchen, aber nie zuvor in dieser Intensität und Schnelligkeit zu tun vermochten.

Das Mittel der Wahl

Social Bots sind Computerprogramme, die Stimmung in sozialen Netzwerken machen. Vor allem auf Twitter, das mit seinen 140-Zeichen-Messages besonders leicht zu bespielen ist. Angeblich sind bis zu 15 Prozent (!) aller Twitter-Accounts Software-geführt. Das klingt aus Marketingsicht wunderbar (und ist es auch). Doch auch Propaganda ist Marketing. Und die Frage liegt auf der Hand: Haben Social Bots das Potenzial demokratische Systeme zu untergraben? Die Sorge ist groß, die Gegenmittel bescheiden. Man hört Vorschläge wie die Einführung eines neuen Strafbestands „Digitaler Hausfriedensbruch“ oder die Verbannung von Bots aus dem Wahlkampf. Über das „Wie“ hört man indes wenig. Gibt es überhaupt ein Mittel, um sich gegen solche regelrechten Propaganda Bots zu wehren?

Dissonanzreduktion oder Schweigespirale?

Bei der „Automatisierten Propaganda“ werden Social Media Accounts benutzt, die wie menschliche Profile aussehen; darüber werden Inhalte verbreitet und mit echten Usern interagiert, um die öffentliche Meinungen zu manipulieren. Eine besonders wirksame Waffe scheinen Fake-News zu sein, weil sie Meinung durch angebliche Authentizität ersetzen. Wie nachhaltig dieser Versuch wirklich ist, wird heiß diskutiert. Es gibt Theorien der Meinungsbildung, die davon ausgehen, dass Medieninhalte eher die eigene Meinung bestärken als sie zu ändern. Dem entgegen stehen Theorien wie die der Schweigespirale, wonach – einfach gesprochen – eine Minderheitsmeinung irgendwann versiegt, während eine Mehrheitsmeinung sich selbst nach oben pusht. Das ist dann besonders gefährlich, wenn radikale Minderheitenmeinungen zu scheinbaren Mehrheitsmeinungen aufgeblasen werden – eben etwa durch den Einsatz von Social Bots.

So erkennen Sie Meinungsroboter: „Stolpert man in der Timeline über radikale Positionen oder aufrührerische Nachrichten, sollte man sich zunächst die Quelle anschauen: Kennt man die Person, die dort angeblich twittert? Kenne ich Follower des Accounts? Ist das nicht der Fall, ist Vorsicht geboten. Weitere Indizien liefert eine unseriöse Profilbeschreibuing, eine „unmenschlich“ hohe Tweetanzahl, eine zu schnelle Reaktzionszeit oder der Praxistest mit einer Frage, die Kontextwissen erfordert und Bots – noch – überfordert. (Quelle: Spiegel Online)

Alles Fake?

Auf der anderen Seite gilt auch: Es gibt keine eindeutige Definition, was Fake-News überhaupt sind. Was wahr oder falsch ist, entspricht beispielsweise auch der subjektiven Einordnung der Rezipienten. Hier kann Transparenz helfen: Wer schreibt eigentlich? Was will das Medium? Welches sind die Quellen, aus denen die Nachricht entstanden ist? Eines steht fest: Falsche Fakten werden dann zum Problem, wenn sie auch von seriösen Quellen multipliziert werden. Dann kann eine konstruierte Realität entstehen, in der Medien kein Spiegel der Wirklichkeit mehr sind, sondern sie selbst erschaffen.

Der hohe Wirkungsgrad der durch Social Bots verbreiteten Fake News entsteht in erster Linie durch ihre Quantität. Wie Heuschrecken fallen sie über die sozialen Medien her – inhaltliche oder formale Qualität sind zweitrangig. Die Intention: Die öffentliche Meinung in Schieflage bringen und Trends (Wahlergebnisse, Aktienkurse, etc.) in eine gewünschte Richtung treiben.

Good bot, bad bot

Nun ist Bot nicht gleich Bot. Zum einen natürlich, weil jeder Bot nur die Intentionen seiner Programmierer wiederspiegelt. Zum anderen, weil Bots nicht nur der Meinungsverbreitung dienen, sondern auch der intelligenten Erfassung und Auswertung von Daten. Dadurch können Bots als Fahnder programmiert werden – manchmal auch martialisch als „Propaganda Bot Hunter“ bezeichnet. Denn Maschinen können besser beurteilen, welche News originär sind und welche nicht. Weil sie in sekundenschnelle Tausende von Websites crawlen, Inhalte vergleichen und Unregelmäßigkeiten – beziehungsweise in diesem Falle eher auffällige Regelmäßigkeiten – erfassen.

Was heißt das für die Zukunft? Nun ja, am Ende des Tages wird uns ein Wettlauf erwarten, wie wir ihn aus der Computerviren-Bekämpfung kennen: Die einen entwickeln Bots, die Schaden bringen, die anderen Bots, die sie bekämpfen. Und da hinter (fast) jedem Bot künstliche Intelligenz und das Prinzip des Machine Learnings stehen, läuft der Kampf vielleicht bald ganz ohne uns. Die Robolution kann beginnen.

Was ist überhaupt ein Chatbot? Chatbots sind eine von vielen Anwendungsmöglichkeiten der Künstlichen Intelligenz. Der Begriff bezeichnet textbasierte Systeme, die mit Menschen in den Dialog treten. Chatbots können als virtuelle Berater (z.B. für Kleidung, Reisen, Restaurants), virtuelle Assistenten (Anfragen bei Behörden, Universitäten), intelligente Suchmaschinen (indem Präferenzen abgefragt werden) oder als virtuelles Call Center eingesetzt werden. Dies kann schriftlich wie auch über die gesprochene Sprache (etwa Amazon Echo, Google Home) geschehen. Bisher sind die Reaktionen von Redakteuren vorgegeben, „intelligent“ ist der Abgleich des Sprachinputs mit internen Datenbanken. Innerhalb von sozialen Netzwerken und den zugehörigen Messenger-Diensten lassen sich spezielle Chatbots nutzen, sogenannte Social Bots. Anders als in der häufigen Anwendungsform der Chatbots, dem Kundenservice, haben die meisten Social Bots ihre Heimat im Marketing.

Kontakt

Daniel Rebhorn

managing partner
+49 711 2992-0
daniel.rebhorn@diconium.com