Wahlmanipulation durch Chatbots – Utopie oder wirkliche Gefahr?

Vor einiger Zeit wurde ich gefragt, ob es möglich ist, per Chatbot Wahlen und Meinungen zu manipulieren. Die Antwort ist „Ja, das ist problemlos möglich, ziemlich einfach machbar und wahrscheinlich schon in vollem Gange“.

Grundsätzlich muss aber an erster Stelle etwas differenziert werden: Bei den manipulativen Bots handelt es sich nicht um Chatbots im bekannten Sinne, sondern um social Bots. Im Unterschied zu Chatbots sind social Bots weniger intelligent und agieren im Grunde wie Crawler, die bei einem bereits online lesbaren Post/Artikel oder Text einen Kommentar oder Like abgeben.

wahlmanipulation-durch-chatbots

FAKE-NEWS FÜR DUMMIES

Das ist keine Kommunikation, sondern nur ein einfacher POST, ein kleiner Text-Kommentar, mehr nicht. Chatbots hingegen sind normalerweise so konzipiert, dass sie in den Dialog eintreten können, um mit dem Menschen bilateral zu kommunizieren.

Das Manipulieren von Meinungen oder Schaffen von Fake-News jedoch ist nicht wirklich kompliziert. Man braucht eigentlich nur einige Logins (Facebook und Co) und schon kann man einen Crawler programmieren, der bei bestimmten Keywords in einem Post eine Antwort in das Kommentarfeld schreibt und abschickt. Die Antwort kann sinnvoll sein, oder auch nicht, muss nur den richtigen Hashtag ausweisen. Die Logins kann man in Asien erwerben, sind dort im Tausender-Pack mit Login erhältlich.

Hat man viele solcher Bot-Crawler (social Bots), kann man folglich auch sehr viele Kommentare posten. Haben alle diese Kommentare eine große Schnittmenge an gleichen Hashtags, dann werden (gerade bei Twitter und Google+) diese Posts inkl. der Kommentare als besonders wichtig eingestuft und rutschen so in der Sichtbarkeit und in den Empfehlungen nach oben.

DIE WAHRHEIT IST IRGENDWO DA DRAUSSEN

Wenn man jetzt gerissen vorgeht, dann ist der Ursprungs-Post auch noch vom Betreiber der Social-Bot-Engine. In der Folge schreibt also irgendjemand (der Bot-Betreiber), der eigentlich unbedeutend ist, einen Post und durch die vielen Kommentare seiner Bots (plus dem richtigen #Hashtag), rankt so ein Post auf einmal sehr hoch und schafft sich selber Sichtbarkeit und Aufmerksamkeit. Das wäre der erste Schritt einer Manipulation.

Schlimm wird es, wenn der social Bot a) seine Antworten dynamisiert und b) der social Bot als Multi-Thread geschrieben ist, und dadurch beliebig skalieren kann. Um nicht entdeckt zu werden muss er zwar über Proxies arbeiten, aber davon gibt es ausreichend kostenlose im Netz – also keine wirkliche Hürde. So kann ein social Bot sehr schnell viele Kommentare auch in Blogs oder traditionellen Medien-Seiten hinterlassen, ohne das er groß nachvollziehbare Spuren hinterlässt.

Hier haben die sozialen Netzwerke und auch die vielen Mediendienste wie Spiegel, Stern und Co ernste Probleme, die Kommentare schnell genug zu finden und zu löschen. Besonders tricky wird es, wenn der Post sein Ziel erreicht, und auf einmal hoch rankt. Dann kommentieren unter Umständen nicht nur die Bots des Betreibers, sondern zusätzlich auch noch echte User. An dieser Stelle muss der „Fake“ quasi manuell entdeckt und gelöscht werden. Dafür haben die Netzwerke derzeit weder die Power noch die Routinen noch ausreichend qualifiziertes Personal. Die Medienhäuser haben schnell reagiert, nachdem während der Flüchtlingswelle 2015 unzählige rassistische Kommentare zu lesen waren – sie haben die Kommentar-Funktion einfach abgeschaltet.

Die Algorithmen der Google- und Facebook-Crawler und -Indexierer sind automatisiert und folgen gewissen Regeln, was eine schwer bis gar nicht kontrollierbare Dynamik entwickeln kann. Im Kontext Suchmaschinenoptimierung ist es wichtig, dieses Regelwerk und vor allem die Arbeitsweise der Suchmaschinen zu verstehen. Im Kontext social Bots und Fake-News kann man diese ebenso nutzen, da das angestrebte Ziel, ein hohes Ranking und damit Sichtbarkeit und Traffic zu generieren, vergleichbar ist.

Diese Dynamik zu nutzen wird noch einfacher, wenn man auf die Logins bei den sozialen Netzwerken verzichtet, und einfach beliebig in die  Kommentarfelder von zig Blogs oder Seiten der traditionellen Medienhäuser kommentiert. Anders als bei SEO braucht man nicht wirklich auf die Qualität des Kommentars zu achten, da es hier nicht wirklich geschäftskritisch ist, was geschrieben wird. Durch das zahlreiche Kommentieren werden die Automatismen der Suchmaschinen weiter aktiviert und einzelne Themen können somit unglaublich an Relevanz gewinnen, da sie einfach sichtbarer werden. Eine so platzierte Fake-News eskaliert ab Sichtbarkeit von ganz alleine immer schneller, da bei Bekanntwerden des Fakes auch noch anderen Medien, weitere (echte) Blogger und (echte) Journalisten weiter über den Fake berichten – was zu einer noch schnelleren Verbreitung führt. Somit kann schnell aus ein paar einfachen Kommentaren eine Art „E-Pandemie“ werden.

EIN KLEINES BEISPIEL ZUR VERDEUTLICHUNG

Hat ein Thema (Hashtag) viele Likes oder Kommentare, die wiederum den gleichen Hashtag nutzen und der Ursprungs-Autor hat einen gewissen Social Graph (also viele Freunde/ Follower), dann wird eine Meldung als wichtig eingestuft. Stuft Facebook eine Meldung hoch, erscheint Sie in der Suche weiter oben, erscheint in Empfehlungen/Trending-Topics und der Post wird in den Seiten der Follower angezeigt. Schnell findet auch Google die Meldung und indexiert diese. Da weiter neue Kommentare hinzukommen (social Bot-Kommentare), scheint das Thema wohl wichtig zu sein, Google findet weitere Anhaltspunkte im eigenen Google+ (wieder ist der Hashtag wichtig) und wenn das gleiche bei Twitter passiert, dann wird auf einmal das ganze Thema superwichtig und erscheint bei Google und Co weiter oben in den Trend-Themen.

Jetzt finden auch die Crawler von heise.com und spiegel.de den Beitrag und stürzen sich darauf – die Redakteure machen im besten Fall einen eigenen Artikel/Beitrag daraus (scheint ja ein trendiges Thema zu sein) und veröffentlichen diesen dann auf den eigenen Plattformen wie spiegel.de oder heise.com. Das wiederum findet Google und weil die Seiten einen hohen Trust-Wert haben wird die Meldung gleich noch mal interessanter und noch prominenter auf Google angezeigt, kommt ggf. in den News-Index. Passiert das, pushen auch N24 und NTV und alle anderen Medienhäuser die Meldung durch die Apps.

Jetzt setzt man den social Bot noch auf das Kommentieren in Blogs und auf den Medienhaus-Seiten an, und schon erscheint der Hashtag noch öfter, wiederum unterstützt durch den Trust der Herausgeber-Seite. Dadurch steigt die Relevanz noch schneller in der Google Suche. Dummerweise sind auf den Medien-Seiten auch echte Kommentare echter Menschen, was das Erkennen des Fakes nahezu unmöglich macht.

WEITERENTWICKLUNGEN DER SOCIAL BOTS

Gut getarnte social Bots nutzen neben den vom Programmierer vorgesehenen Hashtag bzw. der Botschaft noch Inhalte der jeweiligen Seite an sich in den Kommentaren. Sprich, das, was die social Bots automatisch schreiben und posten ist auf den Inhalt der zu kommentierenden Seite angepasst. Werden jetzt noch ein paar typische Schreibfehler oder sprachliche Verzerrungen eingebaut, ist ein Entdecken fast unmöglich bzw. nur unter hohem Rechercheaufwand möglich.

Weiter entwickelte social Bots gehen kombinieren das Posten, Liken und Kommentieren mit automatisiertem Linkbuilding. Dabei verlinkt jeder neue Post oder Kommentar auf eine Seite, die von einem anderen social Bot des gleichen Programmierers schon kommentiert wurde. Googles Algorithmen finden die Links, selbst wenn diese nicht als „Hyperlink“ wirklich verlinken. Oft reicht schon das Posten der URL ohne Protokoll (also ohne http). Viele Blogs und Kommentarfelder lassen keine URLs in den Kommentaren zu, um sich vor Spam zu schützen, da es sich jedoch bei einer URL ohne Protokollangabe nur um Text handelt, werden diese Kommentare in der Regel zugelassen und Google ist schlau genug, den Text als Link zu verstehen.

Ab diesem Zeitpunkt ist es fast unmöglich, die Fake-News zu entfernen. Selbst, wenn sie erkannt werden, ist es m.E. nicht mehr möglich, die Automatismen der Suchmaschinen auszuschalten oder zu umgehen. Die News verbreitet sich exponentiell schneller, als das Finden und Löschen von Inhalten und Links erfolgen kann. Das wurde schon mehrfach im Kontext „Negative SEO“ bewiesen.

WIE ERKENNT MAN FAKE-NEWS UND WAS MACHT MAN DAGEGEN?

Wie beschrieben, Fake-News und Fake-Accounts zu erkennen ist nicht einfach. Das bedarf in der Regel einiges an Recherche. Dabei können erste Anhaltspunkte sein:

  • Wie oft hat ein User etwas gepostet?
  • Wie viele Freunde oder Follower hat der Account?
  • Wie viele unterschiedliche Themen und Posts hat der User bereits veröffentlicht?
  • Sind die Kommentare und Posts immer gleich, oder variieren sie?

Grundsätzlich rate ich jedoch, das Hirn einzuschalten und im Zweifel lieber etwas skeptischer zu sein als zu gutgläubig. Diese Verantwortung liegt in der Hand jedes einzelnen, der soziale Netzwerke oder Medien-Seiten nutzt, um sich zu informieren. Im Zweifel oder bei besserem Wissen obliegt es ebenso jedem Einzelnen, das Netzwerk oder den Mediendienst über die Fälschung zu informieren.

Die Politik wird an dieser Stelle machtlos sein – außer das hohe Gut der freien Meinungsäußerung und Pressefreiheit wird über Bord geworfen und jegliche Online-Publikation wird durch Regierungsstellen freigegeben werden müssen. Ob das dann immer der Wahrheit entspricht ist zwar auch nicht sicher, jedoch wäre so gerade in Zeiten des Wahlkampfes zumindest grob sichergestellt, dass keine absichtlichen Wahlkampf-Fakes im Netz landen.

Doch dieses Szenario ist für mich undenkbar. Alleine der technische Aufwand, der notwendig wäre, wirklich alle Online-Medien der Zensur zu unterwerfen ist m.E. nicht realisierbar. Selbst wenn einzelne Seiten wie Facebook oder Wikipedia gesperrt werden würden, gäbe es noch zig weitere Wege, unzensierte und unter Umständen auch falsche Nachrichten ins Netz zu bringen. Von daher halte ich die Forderung an die Politik für nicht durchführbar, eine Verhinderung von Fake-News sicherzustellen. Das ist technisch nicht machbar – nicht ohne massive Eingriffe in die Grundrechte im Sinne der Meinungsfreiheit.

Zu ersten Schritten der Löschung von Fake-News und rassistischen Posts wurde Facebook schon verpflichtet. Die Folge: ca. 600 Mitarbeiter müssen täglich ca. 2.000 Posts und Kommentare (jeder Mitarbeiter) lesen und entscheiden, ob das löschungswürdig ist, oder nicht. Ist das nicht schon der erste Schritt zur Einschränkung? Bei weniger als einer Sekunde Entscheidungszeit – wie wird da sichergestellt, dass nicht das Falsche gelöscht wird?

Folglich bleibt nur: eigenes Hirn einschalten und „nicht alles glauben, was in der Zeitung steht“.