© JUNGE FREIHEIT Verlag GmbH & Co. www.jungefreiheit.de 07/17 / 10. Februar 2017

Wer hat Angst vorm bösen Bot?
Internet: Politiker und Fachleute debattieren über die Bedeutung künstlicher Profile in sozialen Netzwerken / Angst vor Propaganda
Peter Möller

Sie sind die ultimative Geheimwaffe in jedem Wahlkampf. Mit ein paar Klicks lassen sie angeblich ausgeklügelte Wahlkampfstrategien ins Leere laufen und schicken aussichtsreiche Kandidaten plötzlich auf die Verliererstraße. 

Die Rede ist von sogenannten Social Bots. Dabei handelt es sich um Computerprogramme, die in den sozialen Medien wie Twitter und Facebook automatisch massenhaft Beiträge posten und dadurch Diskussionen und Stimmungen beeinflussen können. Glaubt man den Gerüchten, die über die Macht dieser Meinungsroboter kursieren, haben sie Donald Trump zum Präsidenten gemacht, den Brexit verursacht – und im Herbst werden sie für einen Durchmarsch der AfD bei der Bundestagswahl sorgen. Hinter den Social Bots stehen nach der verbreiteten Lesart wahlweise die Geheimdienste Rußlands und Chinas oder zwielichtige Konzerne. Das Problem bei der ganzen Geschichte: Die wenigste wissen, was Social Bot eigentlich sind – und niemand kann wirklich sagen, welchen Einfluß sie tatsächlich haben. Zudem ist es bislang äußerst schwierig, Meinungsroboter überhaupt als solche zu erkennen. Nur eines scheint derzeit sicher: Die Debatte über den Umgang mit diesen Internetprogrammen beeinflußt bereits jetzt die Auseinandersetzung über den Wahlkampf in Deutschland. Selbst das Bundesamt für Sicherheit in der Informationstechnik (BSI) warnt, Social Bots könnten den Wahlkampf im Herbst beeinflussen (JF 47/16).

Schon werden daher die Rufe nach einem Verbot oder zumindest einer Kenntlichmachung von Bots lauter. „Social Bots müssen gekennzeichnet werden“, forderte die Spitzenkandidatin der Grünen, Katrin Göring-Eckardt, Ende Januar in der Rheinischen Post. Sie kündigte einen entsprechenden Gesetzesvorstoß im Bundestag noch vor der Wahl an. „Dann können die Bürger klar erkennen, wenn ein Tweet oder ein Post von einem Roboter erzeugt wurde“, begründete die Grünen-Politikerin ihre Idee für ein „Anti-Bio-Siegel für Tweets“ (Die Zeit). 

Auswirkungen auf politische Willensbildung unbekannt

Eine Rolle bei diesem Vorstoß dürften die Erfahrungen gespielt haben, die Grünen-Chefin Simone Peter Anfang des Jahres mit den sozialen Netzwerken gemacht hatte. Nachdem sie die Kölner Polizei für die massenhafte Kontrolle von mutmaßlichen nordafrikanischen Intensivtätern („Nafris“) in der Neujahrsnacht kritisiert hatte, erntete sie auf Twitter einen regelrechten „Shitstorm“, also einen Sturm der Entrüstung im Internet. „Es war das Schlimmste, was ich in meiner politischen Laufbahn erlebt habe“, gestand Peter kürzlich der Wochenzeitung Der Freitag. In Tausenden Tweets erntete Peter teilweise heftige Kritik für ihre Äußerungen, für die sie sich schließlich entschuldigte. Auch in diesem Fall bleibt allerdings unklar, welche Rolle Social Bots dabei tatsächlich spielten.

Fachleute sind angesichts populistischer Forderungen nach einer gesetzlichen Regulierung skeptisch. Bei einer Expertenanhörung des Ausschusses Digitale Agenda des Bundestages zum Thema Social Bots und Fake News Ende Januar verwies Markus Reuter von „Netzpolitik.org“ darauf, daß bislang keine aussagekräftige Studien darüber vorlägen, welche Wirkungen und Effekte diese neuen Internetphänomene auf die politische Meinungs- und Willensbildung überhaupt haben. Gleichzeitig hätten manche der bislang bereits vorgeschlagenen Maßnahmen „weitreichende und schädigende Auswirkungen auf die Grundrechte der Presse- und Meinungsfreiheit“, warnte Reuter vor übertriebenem Aktionismus.

Doch wie funktionieren Social Bots eigentlich? Das Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag, das die Parlamentarier wissenschaftlich berät, hat in einem Thesenpapier versucht, eine Definition zu erarbeiten. Demnach sind Social Bots Computerprogramme, „die eine menschliche Identität vortäuschen und zu manipulativen Zwecken eingesetzt werden, indem sie wie Menschen im Internet kommunizieren. Echte Menschen, die mit dem Social Bot kommunizieren, nehmen diese nicht als durch Algorithmen ausgelöste automatische Kommunikation, sondern als echte Internetteilnehmer wahr und sind sich der Manipulation nicht bewußt.“ Das Problem: Die Urheber von Social Bots konnten bislang bis auf wenige Ausnahmen nicht identifiziert oder rückverfolgt werden.

Wer Twitter regelmäßig nutzt, stößt früher oder später auf eine relativ simple Form dieser Programme. Bei Hashtags zu Themen, die gerade „trenden“, also zu denen innerhalb kurzer Zeit viele Tweets abgesetzt werden, beispielsweise nach einem Terroranschlag, erscheinen nach einer gewissen Zeit Werbetweets, die inhaltlich nichts mit dem ursprünglichen Thema  zu tun haben, die aber denselben Hashtag verwenden. Diese automatisch erzeugten Tweets sind in der Regel nur lästig, zeigen aber, wie Meinungsroboter funktionieren.

Ein Beispiel für ein wesentlich komplexeres Botnetzwerk beschreibt der Münchner Politikwissenschaftler Simon Hegelich in einer Studie der Konrad-Adenauer-Stiftung. Demnach seien im Zusammenhang mit dem Ukrainekon-flikt bis zu 15.000 Twitter-Accounts aktiv, die im Durchschnitt 60.000 Meldungen pro Tag absetzen. „Die Inhalte der Meldungen sind auf die antizipierten Interessen junger Männer in der Ukraine ausgerichtet: Die Bots reden viel über Fußball, erzählen sexistische Witze und verbreiten Links zum illegalen Download aktueller amerikanischer Kinofilme. Zwischendurch werden aber gezielt Propaganda-Nachrichten des ‘Rechten Sektors’ – einer ultranationalistischen ukrainischen Vereinigung mit paramilitärischem Ableger – verbreitet“, erläutert Hegelich. Dadurch werde gezielt versucht, aktuelle Trends zu beeinflussen, eigene Inhalte an eine genau definierte Zielgruppe zu transportieren sowie Falschinformation zu verbreiten.

Auch wenn das Beispiel aus dem letztlich militärisch ausgetragenen Ukrainekonflikt stammt, ist das Grundmuster theoretisch auf jede andere Kampagne, die das Beeinflussen der öffentlichen Meinung zum Ziel hat, übertragbar – beispielsweise für eine Bundestagswahl. Um welche Dimensionen es sich dabei handeln könnte, macht eine wissenschaftliche Analyse von Millionen Tweets deutlich, deren Inhalte mit der amerikanischen Präsidentschaftswahl zusammenhingen. Das Ergebnis: Fast zwanzig Prozent aller Tweets zur Wahl seien von Maschinen und nicht von Menschen verfaßt worden, berichtete das Fachmagazin Spektrum der Wissenschaft.

Viele Politiker haben        „Fake-Profile“ im Gefolge 

Ein Nebenaspekt der Debatte um Social Bots sind die sogenannten Fake-Follower. Schätzungen gehen davon aus, daß mittlerweile bis zu zwanzig Prozent aller Nutzer bei Twitter von Computern generiert wurden. Spezielle Dienstleister bieten realen Nutzern diese Fake-Accounts zum Kauf an, damit sie ihre Follower-Zahl und so ihre Relevanz erhöhen können. „Wer viele Follower hat, wird von den sozialen Netzwerken privilegiert behandelt und erreicht somit auch mehr echte Nutzerinnen und Nutzer“, beschreibt Hegelich das Problem. Auch deutsche Politiker verfügen teilweise über eine große Zahl von Fake-Followern. Ob diese gekauft sind oder gezielt von Bot-Programmen auf die Politiker angesetzt wurden, bleibt unklar. Fakt ist: Bei 60 Prozent der 15.000 neuesten Follower des Grünen-Bundestagsabgeordneten Christian Ströbele gibt es laut der Plattform „Motherboard“ Anzeichen dafür, daß es sich bei den entsprechenden Twitter-Konten um Fake-Profile oder Bots handelt. Auf Platz zwei folgt Ströbeles Parteifreundin Göring-Eckardt mit 58 Prozent Roboter-Followern, den dritten Platz belegt CDU-Generalsekretär Peter Tauber (56 Prozent).

Bereits im vergangenen Jahr haben sich die Parteien einschließlich der AfD grundsätzlich darüber verständigt, im anstehenden Bundestagswahlkampf auf Social Bots zu verzichten. Die Befürchtung der Strategen der etablierten Parteien: Vor allem die in den sozialen Medien besonders aktive AfD könnte mit Hilfe von automatisierten Programmen ihre Stellung im Internet weiter stärken. Ein Hintertürchen lassen sich die meisten Parteistrategen trotz der einheitlichen Abwehrfront dennoch offen: Immer wieder ist zu hören, daß „gute“ Social Bots, die etwa dazu dienen, Diskussionen zu moderieren, weiterhin genutzt werden sollen.

Doch vielleicht ist alles ja auch nur halb so schlimm: Wahlentscheidend werden Social Bots vermutlich nie sein. „Alle Studien sprechen dagegen, daß jemand seine politische Überzeugung ändert, nur weil er eine Nachricht in den sozialen Netzwerken sieht“, ist der Politikwissenschaftler Hegelich überzeugt.





Social Bots

Social Bots oder auch Social Networking Bots (von englisch Robot, also Roboter) sind Programme, die in sozialen Netzwerken wie Facebook oder (noch häufiger) Twitter als (falsches) Nutzerkonto auftauchen  und dabei menschliche Verhaltensmuster simulieren, um wie eine echte Person zu wirken. Dabei beruhen sie auf bestimmten Algorithmen. So sollen andere Nutzer – meistens für Marketingzwecke – getäuscht werden. Bots eignen sich dazu, eine scheinbare Masse zu erzeugen, die ein bestimmtes Thema in den sozialen Netzwerken dominiert, also Trends setzt. Schon für 50 Dollar kann man im Internet 1.000 gefälschte Twitter-Profile kaufen, rund  150 Dollar muß man für (ältere und dadurch „glaubwürdige“) Facebook-Profile investieren. Niedersachsens Justizministerin Antje Niewisch-Lennartz (Grüne) hat angekündigt, noch vor der Bundestagswahl gesetzlich gegen „automatisierte Meinungsmacher“ vorzugehen.