© JUNGE FREIHEIT Verlag GmbH & Co. KG www.jungefreiheit.de 18/21 / 30. April 2021

Im Ringen um Codes und Programme
Die Forderungen nach Offenlegung von Algorithmen zielt auf die totale Kontrolle der sozialen Medien
Gil Barkei

Soziale Medien beförderten rechte Inhalte und würden somit eine Radikalisierung im Netz unterstützen: So eine Legende, mit der die Offenlegung der Algorithmen von Facebook & Co. vehement gefordert wird. Dahinter steckt letztlich der Kampf um die totale Kontrolle über die Internet-Portale.

Für das Technik-Blog OneZero ist „Facebooks Algorithmus Teil des Problems bei der Verbreitung von Haßrede“. Das Center for Humane Technology des ehemaligen Google-Mitarbeiters Tristan Harris warnt vor einer Polarisierung durch konstruierte Filterblasen, Correctiv.org vor einer Hinführung „zu immer extremeren Inhalten“ und nicht wirksamen Selbstverpflichtungen. Netzpolitik.org kritisiert, Amazon empfehle „penetrant“ den Kauf von „einschlägiger Verschwörungsliteratur“. Und im Zuge der Unruhen am US-Kapitol und der Entfernung Donald Trumps aus mehreren sozialen Netzwerken (JF 3/21) verlangte die Mozilla-Vorstandsvorsitzende Mitchell Baker neben „mehr Deplatforming“ auch die Offenlegung der Algorithmen der Online-Plattformen.

Die Autoren des Buches „Digitaler Faschismus“, Maik Fielitz und Holger Marcks, sehen in den sozialen Medien einen „Motor des Rechtsextremismus“, diese benötigten daher eine technische „Neuordnung“. „Wir führen nun politische Debatten in Räumen ohne demokratische Kontrolle. Wir brauchen diese Kontrolle. Nicht nur, weil die Algorithmen die Informationsflüsse vorstrukturieren, sondern auch, weil das post-redaktionelle Prinzip der sozialen Medien die Grundlagen einer sachlichen Verständigung über die Realität“ untergrabe, betonen der Rechtsextremismusforscher und der Sozialwissenschaftler im Interview mit den Belltower News der Amadeu-Antonio-Stiftung.

EU-Kommission will mehr Transparenz

Dabei spricht einiges dafür, daß genau das Gegenteil der Fall ist und rechtskonservative patriotische Beiträge vorsätzlich bekämpft, während linksliberale unterstützt werden. Das investigative Project Veritas machte im US-Präsidentschaftswahlkampf darauf aufmerksam, daß die Tech-Riesen ihre Algorithmen gezielt gegen das Trump-Lager ausgerichtet hätten. Google versucht, „Gott zu spielen“, beklagt ein ehemaliger Mitarbeiter des Internetkonzerns vor versteckter Kamera. Unliebsame Inhalte würden gezielt gelöscht oder in Auffindbarkeit und Reichweite heruntergeschraubt.

Bisher verweigern die großen Tech-Konzerne die Preisgabe ihrer Algorithmen. Sie verweisen auf Geschäftsgeheimnisse und den Datenschutz. In der Tat wären ein (politisch motivierter) Einblick und eine Fremdbestimmung der Programme und Codes ein Eingriff in Unternehmensinterna. Ihr hartes Vorgehen gegen unliebsame Inhalte ist auch ein unterwürfiges Eingeständnis gegenüber der Politik, um weiteren gesetzlichen Regulierungen entgegenzuwirken.

Doch der Druck auf die Privatfirmen wächst. So lobte beispielsweise der „Facebook Civil Rights Audit“ des vergangenen Jahres die Bemühungen des Netzwerks, diskriminierenden Verzerrungen durch Algorithmen (sogenannte „bias“) entgegenzuwirken, kritisierte jedoch, daß dies lediglich auf freiwilliger Ebene und nicht in allen Abteilungen stattfinde – hier bedürfe es mehr „Handlungsdruck“.

Die Europäische Kommission will mit dem „Digital Services Act“ (DSA), der momentan im EU-Parlament diskutiert wird, die Plattformanbieter zu mehr Transparenz und Verantwortlichkeit bei „Inhalte-Moderation, Werbung und algorithmischen Prozessen“ verpflichten. Laut Artikel 12 sollen Anbieter in „eindeutiger Sprache“ in ihren Geschäftsbedingungen Informationen bereitstellen, welche Werkzeuge für „die algorithmische Entscheidungsfindung“ genutzt werden. Zur Überwachung „sehr großer“ Plattformen soll die Kommission oder benannte Prüfer „Zugang zu ihren Datenbanken und Algorithmen“ verlangen können. Die NGO AlgorithmWatch sieht in dem DSA-Entwurf einen „guten Start“, beanstandet aber, es gebe Schlupflöcher.

Die grüne Europa-Abgeordnete Alexandra Geese beklagt, „daß die Algorithmen und Empfehlungssysteme der großen Plattformen maßgeblich dazu beitragen, Verschwörungserzählungen und Desinformation unter die Menschen zu bringen“. Sie fordert daher gegenüber medienpolitik.net „mehr Transparenz über Empfehlungsalgorithmen“. Ihr geht der DSA „nicht weit genug“. Anstatt „auf einzelne Inhalte“ müsse man sich auf „das System selbst konzentrieren“ und dafür sorgen, „daß Entscheidungsprozesse und Algorithmen zumindest für die Wissenschaft transparent gemacht werden und deren Wirkungsweise öffentlich diskutiert wird“. Daher brauche es „weitere Maßnahmen“, „neue Konzepte zur Finanzierung von Qualitätsmedien“ und eine „stärkere Finanzierung von Fact-Checking-Organisationen“. Wissenschaftler benötigten „umfassenden Zugang zu Rohdaten“ und Aufsichtsbehörden klare „Auditrechte“. 

Die Redaktionsleiterin Nachrichten Digital beim Deutschlandfunk, Tanja Köhler, die mit „Fake News, Framing, Fact-Checking“ ein Handbuch für „Nachrichten im digitalen Zeitalter“ geschrieben hat, fordert ebenfalls klare „Regeln und Regulierung“. Denn „Algorithmen selektieren, priorisieren und verarbeiten Daten und beeinflussen damit Wirklichkeitskonstruktionen, die im journalistischen Kontext große Relevanz besitzen“, betont sie im Interview mit dem Branchenmagazin Medium. Algorithmen sieht sie allerdings nicht nur als Gefahr, sondern als große Herausforderung „für ein besseres Nachrichten-Handwerk“. Durch „die Integration und Vernetzung von Journalismus und Technik sowie Automatisierung und Einsatz von künstlicher Intelligenz (KI)“ könnten Journalisten bei der Datenanalyse, Texterstellung und Reichweitensteigerung unterstützt werden. Dem Menschen bleibe dadurch „mehr Zeit für anspruchsvolle tiefer gehende Recherche“.

Die Maschinen lernen

Auch Bestsellerautor Daniel Kehlmann ist eher von der Technik fasziniert als abgeschreckt und lenkt den Fokus auf die Menschen, die sie schaffen. In seiner vergangenen Monat erschienenen schmalen Denkschrift „Mein Algorithmus und ich“ berichtet er von seinem Besuch im kalifornischen Silicon Valley, um eine künstliche Textgenerierung auszuprobieren und stellt fest: „Wer aber mit einem Algorithmus umgeht, begreift allmählich, daß er es eben nicht mit einem Menschen im Kostüm zu tun hat.“ Die Software kam ihm „niemals auch nur für einen Moment bewußt vor“. 

Problematisch ist für andere jedoch, daß der Personenkreis, der sich mit den Feinheiten der Programme auskennt, klein ist – und die Maschinen lernen. „Der Algorithmus hat seinen eigenen Kopf. Obwohl ein Mensch ihn schreibt, geschieht das so, daß die Maschine sich selbst konstituiert und sich dann von selbst verändert“, sagt Bailey Richardson aus dem Instagram-Anfangsteam in der Dokumentation „Das Dilemma mit den sozialen Medien“. Und der ehemalige „Operations Manager“ bei Facebook, Sandy Parakilas, ergänzt: „Es gibt nur eine Handvoll Menschen bei Unternehmen wie Facebook, Twitter oder anderen, die verstehen, wie die Systeme funktionieren, und selbst die können nicht immer bis ins letzte Detail nachvollziehen, was mit einem Inhalt passiert. Wir Menschen haben ein Stück weit die Kontrolle über diese Systeme verloren, denn sie kontrollieren die Informationen, die wir sehen. Sie kontrollieren uns.“

Skurrile Löschungen zeigen, daß KI bei der selbständigen gezielten Ausradierung bestimmter Worte, Bilder und Personen (JF 9/20) oft keinen Unterschied zwischen „rechts“ und „links“ macht. So sperrte Facebook zum Beispiel vergangene Woche den Vorsitzenden des Deutschen Journalisten-Verbands, Frank Überall, wegen eines Verstoßes gegen die Gemeinschaftsstandards. Der freie Journalist hatte sein Interview für T-Online.de mit dem Kölner Musiker Markus Reinhardt geteilt, in dem dieser sich selbst als „stolzen Zigeuner“ bezeichnet. Überall, der die zunehmende Zensur rechtskonservativer Inhalte und Profile schweigend hinnimmt, sieht in der Aktion einen „unentschuldbaren Eingriff in die Pressefreiheit“ und fordert: „Nicht Maschinen oder Algorithmen dürfen entscheiden, was auf Facebook zu sehen ist und was nicht – das müssen Menschen machen.“

Eine Offenlegung der Algorithmen zielt eben nicht darauf, die Einschränkungen der Meinungsfreiheit insgesamt zu unterbinden. Vielmehr sollen damit Unsicherheitsfaktoren für Medien, Sprecher und Polit-Akteure aus dem Mainstream kontrollierbarer werden. Die KI soll endgültig auf links gezogen und von halbstaatlichen Strukturen überwacht werden.