Künstliche Intelligenz breitet sich immer stärker in allen Lebensbereichen aus – auch im Journalismus. Einerseits setzen Medienhäuser auf die neue Technologie, die ohne Mittags- oder Schlafpausen beispielsweise Finanz-, Wetter- und Sportdaten auswertet, interaktive Karten erstellt, routinemäßige kurze Agenturtexte verfaßt, aber eben auch unliebsame Kommentare herausfiltert. Springer, Spiegel und viele andere Verlage wie Burda Media, das sogar eine Konkurrenzfirma zu den „großen Tech-Konzernen“ aufbauen will, investieren in entsprechende Abteilungen. Andererseits wirft die zunehmende KI-Nutzung die Frage nach Regeln und Grenzen für Algorithmen, Programme und Roboter auf.
Vergangene Woche Mittwoch hat das EU-Parlament den Artificial Intelligence Act beschlossen. Damit kann das Regelwerk in Kraft treten. Es gilt allerdings eine Übergangsfrist von zwei Jahren, bis alle Punkte umgesetzt sein müssen. Ende Januar hatten die EU-Mitgliedsstaaten dem AI Act bereits zugestimmt. Nach langem Zank innerhalb der Ampel hatte sich die Bundesregierung schließlich zu einem Ja durchgerungen.
Autoren wollen für ihre genutzten Lerninhalte eine Vergütung
Das Gesetzespaket ist weltweit das erste Regelwerk für KI. Es sieht unter anderem vor, daß Entwickler mit künstlicher Intelligenz erzeugte Texte, Töne und Bilder künftig eindeutig kennzeichnen müssen und darlegen sollen, wie ihre Systeme arbeiten. Verschiedene Anwendungsfelder werden in unterschiedliche Risikoklassen eingeteilt, die entsprechend gesteigerte Sicherheits- und Transparenzanforderungen von minimal/kleines Risiko bis inakzeptables Risiko verlangen. Empfindliche Bereiche wie zum Beispiel die erlaubte Gesichtserkennung für Sicherheitsbehörden, das autonome Autofahren oder medizinische Anwendungen unterliegen dann strengeren zusätzlichen Vorschriften. Allgemein gilt bei selbstständig dazulernender KI der Grundsatz: Am Ende soll ein Mensch die Vorgänge und Trainingsdatenauswahl überwachen. Regelverstöße sollen bei einer nationalen Behörde eingereicht werden können.
Eine biometrische Echtzeit-Massenüberwachung, Emotionserkennung und ein sogenanntes „Social Scoring“ wie in China sind zwar formell verboten, mehrere NGOs wie der Chaos Computer Club, AlgorithmWatch, Wikimedia und Amnesty International warnen jedoch vor Schlupflöchern und fordern in einem offenen Brief, der Bundestag möge jegliche Form der biometrischen Fernidentifizierung klar und deutlich verbieten. Diese soll bisher bei gerichtlicher Genehmigung in Verbindung mit einer Straftat gestattet werden.
Darüber hinaus warnen Kritiker vor einem ausufernden Bürokratiemonster, einer Datenschutzgrundverordnung (DSGVO) 2.0, die Innovationen „Made in EU“ eher ausbremst als international attraktiver zu machen. Zumal neue Angebote erst einmal geprüft und eingestuft werden müssen – und Entschädigungen für mögliche KI-Opfer drohen. Der Branchenverband Bitkom fordert daher jetzt von der Bundesregierung „eine rechtssichere und innovationsfreundliche Umsetzung“ auf nationaler Ebene, ohne daß in Europa ein „Flickenteppich an nationalstaatlichen Einzelregelungen entsteht“. Deshalb müsse das geplante „EU AI Board als neue zentrale Institution schnell arbeitsfähig werden und für eine EU-weite Koordinierung sorgen“ – mit Deutschland als „pro-aktivem“ Gestalter.
Bewegung gibt es auch über den Rahmen der EU hinaus. Am Rande der Münchner Sicherheitskonferenz Mitte Februar haben 20 internationale Firmen von Amazon und Google über IBM, Meta, Microsoft, TikTok, X und Adobe bis zum ChatGPT-Entwickler OpenAI eine Kooperationsvereinbarung unterzeichnet. In dieser verpflichten sich die Unternehmen dazu, bei der Bekämpfung von Wahlmanipulation durch KI zusammenzuarbeiten. Insbesondere künstliche Audio-, Video- und Bilddateien, die Aussehen, Stimme und Motorik von politischen Kandidaten nachahmen, sollen so frühzeitig erkannt und aus dem Verkehr gezogen werden.
Für Journalisten kommt ein weiterer Aspekt hinzu: Sie wollen entsprechend vergütet werden, wenn Maschinen mit ihren erstellten Texten und Bewegtbildern „gefüttert“ werden und daraus lernen. Bereits Ende Dezember hat die New York Times als erste große Zeitung Klage gegen OpenAI und Microsoft eingereicht. Das US-Blatt sieht Urheberrechtsverletzungen bei Millionen ihrer Artikel, mit denen die Softwareunternehmen den Roboter ChatGPT trainiert haben. Auch Schriftsteller wie „Game of Thrones“-Autor George R. R. Martin gehen derzeit in einer Sammelklage juristisch gegen OpenAI vor.
In Deutschland haben OpenAI und Springer eine Vereinbarung getroffen. Laut Wirtschaftsdienst Bloomberg soll der Medienriese gemäß Dreijahresvertrag einen zweistelligen Millionenbetrag erhalten. Der Deutsche Journalisten-Verband (DJV) fordert seitdem eine „faire Verteilung“ der KI-Lizenzerlöse auf die Journalisten von Bild, Welt, Politico & Co. In diesem Zusammenhang zeigt sich der DJV mit dem verabschiedeten AI Act nicht ganz zufrieden. Das Gesetz sei zwar „besser als nichts, weil damit zumindest ansatzweise Transparenzpflichten für die Hersteller geschaffen“ wurden, allerdings habe sich der DJV „vor allem in Hinblick auf Urheberinnen und Urheber mehr gewünscht“, erklärte der Vorsitzende Mika Beuster. Für eine ehrliche Vergütung müsse man wissen, „mit welchen Inhalten KI-Systeme trainiert wurden“. Ohne „eine Transparenzpflicht“ sei das unmöglich. Auch die Öffentlichkeit habe „ein Recht zu erfahren, welche Inhalte ins Training der KI-Tools einfließen“. Das größte Problem für den Journalismus bleibe daher ungelöst: „Die europäischen und deutschen Gesetzgeber müssen schnellstmöglich dafür sorgen, daß das zustimmungs- und vergütungsfreie Training von KI-Systemen mit journalistischen Inhalten endet.“ Beuster warnt: „Journalistische Inhalte zu erstellen kostet Geld. Wenn sich die KI-Firmen einfach weiter kostenlos daran bedienen, bedroht das den Journalismus in seiner Existenz.“ Der AI Act sieht vor, daß nur bei Modellen mit einer bestimmten rechenintensiven Größe die Trainingsdaten offengelegt werden müssen.
Hinzu kommt ein arbeitsrechtlicher und unternehmerischer Aspekt wie der Informatiker und Philosoph Jürgen Geuter gegenüber dem Branchendienst Turi2 anmerkt. Zwar sei KI in vielen Fällen hilfreich, wenn jedoch „weniger Leute mehr arbeiten müssen, um weniger gute Qualität zu liefern“, entstehe eine „toxische Dynamik“.
Programme sollen fairer und diverser werden
Und längst tobt ein neuer Streit, der auch den woken Kulturkampf in die KI-Debatte bringt: Mit welchen Inhalten werden die Maschinen trainiert und sind diese auch divers genug? So warnt die Vorsitzende des Deutschen Ethikrats, Alena Buyx, in der Turi2-Themenwoche KI, daß neutral erscheinende Algorithmen einzelne Gruppen benachteiligen können, wenn die Trainingsdaten verzerrt sind.
Auch Mina Saidze, frühere Funke-Datenanalystin und Gründerin der Lobby- und Beratungs-organisation Inclusive Tech, die sich für Diversität im Tech-Sektor einsetzt, warnt vor einer Dominanz alter weißer wohlhabender Männer bei der Künstlichen Intelligenz. „Diversity in Tech ist keine Luxusdebatte. Sondern es geht darum, wie unsere Welt von morgen aussieht“, betont sie gegenüber Turi2. Ihr Ansatz: Vielfältige Programmiererteams wirken Diskriminierung und Ungerechtigkeit entgegen.
Aus Sicht rechtskonservativer Alternativmedien birgt das die Gefahr, die Roboter könnten noch linksliberal einseitiger als ihre menschlichen Übungsleiter werden. Denn was bekommt man wohl, wenn man eine KI mit Mainstreammaterial füttert? Richtig, eine Mainstream-KI! Und noch ein für die Meinungsfreiheit bedrohliches Szenario drängt sich auf: Warum mit gesetzlichen Zensurwerkzeugen wie dem Digital Services Act gegen unliebsame Inhalte vorgehen, wenn man die Inhalte schon im Vorfeld, in ihrer Entstehung beeinflussen und lenken kann?