Werden Schreib- und Textroboter Journalist*innen bald ersetzen? Wird Künstliche Intelligenz die Presse übernehmen? Was wird aus den Jobs? Ein Blick auf die aktuellen technologischen Entwicklungen kann Angst machen. Zudem wird die Debatte um den Einsatz von Technik oft auf ein Gegeneinander von „Mensch und Maschine“ verkürzt.

„Die Möglichkeit, Inhalte mittels KI-gestützten Werkzeugen in einem nie dagewesenen Tempo zu produzieren und damit die Produktivität zu steigern, ist für Zeitungsverlage und Leitmedien verlockend – zumal sie seit Jahren in der Krise sind“, heißt es in der Studie „Künstliche Intelligenz und Beschäftigte im Journalismus“ des interdisziplinaren digitalpolitischen Thinktanks iRights.Lab. Viele Beschäftigte und Selbstständige können sich in Zukunft laut der Studie im Auftrag der Hans-Böckler-Stiftung einen KI-bedingten Stellenabbau und erhöhten Leistungsdruck vorstellen.

Im Moment macht die KI noch zu viele Fehler, um besser als der Mensch zu sein.

Davon, dass „die KI“ übernimmt, sind wir aber weit entfernt. Ein genauer Blick zeigt: Technik allein ist weder das Problem noch die Lösung. Vielmehr geht es um die Frage, welche gesellschaftliche Rolle journalistische Arbeit in der Zukunft spielen soll. Denn es geht nicht nur um Jobs, sondern um den Erhalt unabhängiger, qualifizierter Medien. Letztlich um Demokratie.

Hier arbeitet die KI

Aber der Reihe nach: Bestimmte automatisierte Anwendungen, die in den Bereich KI fallen, sind unter Journalist*innen schon lange verbreitet. Zur Entlastung im Arbeitsalltag werden ihnen Routinearbeiten überlassen: Mithilfe von „Speech-to-Text“-Systemen können Transkripte von Interviews oder Redebeiträgen erstellt oder Untertitel generiert werden. Das macht die Arbeit leichter und Beiträge zugänglicher. Bei der Verschlagwortung oder systematischen Recherche in Beiträgen können sogenannte „Large Language Models“ hilfreich sein, die bestimmte Aussagen in Ton, Text und Bild identifizieren können. Auch bei einfachen Übersetzungen, beim Redigieren und bei der Suchmaschinenoptimierung können KI-Tools unterstützen.

Was manche Medienschaffende um ihren Arbeitsplatz bangen lässt, sind vor allem solche Anwendungen, die scheinbar allein arbeiten – sogenannte generative KI. Berühmt geworden sind ChatGPT von OpenAI oder Gemini von Alphabet. Sie erstellen personalisierte Antworten in Form von kompletten, grammatikalisch richtigen und sinnhaft klingenden Texten.

In einigen Redaktionen sind diese künstlichen Kolleg*innen bereits eingezogen. Laut einer Umfrage vom Juni 2024 unter 39 Geschäftsführer*innen, Chefredakteur*innen und Entscheidungsträger*innen aus deutschen Medien, Publishern und Verlagen nutzen 84 Prozent der Häuser generative KI zur Unterstützung bei der Produktion von Text und Sprache, 26 Prozent setzen KI im Bereich der Bildproduktion ein, etwa bei der Bearbeitung. 3 Prozent der Befragten gaben an, dass Audioinhalte ausschließlich automatisiert generiert würden.

Längst üblich hingegen sind erkennbar automatisch generierte Beiträge auf Social-Media-Kanälen. Viele Clips auf TikTok sind mithilfe von künstlichen Stimmen vertont oder mit generierter Musik unterlegt. Auch auf Instagram und X werden Bilder und ganze Filmsequenzen mithilfe von Apps automatisch erstellt. Algorithmen helfen auch bei der Themenfindung. Da sie auf Nutzungsdaten basieren, „wissen“ sie um die aktuellen Trends auf den Plattformen. Derart optimierte Posts können mit großer Wahrscheinlichkeit eine große Reichweite erlangen.

Ginge es allein darum, zielsicher konsumierbare Inhalte zu produzieren, hätten Maschinen gute Chancen, Menschen bald überflüssig zu machen. Im Moment aber macht die KI noch zu viele Fehler, um besser als der Mensch zu sein.

Falschaussagen und Rassismus

Was die technische Ausführung angeht, wird das Argument bald überholt sein. Die optischen Fehler von Anwendungen zur Bildgenerierung etwa, sogenannte KI-Halluzinationen, die heute noch für überschüssige Körperteile an überraschenden Stellen bekannt sind, werden schnell der Vergangenheit an­gehören. Was allerdings die inhaltliche Qualität betrifft, gewinnt das Argument an Relevanz. Besonders wenn es nicht um Inhalt als Selbstzweck geht, sondern darum, unabhängige Pressearbeit in einer demokratischen, vielfältigen Zukunft zu sichern, werden journalistische Grundsätze, Expertise, gründliche Recherche und Faktchecking sogar wichtiger denn je.

Der Grund: Generative Technologien machen es immer einfacher, falsche Tatsachen zu behaupten und mit großer Reichweite in Umlauf zu bringen. Auch das findet heute bereits statt: Immer wieder tauchen Bilder auf, die echt wirken, aber eben nicht etwas Geschehenes dokumentieren, sondern Ereignisse fingieren, um Aufsehen zu erregen. Oder auch, um politische Positionen zu legitimieren.

Nachfrage nach Qualitätsjournalismus

Im Textbereich halluzinieren ChatGPT & Co immer wieder Antworten, die völlig überzeugend formuliert sind, aber auf keinerlei Trainingsdaten beruhen und ­objektiv falsch sind. Das kann schnell problematisch werden. Selbst den leistungsstarken Large Language Models unterlaufen folgenschwere Fehler: Versuche der Organisation AlgorithmWatch zeigten im vergangenen Jahr, dass Gemini und ChatGPT zum Teil völlig falsche Aussagen zu Politiker*innen und deren Wahlprogrammen machten. Die Organisation kam sogar zu dem Schluss, dass die Chats als Informationsquelle für die damals anstehenden Wahlen nicht geeignet, sondern riskant seien.

Zudem reproduzieren KI-Systeme Vorurteile. Automatisch erstellte Bilder enthalten mehreren Studien zufolge häufig rassistische und sexistische Assoziationen, weil sie die Masse an verfügbaren Informationen im Netz nach dem Prinzip der Wahrscheinlichkeit auswerten, statt ethische Grundsätze zu befolgen.

Die Beispiele zeigen, dass menschliche journalistische Arbeit unerlässlich bleibt, um mit faktenbasierter, ausgewogener Berichterstattung Falschinformationen zu entgegnen. Diese Qualitätssicherung im Journalismus ist ein zentrales gewerkschaftliches Anliegen. Und Qualitätsjournalismus hat Zukunft. Besonders unter jüngeren Menschen, die sich vorrangig auf digitalen Plattformen informieren, steigt – mit sinkendem Vertrauen in die Sozialen Medien – die Nachfrage nach glaubwürdigen Quellen. Laut verschiedenen Studien wie aktuell der Shell Jugendstudie 2024 vertrauen sie dabei den Nachrichten der Öffentlich-Rechtlichen am meisten.

Ein Diskussionspapier der Fachgruppe Medien von ver.di forderte bereits Ende 2023 einen rechtlichen und ethischen Rahmen, der Qualität im Journalismus trotz KI-Einsatz sicherstellt und dabei die Interessen und Rechte der Medienschaffenden wahrt. Die redaktionelle Verantwortung muss in menschlicher Hand bleiben, um der journalistischen Sorgfaltspflicht gerecht zu werden. Für die Nutzer*innen muss der Grad des Einsatzes von KI bei Medieninhalten klar erkennbar sein.

Außerdem gilt es, Fragen des Urheberrechts zu klären, denn immerhin ­lernen die KIs alles, was sie wissen, aus online verfügbaren Quellen – und basieren damit vielfach auf journalistischer ­Arbeit. Daneben müssen rechtliche Fragen sowie Vergütung geregelt und Transparenz darüber hergestellt werden, mit welchen Daten ein Programm trainiert wurde. Und nicht zuletzt sollen Beschäftigte Mitspracherechte bei der Einführung und Nutzung von KI haben, insbesondere wenn Arbeitsplätze betroffen sein könnten.

Beim Thema KI im Journalismus geht es um viel: Um Arbeitsplätze und Gehälter, aber auch um Pressefreiheit und unabhängige Medien als wichtige Grund­festen der Demokratie. Die Qualität journalistischer Arbeit zu sichern, heißt, ihre gesellschaftliche Funktion auch in ­Zukunft zu erhalten.