Artificial Intelligence, Broadcast, Newsroom, Top-Story: 04.01.2024

Ethische Überlegungen zu KI im Newsroom

Wie KI die Arbeit in Nachrichtenredaktionen verändert und warum Medienorganisationen die damit verbundenen Herausforderungen verstehen müssen.

Professor Markus Kaiser, Director Consulting Expert bei CGI, untersucht, wie KI in die Nachrichtenredaktionen von Sendern Einzug hält.

Es ist zwar verlockend zu glauben, dass künstliche Intelligenz (KI) ein relativ neues Phänomen in der Rundfunk- und Fernsehbranche ist, aber in Wirklichkeit wird sie bereits seit fast einem Jahrzehnt in verschiedenen Bereichen eingesetzt. Wir neigen dazu, bei KI an generative KI zu denken, wie z. B. Bard von Google und ChatGPT. Aber KI wird in der Industrie schon seit einigen Jahren zur Automatisierung von Arbeitsabläufen eingesetzt, und wir haben mehr Erfahrung damit, als vielen bewusst ist.

Von der Recherche über die Überprüfung von Informationen, die Produktion und den Vertrieb bis hin zur Buchhaltung und der Planung von Arbeitsabläufen – KI unterstützt Routineaufgaben entlang der journalistischen Wertschöpfungskette.

KI wird heute schon vielfach eingesetzt, auch wenn es nicht so offensichtlich ist.

In der Tat ist es sehr wahrscheinlich, dass KI diesen Artikel, den Sie gerade lesen, an mehreren Stellen berührt hat, sei es durch eine neue Generation hochentwickelter Rechtschreibprüfungen und Übersetzungsmaschinen, durch die effiziente Weiterleitung des Internetverkehrs, durch Suchmaschinenoptimierung oder an anderer Stelle.

Die jüngsten technologischen Entwicklungen werfen jedoch neue Fragen hinsichtlich ihrer Umsetzung auf. Wir müssen uns darüber im Klaren sein, dass der Einsatz von KI mit ethischen Überlegungen verbunden sein kann, was insbesondere für die Anwendung in Redaktionen von Bedeutung ist.

Anwendungsfälle und Dilemmas

Es gibt drei Hauptanwendungsmöglichkeiten für generative KI in der modernen Nachrichtenredaktion. Alle aktuellen Anwendungsfälle betreffen die Manipulation von Text.

Unterstützung bei der Texterstellung: KI kann vorhandenen Text für kürzere Sendungen vorschneiden und ihn für verschiedene Zielgruppen umschreiben (z. B. für Social-Media-Plattformen und verschiedene demografische Gruppen). Dies ist bereits ein beliebter, alltäglicher Anwendungsfall.
Vollständige Texterstellung: KI kann zur Generierung vollständiger Texte aus sprachlichen Eingabeaufforderungen eingesetzt werden. Dieser Inhalt muss anschließend von Menschen überprüft werden, vorzugsweise nach dem Vier-Augen-Prinzip, bei dem zwei Personen für die Genehmigung erforderlich sind.
Automatisiertes Publishing: KI wird eingesetzt, um vollständige Beiträge ohne menschliche Kontrolle zu erstellen und zu veröffentlichen.

Wer ist dafür verantwortlich, wenn aufgrund des Einsatzes von KI Fehler entstehen?

Der letztgenannte Anwendungsfall ist technisch gesehen kein Journalismus, und die Organisationen, die sich auf diesen Weg begeben haben, müssen sich hier sicher noch bewähren. Aber auch die ersten beiden Anwendungsfälle werfen mehrere ethische Dilemmas auf.

Nehmen wir zum Beispiel an, dass sich in einem Nachrichtenbericht ein Fehler bezüglich des Alters oder der Nationalität einer wichtigen Persönlichkeit eingeschlichen hat. Auch wenn er unbedeutend erscheinen mag, kann er den Ruf eines Nachrichtenunternehmens schädigen, das sich auf eine genaue Berichterstattung beruft. Und wir müssen uns fragen, wer für diesen Fehler verantwortlich ist.

Ist es der Programmierer, der den ursprünglichen Code geschrieben hat? Ist es der Trainer, der das Programm mit dem Datensatz trainiert hat? Ist es der Journalist, der die Eingabeaufforderung geschrieben hat, die die falschen Informationen lieferte? Ist es die KI selbst? KI neigt zu so genannten »Halluzinationen«, bei denen sie Fakten erfindet, um den in der Eingabeaufforderung enthaltenen Auftrag zu erfüllen.

Die Antwort auf die Frage, wer für den Fehler verantwortlich ist, lautet also letztlich: alle. Innerhalb eines Medienunternehmens muss es eine kollektive Verantwortung geben, die die Komplexität von KI-Implementierungen anerkennt und die Verantwortung vieler Einzelpersonen und Abteilungen berücksichtigt, um sicherzustellen, dass die Produktivitätsgewinne, die KI mit sich bringt, nicht durch eine Aushöhlung der primären Wahrheitsfindungsfunktion der Nachrichtenredaktion untergraben werden.

©generiert mit Adobe Firefly AI
Eine zentrale Frage: Wie können wir Fake News erkennen?
Mit dem Fortschritt Schritt halten

Medienorganisationen müssen auch dringend begreifen, dass es sich hier um ein sich schnell entwickelndes Feld mit vielen offenen Fragen handelt. Woher kommen zum Beispiel die aktuellen Informationen? Generative KI wird auf Datensätzen trainiert, aber es gibt eine Grenze, selbst wenn diese aus dem offenen Internet stammen. Wie soll auf neue Informationen zugegriffen werden?

Wie können wir angesichts der globalen Ereignisse, die zu immer mehr Fehlinformationen über immer mehr soziale Kanäle führen, Fake News erkennen?

Und wie können wir verhindern, dass sie erstens an die Öffentlichkeit weitergegeben werden, die uns in Bezug auf die Wahrhaftigkeit vertraut, und zweitens an die nächste Generation von KI, die sie wahrscheinlich als absolute Tatsache behandeln wird? Das alte Sprichwort »Garbage in, garbage out« war noch nie so treffend wie heute, und wir können Fehlinformationen sogar als einen Virus in einem KI-System betrachten, der sich mit unabsehbaren Folgen verbreitet und ausbreitet.

@digital_artist_ua, Pixabay
Wie trainieren wir KI, um Voreingenommenheit zu vermeiden?

Wie trainieren wir KI, um Voreingenommenheit zu vermeiden, und wie vermeiden wir Voreingenommenheit beim Schreiben von Prompts?

Eine der zentralen Antworten auf die letztgenannte Frage ist die praktische Ausbildung. Die Medienorganisationen, die bisher am erfolgreichsten KI eingesetzt haben, verfügen über einen soliden Verhaltenskodex, der den Einsatz und die Grenzen der KI beschreibt. Ob es nun darum geht, effektivere Prompts zu schreiben, die den Iterationszyklus verkürzen, oder die Grenzen der Technologie zu verstehen und zu wissen, wie und wo sie in der Redaktion am besten eingesetzt werden kann – es ist wichtig, eine detaillierte KI-Strategie zu haben, anstatt eine Reihe von Ad-hoc-Reaktionen.

Markus Kaiser plädiert dafür, dass Medienorganisationen die Herausforderungen verstehen müssen, die KI mit sich bringt.

Außerdem ist es wichtig, sich auf Fachwissen in diesem Bereich zu stützen. Anbieter von Redaktionssystemen wie CGI haben nicht nur erhebliche Investitionen getätigt, um KI-Tools in den Workflow einzubinden (Newsmeldung dazu), sondern auch, um sicherzustellen, dass sie verantwortungsvoll eingesetzt werden können. Sie sollen unterstützen, nicht ersetzen, und wurden entwickelt, um Journalisten bei ihrer täglichen Arbeit zu helfen, bessere Inhalte zu erstellen.

Diese Tools werden sich in den nächsten Monaten wahrscheinlich in enormer Geschwindigkeit weiterentwickeln, da Organisationen weltweit versuchen, die nächste Generation generativer KI-Modelle zu nutzen. Diese werden wiederum mehr ethische Fragen aufwerfen, da die Fähigkeiten der Modelle und die Vielfalt ihrer Anwendungsfälle zunehmen. Sowohl KI-generierte Moderatoren als auch eine Zunahme von gefälschten Videos im Rahmen des laufenden US-Wahlzyklus stehen auf der Roadmap für 2024, und Unternehmen müssen die damit verbundenen Herausforderungen verstehen und wissen, wie sie ihnen mit gleicher Geschwindigkeit begegnen können.