Die Kommunikationswissenschaftlerin Prof. Dr. Edda Humprecht wertet mit Hilfe Maschinellen Lernens Social-Media-Beiträge aus, die inzwischen auch von KIs produziert werden. Im Interview erläutert sie, welchen Einfluss KI auf die journalistische Berichterstattung hat, wie Nutzende mit KI-generierten Social-Media-Inhalten umgehen und welche Wirkung KI-produzierte Informationen haben können.
Interview: Irena Walinda
Wo begegnen wir Künstlicher Intelligenz in unserer Kommunikation?
Künstliche Intelligenz ist in unserer Kommunikation allgegenwärtig: Empfehlungsalgorithmen unterbreiten uns Vorschläge beim Online-Shopping oder beim Musikstreaming; Nachrichten werden uns vorgeschlagen, die uns interessieren könnten. Darüber hinaus gibt es Übersetzungsdienste wie DeepL, Google Translate oder Chat-Bots, die Unternehmen im Kundensupport einsetzen, um Probleme zu lösen und den Service zu erhöhen.
Wie nutzen Sie KI in Forschung und in Lehre?
In der Forschung spielt KI eine große Rolle. Wir arbeiten mit Maschinellem Lernen. Das heißt, dass KI uns dabei hilft, den Inhalt von digitaler Kommunikation zu verstehen und wir trainieren Algorithmen mit manuell kodierten Daten. Künstliche Intelligenz ist aber auch ein Forschungsgegenstand, denn uns interessiert, welche Auswirkungen der Einsatz von KI auf den Journalismus und die Nachrichtennutzung hat oder wie KI reguliert werden sollte.
Ich nutze ChatGPT beispielsweise für Empfehlungsschreiben, die Studierende für Bewerbungen nutzen. Dafür lasse ich ChatGPT einen Entwurf erstellen, den ich dann überarbeite. Das entlastet mich und beschleunigt Prozesse.
Wird KI in den Nachrichten- und Medienredaktionen eingesetzt?
Im Bereich Journalismus oder Nachrichtenproduktion ist der Einsatz von KI ein ganz großes Thema. Viele Redaktionen experimentieren damit. Sie versuchen, effizienter zu arbeiten, Bilder zu generieren mit Midjourney oder Stable Diffusion oder einfache Texte wie Börsennachrichten oder Rezepte zu erstellen. Bislang sind das nur Versuche, aber viele Newsrooms arbeiten damit.
Welche Auswirkungen hat der Einsatz KI-basierter Technologien?
Die Kommunikation verändert sich, aber das tat sie schon immer. Der Einsatz von generativer KI kann durchaus Vorteile bringen: Bestimmte Prozesse beschleunigen sich, weil generative KI-Systeme wie ChatGPT als Assistenten eingesetzt werden, die bestimmte Arbeiten übernehmen, Prozesse beschleunigen und Journalisten und Journalistinnen entlasten und ihnen mehr Zeit einräumen z. B. für investigative Recherche. Dann werden Deep-Learning-Tools oder Maschinelles Lernen auch eingesetzt, um große Datenmengen im Journalismus auszuwerten z. B. bei Leaks, wo Recherchenetzwerke erst einmal große Datenmengen entschlüsseln müssen.
Gibt es auch Gefahren beim Einsatz von KI im Journalismus?
Es gibt natürlich auch Risiken, wenn wir über Falschinformationen sprechen oder Deepfakes, also gefälschte Videos, Audios oder Bilder, die mit Hilfe von KI-Tools Informationen in einen falschen Kontext setzen. Das kann zur Folge haben, dass Nutzende eine generelle Skepsis gegenüber Inhalten entwickeln, die sie online sehen. Das ist einerseits gut, wenn nicht alles geglaubt wird, aber es kann auch zu einem generellen Vertrauensverlust gegenüber Online-Medien führen. Einige Menschen nehmen dann die Haltung ein, dass alles relativ sei oder gar nichts mehr stimmen würde – sie empfinden ein Gefühl von Machtlosigkeit.
Das sehen wir in der Forschung schon vor dem Einsatz von KI in der Kommunikation. Nutzerinnen und Nutzer wenden sich bewusst ab und wollen keine Nachrichten mehr lesen oder anschauen. Das ist zu Krisenzeiten oder zur Zeit der Pandemie stärker ausgeprägt, das geht einher mit einer gewissen Überforderung, mit all den negativen Informationen umzugehen, denen man ausgesetzt ist. Dieser Trend kann sich noch verstärken, wenn die Verbreitung von Deepfakes zunimmt.
Welche neuen Fähigkeiten müssen Menschen im Umgang mit KI erwerben?
Menschen müssen die Fähigkeiten dazu besitzen, die Ergebnisse der KI überprüfen zu können, denn wir stellen immer wieder fest, dass diese fehlerhaft sind. Die Übersetzungen sind nicht richtig oder Bilder und andere Inhalte und Texte stimmen nicht.
Im Augenblick sehen wir das deutlich beim Nahost-Konflikt. KI-generierte Bilder werden verbreitet, falsche Informationen übermittelt oder in einem falschen Kontext interpretiert. Es gibt das Bildbeispiel eines kleinen Jungen in Gaza, der hilfesuchend in die Kamera schaut. Wenn man aber genau hinsieht, erkennt man viele Unstimmigkeiten im Bild: Einige Schatten stimmen nicht, die Palästinenserfahne auf dem T-Shirt ist nicht richtig dargestellt und an einer Hand hat er sechs Finger. An diesem Beispiel sieht man deutlich, wie wichtig der befähigte Mensch ist, der solche Desinformationen richtigstellt.
Was können Journalisten und Journalistinnen tun?
Die Recherchearbeit von Journalisten und Journalistinnen, die Einordnung und die Berichterstattung gerade aus Krisengebieten, von denen wir ausschließlich über Medien erfahren, sind wichtiger denn je. Wenn KI-Informationen ungeprüft veröffentlicht werden, ist das hochriskant und dann werden wir sehen, dass noch mehr Falschinformationen auftauchen. Auch die Redaktionen, die beispielsweise an Faktenchecks arbeiten sind wichtig. Unsere Forschung zeigt, dass Richtigstellungen durchaus eine Wirkung haben.
Gibt es Kontrollmechanismen oder -modelle, um KI-generierte Inhalte kenntlich zu machen und Manipulationen zu entlarven?
Die Auffindbarkeit von manipulierten Bildern ist schwierig, weil sich die Technologien sehr schnell weiterentwickeln. Digitale Wasserzeichen könnten Urheberrechte schützen, wenn beispielsweise KI-generierte Bilder weiterverwendet werden.
Man muss jedoch deutlich sagen, dass die Manipulationsversuche von Menschen kommen, nicht von der KI. Die Interpretationsleistung, dass ein Bild in einem falschen Kontext veröffentlicht wurde, kann auch nur von Menschen kommen.
Ist hier nicht die Politik gefordert?
Das sogenannte KI-Gesetz der Europäischen Union sieht Regulierungen vor. Diese Regeln sind extrem wichtig – auch für uns Forschende, denn ein riesiges Problem ist der Zugang zu Daten. Große Tech-Giganten wie Microsoft oder Meta arbeiten intransparent. Wir können oft nicht nachvollziehen, wie die jeweiligen Algorithmen funktionieren und welche Daten verwendet wurden, um sie zu trainieren. Den Zugang zu Daten von den Social-Media-Plattformen, die wir auswerten wollen, haben wir ebenfalls oft nicht. Darum sind die Regulierungen des KI-Gesetzes für uns sehr wichtig, nicht nur um die User vor Manipulationsversuchen zu schützen, sondern auch um Zugang zu den Daten für die Wissenschaft zu bekommen.