Digitales, Datenschutz und Medien
Hybrides Fachgespräch über Künstliche Intelligenz und Medien
Künstliche Intelligenz revolutioniert unsere Medienlandschaft. ChatGPT & Co schaffen dabei auch für den Journalismus ganz neue Möglichkeiten. Gleichzeitig lassen sich Inhalte aber immer einfacher und besser fälschen. Das hat Folgen für die Demokratie. Sie lebt vom Diskurs und dass sich Menschen zuverlässig informieren können. Bei unserem Fachgespräch am 19. April haben auf Einladung unserer Sprecherin für Medienpolitik, Catherine Kern und unseres justizpolitischen Sprechers, Thomas Hentschel, vier Referent*innen und zahlreiche Gäste diskutiert, wie wir dieser Herausforderung begegnen können.
Worum gings?
Im Mittelpunkt der Veranstaltung standen drei Leitfragen:
- Welche Regeln sind notwendig, damit Menschen KI-geprägte Inhalte erkennen und dass der demokratische Diskurs nicht durch Desinformation zerstört wird?
- Wo liegen die rechtlichen Möglichkeiten – und wo die Grenzen?
- Welche Rahmenbedingungen braucht es, damit der Qualitätsjournalismus weiterhin seine Rolle in der Demokratie erfüllen kann?
Diskussion
In Ihrer Begrüßung betonte Catherine Kern, dass Desinformation schon vor den generativen KI-Tools ein Problem unserer Gesellschaft geworden sei. Menschen würden sich zunehmend über soziale Medien und immer einseitiger informieren. Künstliche Intelligenz werde dieses Problem vergrößern. Entscheidend sei daher, dass Menschen seriöse Inhalte weiterhin gut erkennen könnten. Hier sei auch die Medienlandschaft gefragt, eigene Standards und Siegel zu entwickeln. Die Politik könne lediglich Rahmenbedingungen setzen, aber nicht entscheiden, was guter Journalismus ist.
Thomas Hentschel betonte, dass es durch den AI-Act der Europäischen Union nun klare Vorgaben für den grundrechtskonformen Einsatz von KI gebe. Demokratische Regeln seien unerlässlich, damit die Technologie ein Gewinn für die Gesellschaft werden könne. Es gelte nun zu prüfen, inwieweit der EU-Rahmen mit nationalen Maßnahmen zu ergänzen sei. Mit Blick auf die Justiz- und Aufsichtsbehörden müsse außerdem sichergestellt werden, dass diese auch gewappnet seien, die Regeln wirksam durchzusetzen.
Als erster Referent stellte Dr. Wolfgang Kreißig das Thema aus der Perspektive der Medienaufsicht dar. Er verwies zunächst auf die Chancen von KI für klassische Medienhäuser. So könnten beispielswiese personalisierte Werbekampagnen künftig leichter durchgeführt werden. Ein wichtiger Vorteil, da Privatmedien auf Werbeeinahmen angewiesen seien. Als Risiko beschrieb er die Zunahme von Desinformation. Um gegen illegale Inhalte effektiver vorzugehen, setzten die Landesmedienanstalten mit dem „KiVi-Tool“ inzwischen selbst auf KI. Für Kreißig ist es zwingend notwendig, dass KI-Anwendungen in der Lage sind, Multiperspektivität abzubilden. Qualitätsmedien sollten sich mit eigenen Wasserzeichen herausstellen. Auch die Stärkung von Medienkompetenz in der Bevölkerung sei entscheidend, um den Herausforderungen durch KI zu begegnen.
Christine Bilger beschrieb als Journalistin und Vorsitzende des DJV den Einsatz von KI im Journalismus. Anwendungsbereiche seien unter anderem die Recherche oder die Korrektur. Eine automatisierte und unkontrollierte Verwendung von KI sei mit einer journalistischen Wächterfunktion allerdings nicht vereinbar. Am Ende müsse immer ein Mensch für die Beiträge verantwortlich bleiben. Die KI dürfe daher auch keine Journalist*innen ersetzen. Wenn KI auf journalistische Werke zurückgreife, müssten Urheber*innen angemessen beteiligt werden. KI habe ansonsten das Potenzial, die wirtschaftliche Existenz von Medienschaffenden zu bedrohen.
Harmen Zell, Public Policy Manager vom Internetkonzern Meta, bezeichnete die Künstliche Intelligenz als dritte Demokratisierungswelle durch Informationstechnologie – seit dem Internet und Social Media. Er erläuterte die Open-Source-Strategie von Meta auf dem umkämpften KI-Markt. Meta verfüge inzwischen über mehrere generative KI-Tools, etwa zur Bild- und Textgenerierung. Auf Metas Plattformen wie Facebook und Instagram würden KI-generierte Fotos, Audios und Videos gemäß den EU-Vorgaben künftig gekennzeichnet. Hierfür arbeite Meta mit anderen großen Unternehmen an einer einheitlichen technischen Lösung.
Dr. Sergej Lagodinsky hat als Schattenberichterstatter der Grünen im Europaparlament den AI-Act mitverhandelt. Zu den Erfolgen gehört für ihn die Verpflichtung, Deepfakes sichtbar zu markieren. Er betonte jedoch auch, dass es schwer werde, dies umzusetzen. Aus demokratischer Sicht bestehe die Gefahr, dass künftig jegliche Berichterstattung als Fake diskreditiert werde. Dies könne das Vertrauen in Medien und Journalismus erschüttern. Bei den Urheberrechten von Medienschaffenden gehe es vor allem um Fairness. Es sei zu prüfen, ob die EU-Urheberrechtsrichtlinie hierfür eine entsprechende Anpassung brauche.
In der anschließenden Diskussion mit Gästen aus der Wissenschaft, Zivilgesellschaft und Wirtschaft bestand Einigkeit, dass die individuelle Souveränität im Medienumgang gestärkt werden muss, um den demokratische Diskurs insgesamt zu stützen. Unrealistisch ist, Falschnachrichten aus dem Netz zu verbannen. Dafür reiche die reine Kennzeichnung von KI-Inhalten nicht aus. Vermutlich wird ein großer Teil der Beiträge künftig mit Hilfe von KI erstellt, sodass dieses Kriterium an Aussagekraft verliert. Wichtiger erscheint daher, Qualität herauszustellen.
Handlungsbedarfe
- Medienbildung muss alle Altersgruppen erreichen und braucht mehr Angebote, die das Verständnis über KI und den Umgang mit Desinformation vermitteln.
- Medienschaffende und Verlage dürfen nicht ausgebeutet werden. Vergütungsansprüche gegenüber KI-Anbietern müssen im Zweifel durch gesetzliche Nachschärfung gewährleistet werden.
- Qualität muss erkennbar bleiben. Die im AI-Act vorgesehene Kennzeichnung bestimmter KI-Inhalte reicht nicht aus. Aufgrund des Gebots der Staatsferne der Medien, sind hier aber vor allem die Akteur*innen des Qualitätsjournalismus selbst gefragt.