Gedanken zu Pressefreiheit und KI
Liebe Leserinnen und Leser,
Ihr schaut gerne mal in den Lavastein-Blog rein? Das freut mich, aber habt Ihr mal überlegt, warum das – abgesehen von mir – eigentlich möglich ist?
Ganz einfach: Weil ich den LSB in Spanien verfasse, einem Land, in dem die Pressefreiheit noch gilt. Ich schreibe heute darüber, weil der 3. Mai der Tag der Pressefreiheit ist.
Freuen wir uns über dieses Privileg. Denn der Verband Reporter ohne Grenzen (RSF) hat Bedenkliches ermittelt: Der Journalismus befindet sich 2025 in 90 von 180 beobachteten Ländern in einer »schwierigen« oder »sehr ernsten« Situation. Selbst im »freien« Amerika regiert mit Donald Trump ein Präsident, der einen Feldzug gegen kritische Medien führt. Und in vielen Staaten Europas warten rechtsradikale Parteien nur darauf, an die Regierung zu kommen, die »Lügenpresse« abzuschaffen und die Berichterstattung zu ihren Gunsten zu manipulieren. Schon jetzt diskreditieren sie unabhängige Medien systematisch.
Der objektiven Information der Menschen zur Sicherung von Freiheit und Demokratie droht freilich noch eine weitere Gefahr: Lügen und Propaganda, erzeugt von KI-Systemen. Da stellt sich die Frage: Wie können Leserinnen und Leser erkennen, ob ein Text von Chatbots wie ChatGPT oder von einem Menschen geschrieben wurde und ob der Inhalt auf Tatsachen beruht?
Fake-News zu erkennen, ist insbesondere für Privatpersonen nicht einfach. Deshalb rate ich meinen Leserinnen und Lesern, zum Beispiel auf der Website saferinternet.at nachzusehen – dort findet Ihr einige Faktencheck-Adressen.
Wenn Ihr überprüfen wollt, ob ein Text tatsächlich von der angegebenen Autorin oder vom angeblichen Autor verfasst wurde, findet Ihr im Internet verschiedene Angebote der KI-Detektor-Tool-Branche. Allerdings sind ChatGPT-Detektoren mit Vorsicht zu genießen. Justdone zum Beispiel outete alle von mir eingereichten Probetexte als KI-generiert – selbst meine 100-prozentig eigenen. ZeroGPT stufte alle Probetexte als von Menschen geschrieben ein – auch die, von denen ich wusste, dass sie mit ChatGPT bearbeitet worden waren. Experten berichten, dass nur kostenpflichtige Tools wie Originality.ai hohe Genauigkeit bei der Identifizierung bieten.
Das ist sehr bedauerlich. Denn wer leistet sich das schon? Die ganz normale Blog-Lesergemeinde wohl kaum. Dabei wäre es doch wichtig zu wissen, wer im jeweiligen Medium die Beiträge tatsächlich verfasst: ein Mensch oder eine Maschine?
Ich mache mir nichts vor: Tools zum Generieren von Posts, Nachrichten und Artikeln sind nicht aufzuhalten und entwickeln sich ständig weiter. Auch große Medienhäuser beschäftigen sich damit. Beispiel: Schon 2023 sind Axel Springer und ChatGPT-Entwickler OpenAI eine globale Partnerschaft eingegangen. Sprich: Die LLMs abgekürzten Large Language Models, die die algorithmische Grundlage für ChatGPT liefern, werden nun mit Inhalten der Springer-Medien trainiert. Und: Die BILD-Zeitung kündigte ebenfalls schon 2023 an, dass Redakteure durch Künstliche Intelligenz ersetzt werden sollen.
So spart mann teure Fachkräfte und Zeit. Mit Textgeneratoren wie ChatGPT können bereits heute selbst Leute Nachrichten und Artikel produzieren, die von journalistischen Grundsätzen keinen blassen Schimmer, geschweige denn Schreibtalent haben. Und sie müssen den KI-Einsatz noch nicht mal für die Leserschaft kennzeichnen. Denn der im August 2024 vom EU-Parlament erlassene AI Act schreibt in Artikel 50 zwar folgendes vor: »Betreiber eines KI‑Systems, das Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde«. Aber der AI Act enthält außerdem eine entscheidende Einschränkung: »Diese Pflicht gilt nicht, wenn die durch KI erzeugten Inhalte einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt«.
Wie diese »redaktionelle Kontrolle« bei journalistischen Laien aussieht, lasse ich jetzt mal dahingestellt. Aber ich stelle mal die Frage in den Raum, ob es nicht schlicht und einfach korrekt gegenüber der Leserschaft wäre, die beispielsweise mit ChatGPT bearbeiteten Inhalte freiwillig zu kennzeichnen.
Schon klar, das ist Wunschdenken. Damit würden die Damen und Herren »Redakteure« ja zugeben, dass sie nicht mächtig oder willens sind, ohne KI-Hilfe einen Beitrag zu verfassen.
Fazit: Die Reise geht hin zu einem Ozean von unerkanntem Maschinen-Journalismus auf allen möglichen Plattformen im Internet. Mir bleibt nur eines: Euch zu versichern, dass im LSB keine mit künstlicher Intelligenz generierten oder manipulierten Texte herumschwirren. Jetzt nicht und solange ich ihn betreibe nicht. Das kann nicht jeder Blog auf La Palma von sich behaupten.
Im LSB ist noch alles Handwerk auf der Basis von Pressemitteilungen oder Recherchen. In Textform gebracht unter Beachtung meiner journalistischen Sorgfalts- und Wahrheitspflicht mit garantiert natürlicher Intelligenz.
Bleibt wachsam! Glaubt nicht alles, was Ihr lest, und glaubt nicht automatisch, dass die genannten Autoren die Texte tatsächlich geschrieben haben.
Eure Gudrun,
ausgebildete Rundfunk- und Printjournalistin und Bloggerin seit der Pensionierung