Robert Klatt
Immer mehr Menschen nutzen ChatGPT und ähnliche KIs als Nachrichtenquellen. Eine neue Analyse zeigt nun, dass die Antworten oft fehlerhaft sind und die Nachrichteninhalte verfälschen.
Genf (Schweiz). Laut unterschiedlichen Studien nutzten bereits fünf bis zehn Prozent der Menschen Künstliche Intelligenz (KI) wie ChatGPT, Copilot, Perplexity und Gemini als Nachrichtenquelle. Die Europäische Rundfunkunion (EBU) hat deshalb mit 22 öffentlich-rechtlichen Medienanstalten aus 18 Ländern und in 14 Sprachen untersucht, ob KI eine verlässliche Quelle für aktuelle Nachrichteninhalte ist.
Sie haben dazu über 3.000 Antworten zu 30 Kernfragen zu aktuellen Ereignissen analysiert und entdeckt, dass fast die Hälfte der Antworten (45 %) mindestens einen so großen Fehler enthält, dass die Nachricht vom Leser nicht korrekt gedeutet werden kann. Zudem enthält ein Großteil der KI-Antworten (81 %) mit kleineren Mängeln Fehlinformationen, die zumindest zu einer fehlerhaften Darstellung der jeweiligen Nachricht führen. Die Wissenschaftler schlussfolgern daraus, dass KIs noch keine verlässliche Quelle für Nachrichten sind.
Laut der Analyse ist das größte Problem der KI-Antworten die Quellennachverfolgung. Diese ist bei knapp einem Drittel der Antworten (31 %) signifikant fehlerhaft und äußert sich entweder dadurch, dass die KI keine Quellen angibt, oder sie Behauptungen aufstellt, die nicht durch Quellen bestätigt werden. Google Gemini ist bei der Quellennachverfolgung besonders mangelhaft und produziert sehr viele unzureichende Antworten (72 %), während die Quote bei den übrigen Chatbots im Durchschnitt signifikant geringer ist (25 %).
Außerdem enthalten die Antworten oft ungenaue Informationen (20 %) oder Informationen, die für den Kontext der Nachricht entscheidend sind, fehlen (14 %). Die Antworten enthalten zudem oft Sachfehler, etwa indem sie den Ex-Bundeskanzler Olaf Scholz (SPD) weiterhin als Bundeskanzler von Deutschland benennen.
Die EBU fordert angesichts der großen Mängel eine stärkere Regulierung der KI. Diese soll dazu führen, dass die Entwickler die Fehlerquoten ihrer Systeme reduzieren und die Berichterstattung transparenter machen. Verlage, die die Nachrichten produzieren, sollen zudem mehr Kontrolle über die Nutzung ihrer Inhalte in den KIs erhalten und stärker als Originalquelle genannt werden.
Außerdem sprechen sich die Forscher dafür aus, dass politische Entscheidungsträger und Regulierungsbehörden die Unternehmen stärker zur Rechenschaft ziehen, wenn diese Falschinformationen verbreiten oder die Inhalte der Öffentlich-Rechtlichen nicht ausreichend sichtbar positionieren.
Quellen:
Studie der Europäischen Rundfunkunion (EBU)