Menschen misstrauen KI-generierten Schlagzeilen
(Keystone-SDA) Menschen misstrauen von Künstlicher Intelligenz (KI) generierten Inhalten. Einer neuen Studie zufolge sind Leserinnen und Leser weniger bereit, Schlagzeilen zu vertrauen, wenn sie mit dem Hinweis «KI-generiert» versehen sind.
Dem Studienleiter Fabrizio Gilardi von der Universität Zürich (UZH) zufolge sollten solche Hinweise deshalb nur mit Vorsicht angewandt werden. «Es wäre sinnvoller, zwischen problematischen und unproblematischen Inhalten zu unterscheiden, als zwischen KI-generierten und nicht KI-generierten», sagte Gilardi am Freitag zur Nachrichtenagentur Keystone-SDA.
KI-Hinweise stossen laut Gilardi auf viel Zustimmung. Es wurde bisher aber kaum untersucht, welche Auswirkungen solche Labels auf die Wahrnehmung von Leserinnen und Lesern haben.
Für die Studie, die in der Fachzeitschrift «Pnas Nexus» veröffentlicht wurde, haben Gilardi und sei UZH-Kollege Sacha Altay deshalb ein Experiment mit fast 5000 Menschen aus den USA und Grossbritannien durchgeführt.
Falsche Annahmen
Dabei zeigte sich, dass eine Kennzeichnung von Schlagzeilen als «KI-generiert» die wahrgenommene Genauigkeit der Schlagzeilen und die Absicht der Teilnehmerinnen und Teilnehmer, sie zu teilen, reduzierte. Dies unabhängig vom tatsächlichen Wahrheitsgehalt der Schlagzeile und auch unabhängig davon, ob sie wirklich von einer KI erstellt worden waren. Der Effekt war der Studie zufolge aber dreimal kleiner als bei Schlagzeilen mit dem Hinweis «Falsch».
Laut Gilardi ist dieser Skeptizismus wahrscheinlich darauf zurückzuführen, dass viele Leserinnen und Leser beim Hinweis auf KI davon ausgehen würden, dass so gekennzeichnete Schlagzeilen vollständig von KI geschrieben wurden, ohne menschliche Aufsicht.
Dies sei im Journalismus aber unüblich, sagte Gilardi. Solche Hinweise führten damit auch zu einer Verringerung des Glaubens an korrekte Inhalte.