Der Kampf gegen Falschnachrichten wird lange dauern
Schweizerische und europäische Forscher arbeiten an Algorithmen zum Auffinden von Falschinformationen, die auf sozialen Medien zirkulieren. Laut Forschern ist es jedoch keine leichte Aufgabe, Maschinen für diese Aufgabe zu trainieren.
Falschinformationen sorgten 2016 für Schlagzeilen und gipfelten in Vorwürfen, dass falsche Nachrichten auf Facebook Donald Trump halfen, die Präsidentschaftswahl in den USA zu gewinnenExterner Link. Nachdem Facebook-Chef Mark Zuckerberg zunächst einen möglichen Einfluss von Falschmeldungen auf Stimmbürger abgestritten hatte, testetExterner Link Facebook nun doch Massnahmen zur Eindämmung von Falschmeldungen auf dem weltweit populärsten sozialen Netzwerk.
Auch andere werden aktiv, vom Riesen Google bis hin zu einsam arbeitenden Computer-Nerds. Doch jene, die den Zuwachs an Falschinformationen schon untersuchten, bevor der unerwartete Ausgang der US-Präsidentenwahlen das Problem ins Rampenlicht brachte, warnen: Die Experten stünden bei ihrem Vorgehen gegen falsche, erfundene Nachrichten (Fake News) vor einem harten Kampf.
Es sei ein Rennen zwischen Maschinen und Menschen, die entweder zum Spass, für eine politische Agenda oder einfach für Geld Informationen fabrizierten, erklärt Kalina Bontcheva, Professorin an der Universität von Sheffield in Grossbritannien.
Die Arbeit von Computerwissenschafterinnen wie Bontcheva und Nachrichtenorganisationen, einschliesslich swissinfo.ch, in diesem Bereich zeigen, wie schwierig es ist, die Verbreitung von Lügen und Verzerrungen auf sozialen Medien tatsächlich einzuschränken.
Falsche Informationen erkennen
Zu Zuckerbergs Sieben-Punkte-Plan, mit dem die Verbreitung von falschen Nachrichten auf Facebook eingeschränkt werden soll, gehört eine «stärkere Erkennung (…), um unsere Fähigkeit, Falschinformationen zu klassifizieren, zu verbessern». Bontcheva vergleicht Technologie, die so etwas tun könnte, mit Spam-Filtern für E-Mails. Die Wirksamkeit einer solchen Technologie wäre aber wahrscheinlich begrenzt.
Falschinformationen «made in Switzerland»
Websites mit unwahren, falschen Nachrichten sind auch in der Schweiz aufgetaucht, aber bisher zahlenmässig nur in geringem Umfang. Linards Udris sagt, auch Gefolgschaft und Einflussbereich dieser Sites seien begrenzt. Ein möglicher Grund dafür sei die Grösse des Landes.
Wer mit falschen Nachrichten Geld machen wolle, könnte das hier nicht wirklich tun, wegen des relativ kleinen heimischen Markts für Nachrichten, erklärt der Medienforscher der Universität Zürich.
Ein weiterer möglicher Faktor sei die vergleichsweise geringe Polarisierung der Schweizer Politik, sagt Udris weiter. Vor allem in den USA sei eine überdrehte Parteilichkeit ein Merkmal zahlreicher Websites mit Falschinformationen.
Udris gibt aber zu bedenken, dass die Polarisierung auch in der Schweiz zunehme. Und da mehr und mehr Leute ihre Nachrichten über soziale Medien beziehen, müssten Experten genau im Auge behalten, wie sich die Fake-News-Landschaft hier entwickle.
«Websites, die mit Falschinformationen vor allem Geld machen wollen, sind leicht zu erkennen», sagt sie weiter. «Die schwierigeren Fälle sind jene Behauptungen mit verborgenen Motiven, denn sie sind viel subtiler, und für Maschinen daher auch schwieriger zu erkennen», erklärt sie.
Ein ForschungsprojektExterner Link unter Bontchevas Leitung versucht, diese Herausforderung anzugehen. Bei dem von der Europäischen Union finanzierten Projekt unter dem Namen Pheme arbeiten IT-Experten, Universitäten und swissinfo.ch miteinander an der Entwicklung von Technologien, die Journalisten und Journalistinnen helfen sollen, Online-Behauptungen aufzuspüren und auf deren Wahrheitsgehalt zu überprüfen.
«Wir versuchen, viele Gerüchte aus der Vergangenheit als Trainings-Daten für maschinenlernende Algorithmen zu verwenden», erklärt Bontcheva. «Wir trainieren Modelle dazu, die Meinung von Nutzern über eine Behauptung aufzuspüren – und basierend darauf herauszufinden, wie gross die Wahrscheinlichkeit ist, dass diese wahr oder falsch ist.»
Maschinen lernen, wenn auch langsam
Es mag einfach klingen, aber Maschinen dahingehend zu trainieren, dass sie einen klaren Hinweis darauf geben können, ob ein Text glaubwürdig ist oder nicht, ist eine komplexe Aufgabe. Wissenschaftler müssten Ansätze kombinieren, die Geschichte der sozialen Netzwerke selbst ebenso auswerten wie den Inhalt der individuellen Einträge, um Muster für glaubwürdige und fragwürdige Inhalte erkennen zu können, erklärt der Datenwissenschaftler Pierre Vandergheynst.
«Bisher hat noch niemand diese Nuss geknackt», sagt der Professor an der Eidgenössischen Technischen Hochschule Lausanne (EPFL), der die Entwicklung von Informationen auf Plattformen wie Wikipedia erforscht. «Sie können einen Text lesen und entscheiden, ob Sie diesem trauen wollen oder nicht, aber einer Maschine fehlt das kognitive Denken, um dies zu tun.»
Bontcheva räumt ein, dass die Entwicklung dieser Technologie noch in den Kinderschuhen stecke. «Nach drei Jahren des Experimentierens sind wir noch weit entfernt vom Niveau der Zuverlässigkeit, die wir brauchen.»
Sie glaubt aber, dass die Pheme-Forscher seit den Anfängen des Projekts die Dinge voran gebracht haben.
«Die Technologie wird besser und wir haben den Entwicklungsstand vorangetrieben», sagt sie. Projekt-Partner hätten zudem grosse Mengen von Daten zu dem Forschungsbereich beigetragen. «Als wir anfingen, gab es noch nicht viele Gerüchte auf sozialen Medien (zum Nutzen als Trainings-Daten).»
In der Tat stossen Forscherinnen und Forscher oft auf das Problem des fehlenden Zugangs zu Daten von Facebook und anderen sozialen Netzwerken. Das Informationsvolumen, mit dem diese Unternehmen fertigwerden müssen, ist auch für die Tech-Riesen ein Thema, wie Bontcheva erklärt. Es bedeutet, dass sie Systeme entwickeln müssen, die verdächtige Inhalte im enormen Volumen von Beiträgen aufspüren können, welche die Nutzer jeden Tag mit anderen teilen.
Werkzeug ist nicht gleich Werkzeug
Neben Facebook und Google, die beide Pläne zur Einschränkung von unwahren, falschen Nachrichten auf ihren Plattformen bekannt gaben, versuchen auch technisch versierte Nutzer gegen Falschinformationen im Internet vorzugehen. Unter den vorgeschlagenen Lösungen, die auftauchten, als das Thema Fake News gegen Ende 2016 für zahlreiche Schlagzeilen sorgte, ist ein Computer-Werkzeug, das ein Technologe in den USA entwickelte, und das im Englischen den frechen Namen «BS Detector» (BS steht für Bullshit – Blödsinn, Scheisse) trägt. Daniel Sieradski erklärte gegenüber MedienExterner Link, er habe dieses Browser-Plug-in, das «fragwürdige» Nachrichtenquellen auf der Basis einer Liste von Websites mit Falschinformationen erkenne und markiere, in «etwa einer Stunde» entwickelt.
Die Methode töne ähnlich wie ein Spam-System, erklärt der EPFL-Datenforscher Pierre Vandergheynst. Und habe ihre Schwächen.
«Man müsste eine Liste aller potentiellen Websites mit falschen Nachrichten» haben, die es im Netz gibt, damit das Plug-in effizient wäre, sagt er. Und sogar dann würde es Gerüchte nicht erkennen, die von Nutzern sozialer Medien gestartet würden, die keine direkte Verbindung hätten zu solchen Websites; solche Meldungen würden unter Umständen dann auch von Mainstream-Medien aufgenommen.
Zensur
Ein weiteres Problem ist, wie das Vertrauen von Nutzern in einem System bewahrt werden kann, das entscheidet, welche Beiträge falsche, unwahre Informationen beinhalten.
«Die Tech-Unternehmen müssen völlig transparent sein, wie sie darüber entscheiden, was eine Website mit gefälschten Nachrichten ist», erklärt Linards Udris, ein Schweizer Medienexperte an der Universität Zürich.
Bontcheva stimmt zu. Um Vorwürfe von Zensur zu vermeiden, sagt sie, könnte Facebook Nutzern die Option geben, fragwürdige Inhalte in einem separaten Feed aufzulisten, ähnlich wie E-Mail-Posteingänge einen Spam-Ordner haben, den die Leute nach Belieben öffnen können oder nicht. Facebook geht einen anderen Weg, mit einem System, das «umstrittene» Artikel markiert und User warnt, wenn sie diese teilen wollen.
Das Risiko der Zensur begrenzt auch die Möglichkeiten von Staaten, Information einzuschränken. Udris sieht wenig Sinn darin, neue Gesetze einzuführen, und verweist darauf, dass die gegenwärtige Gesetzgebung was Verleumdung, üble Nachrede angeht – zumindest in der Schweiz –ein Weg sind, um mit Fällen von falschen, aufwiegelnden Behauptungen umzugehen, die bestimmte Personen oder Gruppen im Visier haben.
Regierungen könnten ihre Aufmerksamkeit hingegen auf andere Aspekte richten. «Tech-Unternehmen haben heute wenig kommerzielle Anreize, falsche, unwahre Nachrichten einzuschränken», sagt Udris, stellvertretender Direktor des Forschungsinstituts Öffentlichkeit und Gesellschaft (fög)Externer Link. Wenn solche Geschichten sich wie ein Virus rasend schnell verbreiten, trügen sie dazu bei, Einkommen für soziale Plattformen zu generieren. Staaten könnten zum Beispiel Unternehmen Steuererleichterungen anbieten, die Schritte gegen Falschinformationen auf ihren Plattformen unternehmen.
Der Faktor Mensch
Doch andere Akteure müssen sich ebenfalls engagieren. Facebook setzt beim Test auch auf die Hilfe von Nutzern und Drittparteien – darunter Fakt-Checking-Organisationen sowie Medien –, um irreführende Nachrichten aufzuspüren. Aber auch Journalistinnen und Journalisten selber müssen Teil der Lösung sein.
«Das Problem ist, wenn legitime (Nachrichten)-Websites falsche Informationen aufgreifen und weiter verbreiten», erklärt Vandergheynst. «In diesem Moment erhalten solche Informationen eine Art Echtheitssiegel. Dieser Zyklus muss unterbrochen werden.»
In einer Zeit, in der Medienunternehmen immer wieder vor Kürzungen ihrer Ressourcen stehen, möchte Udris eine «breitere Debatte darüber sehen, wie guter Journalismus in der Gesellschaft gefördert werden kann». Öffentlicher Rundfunk sei von kritischer Bedeutung, fügt er hinzu. «Er ist eine wichtige Säule, wo die Leute qualitativ hochstehende, vielfältige und verifizierte Information erhalten.»
Es ist aber auch Sache der Online-Nutzer, kritischere und anspruchsvollere Nachrichtenkonsumenten zu werden. Udris verweist auf Studien, die zeigen, dass weniger als die Hälfte der Leute, die ihre Nachrichten über soziale Medien beziehen, auf die Quelle der Informationen achten, die sie lesen.
«Es braucht kritisches Denken», sagt er. Und legt nahe, es bestehe ein Bedarf für eine bessere Medienausbildung für junge Menschen, die, wie eine jüngst veröffentlichte Studie des Reuters InstitutsExterner Link ergab, mehr als irgend eine andere Altersgruppe ihre Nachrichten vor allem über soziale Medien beziehen. Er ist auch der Ansicht, wenn man für Online-Nachrichten bezahlen müsse, könne das dazu beitragen, dass die Leute beim Entscheid, welche Medienkanäle sie nutzten, kritischer würden.
Doch auch mit Bemühungen in allen Sektoren kann die Verbreitung von Falschinformation nicht komplett gestoppt werden. Und Udris erklärt, man dürfe keine kurzfristigen Wunder erwarten. «Gerüchte sind Teil der menschlichen Natur», unterstreicht er.
Eine Einschätzung, die Vandergheynst teilt: «Letztlich war es nicht das Web, das Verschwörungstheorien erfand», sagt der EPFL-Forscher. «Es half einfach, solche rascher zu verbreiten, statt in einer lokalen Bar erfährt man nun davon auf Facebook.»
(Übertragung aus dem Englischen: Rita Emch)
In Übereinstimmung mit den JTI-Standards
Einen Überblick über die laufenden Debatten mit unseren Journalisten finden Sie hier. Machen Sie mit!
Wenn Sie eine Debatte über ein in diesem Artikel angesprochenes Thema beginnen oder sachliche Fehler melden möchten, senden Sie uns bitte eine E-Mail an german@swissinfo.ch