Longue bataille en vue pour freiner les nouvelles bidon
Des chercheurs suisses et européens travaillent sur des algorithmes destinés à détecter les fausses informations qui circulent sur les réseaux sociaux. Mais enseigner cette tâche à des machines n’est pas une tâche aisée.
Le thème de la désinformation s’est retrouvé sous les projecteurs en 2016, spécialement après les accusations selon lesquelles de fausses nouvelles circulant sur Facebook auraient aidé Donald Trump à entrer à la Maison blanche. Après avoir d’abord nié que de fausses informations avaient eu une influence sur les électeurs, le patron de Facebook Mark Zuckerberg a annoncé des plans pour limiter leur diffusion sur le réseau social le plus populaire au monde.
«Ce n’est pas le web qui a inventé les théories du complot. Internet a juste rendu leur diffusion plus rapide, car désormais, on les entend plus sur Facebook que dans un bar»
Beaucoup s’activent pour trouver une solution: cela va de géants comme Facebook à Google en passant par des accros de la technologie. Mais ceux qui ont commencé à étudier le phénomène bien avant les résultats inattendus des dernières présidentielles américaines avaient déjà mis les experts en garde sur le fait que la lutte contre les fausses nouvelles serait difficile.
«Il y a une course entre les machines et les personnes qui fabriquent de fausses informations par jeu, pour des raisons politiques ou pour de l’argent», déclare Kalina Bontcheva, professeur à l’Université de Sheffield, au Royaume-Uni.
Le travail des spécialistes de l’informatique, comme Kalina Bontcheva, ou des professionnels de l’information, y compris swissinfo.ch, montre à quel point il est difficile de limiter concrètement la diffusion de mensonges et de distorsions de la réalité sur les réseaux sociaux.
Détecter les fausses informations
Le plan en sept points de Mark Zuckerberg pour freiner la diffusion de fausses nouvelles sur Facebook inclut «une meilleure détection pour améliorer notre capacité à classifier la désinformation». Kalina Bontcheva compare la technologie qui permet de le faire avec celle des filtres anti spams des e-mails. Mais ses pouvoirs seraient limités.
Kinards Udris avertit toutefois que la polarisation va en augmentant en Suisse et qu’étant donné que de plus en plus de personnes accèdent aux nouvelles via les medias sociaux, les experts doivent suivre avec attention l’évolution de la situation.
Fausses nouvelles «made in Switzerland»
Des sites de fausses nouvelles sont aussi apparus en Suisse. Mais Kinards Udris explique qu’ils sont peu nombreux et que leur portée est limitée, notamment en raison de la petite taille du pays.
«Il ne serait pas possible de gagner de l’argent grâce à de fausses nouvelles, car ici, le marché de l’information est relativement petit», déclare le chercheur de l’Université de Zurich.
Un autre facteur est, selon lui, le faible niveau de polarisation de la politique suisse. Or être hyper partisan est une caractéristique de nombreux sites de fausses nouvelles, en particulier aux Etats-Unis.
«Les sites de fausses nouvelles créés pour faire de l’argent sont faciles à détecter, dit-elle. Les plus difficiles à détecter, y compris pour les machines, sont en revanche les nouvelles plus subtiles qui contiennent des informations qui ont un but caché.»
Le projet de rechercheLien externe dirigé par l’universitaire tente de résoudre ce problème. Baptisé PhemeLien externe et financé par la Commission européenne, il réunit un groupe d’experts en informatique, des universités et swissinfo.ch. Le but est de développer des technologies qui puissent aider les journalistes à vérifier la véracité de ce que l’on peut lire en ligne.
«Nous cherchons à utiliser de nombreuses rumeurs qui ont circulé autrefois sur le net pour élaborer des algorithmes. Nous créons des modèles qui détectent les opinions des utilisateurs par rapport à une affirmation et, sur cette base, nous calculons la probabilité que ce soit vrai ou faux», explique Kalina Bontcheva.
Les machines apprennent, mais lentement
Cela peut sembler évident, mais enseigner à une machine à donner une indication claire sur la véracité d’un texte est très complexe. Les scientifiques doivent combiner différentes approches en exploitant à la fois l’histoire des réseaux sociaux et les messages individuels (posts), afin d’en extraire un schéma plus large sur les contenus crédibles et douteux, explique le spécialiste des données Pierre Vandergheynst.
«Personne n’y est encore vraiment parvenu. Vous pouvez lire un texte et décider si vous pouvez vous y fier, mais une machine n’a pas les facultés cognitives nécessaire pour le faire», poursuit ce professeur de l’Ecole polytechnique fédérale de Lausanne (EPFL) qui étudie notamment la manière dont l’information évolue sur une plate-forme comme Wikipédia.
Kalina Bontcheva admet que le développement de cette technologie n’en est encore que dans sa phase initiale. «Nous faisons des essais depuis trois ans, mais nous sommes encore loin du niveau de fiabilité dont nous avons besoin, bien que des progrès aient été réalisés», dit-elle.
«La technologie s’améliore et nous sommes à l’avant-garde», ajoute-t-elle, en précisant que les partenaires du projet ont aussi contribué en fournissant une grande quantité de données. «Quand nous avons commencé, il n’y avait pas autant de rumeurs qui circulaient sur les réseaux sociaux et que nous pouvions utiliser comme matériel.»
Il est vrai que les chercheurs sont souvent confrontés au problème du manque d’accès aux données détenues par Facebook et d’autres réseaux sociaux. Mais l’énorme masse d’informations que ces entreprises doivent gérer représente aussi un problème pour elles, indique la chercheuse. Cela signifie qu’elles doivent élaborer des systèmes en mesure de trouver les contenus suspects à l’intérieur du gigantesque nombre de posts que les utilisateurs partagent chaque jour.
Tous les instruments ne se valent pas
Outre Facebook et Google, qui ont annoncé des plans pour réduire les fausses nouvelles, d’autres experts de la technologie tentent de combattre la désinformation en ligne. Parmi les projets lancés en 2016, il y a «BS detector», développé par un ingénieur en informatique aux Etats-Unis. Daniel Sieradska a indiqué à la presse avoir créé un plug-in pour les navigateurs qui «en environ une heure» détecte et signale les sources suspectes sur la base d’une liste de sites connus pour diffuser de fausses nouvelles.
Cette méthode est similaire au système de filtrage des spams, indique Pierre Vandergheynst. Mais il présente des faiblesses. «Il faut avoir une liste complète de tous les diffuseurs potentiels de fausses nouvelles pour que le plug-in soit efficace. Et même si tel était le cas, il ne réussirait pas à vérifier les rumeurs provenant des utilisateurs des réseaux sociaux, qui n’ont aucun lien avec ces sites», critique-t-il.
Censure
Un autre thème est la manière de conserver la confiance des utilisateurs dans un système qui décide automatiquement quel post contient de fausses informations.
«Les entreprises technologiques ont besoin d’être totalement transparentes sur la manière dont elles décident de déterminer ce qui est un faux site de nouvelles», déclare Kinards Udris, expert des medias à l’Université de Zurich.
Kalina Bontcheva partage cet avis. Pour éviter les accusations de censure, elle estime que Facebook devrait donner aux utilisateurs la possibilité de voir les contenus controversés dans un champ séparé, un peu à la manière dont une boîte mail dispose d’un dossier contenant les mails considérés être des spams.
Le risque de censure limite aussi la possibilité pour les Etats de restreindre l’information. Kinards Udris voit peu de raisons d’introduire une nouvelle législation, soulignant que la loi actuelle sur la diffamation représente – du moins en Suisse – une manière de gérer les cas d’affirmations fallacieuses. Mais les gouvernements pourraient concentrer leur attention ailleurs.
«Les entreprises technologiques ont peu d’incitations commerciales à limiter les fausses nouvelles», déclare Kinards Udris, qui est vice-directeur de l’Institut de recherche pour la sphère publique et la sociétéLien externe, un institut associé à l’Université de Zurich. Lorsque des histoires deviennent virales, elles génèrent un profit pour les plates-formes sociales, même si elles sont fausses. L’Etat pourrait par exemple offrir des avantages fiscaux aux entreprises qui adoptent des mesures contre la désinformation.
Le facteur humain
D’autres acteurs doivent être impliqués. Pour éradiquer les posts mensongers, Facebook a annoncé vouloir demander l’aide des utilisateurs et d’autres parties, y compris les medias et les organisations de vérification des faits. Mais les journalistes eux-mêmes doivent faire partie de la solution.
«Il y a un problème lorsque des sites de news sérieux reprennent et diffusent une fausse nouvelle, indique Pierre Vandergheynst. Dès ce moment, la nouvelle obtient le sceau de l’authenticité. C’est un cycle qui doit être rompu.»
Avec des medias qui doivent opérer des coupes budgétaires pour rester rentables, Kinards Udris préconise un débat plus large sur la promotion d’un bon journalisme au sein de la société. Les services d’information publics sont capitaux, ajoute-t-il.
Pour leur part, les utilisateurs d’internet doivent devenir des consommateurs plus critiques. Kinards Udris cite des études qui démontreraient que moins de la moitié des personnes qui utilisent les medias sociaux prêtent attention à la source des nouvelles qu’ils lisent.
«Il nous faut une mentalité critique», dit-il, suggérant que les jeunes doivent être éduqués plus efficacement en matière de medias. Selon une étude récente de l’Institut Reuters, les jeunes générations ont une plus grande tendance à lire les nouvelles sur les réseaux sociaux. Kinards Udris estime par ailleurs qu’une forme de payement pour les nouvelles en ligne pourrait aider les gens à choisir leur plate-forme d’information de manière plus judicieuse.
Pour autant, même avec l’implication de différents secteurs, la diffusion de fausses nouvelles ne peut pas être totalement bloquée et Kinards Udris ne s’attend pas à des miracles. «Les rumeurs font partie de la nature humaine», dit-il. Un avis que partage Pierre Vandergheynst pour qui, «en fin de compte, ce n’est pas le web qui a inventé les théories du complot. Internet a juste rendu leur diffusion plus rapide, car désormais, on les entend plus sur Facebook que dans un bar.»
(Traduction de l’anglais: Olivier Pauchard)
En conformité avec les normes du JTI
Plus: SWI swissinfo.ch certifiée par la Journalism Trust Initiative
Vous pouvez trouver un aperçu des conversations en cours avec nos journalistes ici. Rejoignez-nous !
Si vous souhaitez entamer une conversation sur un sujet abordé dans cet article ou si vous voulez signaler des erreurs factuelles, envoyez-nous un courriel à french@swissinfo.ch.