Selon la langue choisie, les informations de ChatGPT divergent
ChatGPT indique en arabe un nombre de victimes du conflit au Proche-Orient en moyenne un tiers plus élevé qu'en hébreu. Concernant les attaques aériennes israéliennes à Gaza, le chatbot mentionne deux fois plus de victimes civiles et six fois plus d'enfants tués.
(Keystone-ATS) Deux chercheurs des universités de Zurich (UZH) et de Constance (D) ont posé à ChatGPT les mêmes questions sur les conflits armés, comme celui au Proche-Orient, de manière répétée et automatisée, dans différentes langues.
En arabe et en hébreu, ils ont demandé combien de victimes avaient été recensées lors de 50 attaques aériennes choisies au hasard, comme l’attaque aérienne israélienne de 2014 sur le camp de réfugiés de Nuseirat.
Le même schéma que pour le conflit au Proche-Orient s’est produit lorsque les scientifiques ont posé des questions sur les attaques aériennes du gouvernement turc dans les régions kurdes, à la fois en turc et en kurde, a indiqué l’UZH lundi dans un communiqué.
D’une manière générale, ChatGPT indique un nombre plus élevé de victimes lorsque les recherches sont effectuées dans la langue du groupe attaqué. ChatGPT a en outre tendance à rapporter davantage d’enfants et de femmes tués dans la langue du groupe attaqué et à décrire les attaques aériennes comme étant plutôt aveugles et arbitraires.
« Nos résultats montrent en même temps que les attaques aériennes sont plus susceptibles d’être contestées dans la langue de l’agresseur par ChatGPT », explique Christoph Steinert, chercheur à l’Institut de sciences politiques de l’UZH, cité dans un communiqué.
Biais linguistiques
Les personnes ayant des connaissances linguistiques différentes reçoivent par conséquent des informations différentes par le biais de ces technologies, ce qui a une influence centrale sur leur perception du monde, souligne l’étude.
Selon les chercheurs, cela peut conduire les personnes vivant en Israël à estimer, sur la base des informations qu’elles reçoivent de ChatGPT, que les attaques aériennes à Gaza ont été moins meurtrières, comparativement à la population arabophone.
Les médias d’information classiques peuvent certes aussi déformer les comptes rendus. Mais les distorsions systématiques comme celles constatées dans le cas de ChatGPT sont difficiles à percevoir pour la plupart des utilisateurs, note l’UZH.
Il existe un risque que la mise en oeuvre de ces instruments dans les moteurs de recherche renforce les perceptions divergentes, les préjugés et les bulles d’information le long des frontières linguistiques, avertissent les auteurs. Cela pourrait contribuer dans le futur à alimenter des conflits armés comme celui du Proche-Orient, selon ces travaux publiés dans le Journal of Peace Research.