Qu’advient-il lorsque Google joue avec l’éthique?
Les géants du numérique - notamment Google - n’auraient pas tout à fait conscience du pouvoir qu’ils confèrent à leurs outils dotés d’intelligence artificielle (IA), selon plusieurs chercheurs en Suisse.
La récente mise à pied d’une experte en éthique de Google relance le débat sur la prise en compte par les GAFAM d’un code moral dans le domaine de l’IA.
«Les algorithmes avec lesquels nous travaillons relèvent d’abord de l’intérêt public, non d’affinités personnelles», a twitté El Mahdi El Mhamdi, unique employé de Google Brain en Europe à traiter d’IA avec les spécialistes au sein de la maison-mère. Il réagissait au licenciement en décembre de la manageuse Timnit Gebru. Composé de chercheurs de Google, le projet de recherche Google Brain vise à dupliquer les fonctionnalités du cerveau humain.
Or Timnit Gebru fait précisément partie des plus grands spécialistes au monde autour des questions d’éthique de l’IA. Dans un articleLien externe rédigé avec d’autres experts, elle a alerté sur les dangers des modèles de langages, l’essence même du moteur de recherche Google et son fonds de commerce.
Née à Addis-Abeba, en Éthiopie, de parents érythréens, Timnit Gebru est arrivée à l’âge de 15 ans aux États-Unis, fuyant la guerre entre l’Éthiopie et l’Érythrée. Admise à l’Université de Stanford, elle y a obtenu un doctorat en vision par ordinateur au Stanford Artificial Intelligence Laboratory. Sa thèse sur l’usage à grande échelle d’images publiques aux fins d’analyses sociologiques a eu un certain retentissement. Jusqu’à occuper les colonnes de médias importants comme le New York Times ou The Economist. Son travail a surtout été reconnu après la publication de recherches révolutionnaires prouvant le taux d’inexactitude et de discrimination envers les femmes et personnes de couleur avec l’usage de systèmes de reconnaissance faciale. En 2018, alors qu’elle travaillait pour Microsoft Research, Google l’avait repéré pour qu’elle puisse venir y constituer une équipe d’éthique dans le domaine de l’IA.
Elle soutient que ces modèles analysent d’énormes quantités de textes sur Internet, en provenance surtout du monde occidental. Un risque accru de dérapage langagier de type raciste, sexiste ou offensant pourrait de ce fait dénaturer les données de Google reproduites par le système. Google a insisté pour faire retirer l’article. Mais face au refus de son auteure, Google l’a licenciée.
"Google’s short-sighted decision to fire and retaliate against a core member of the Ethical AI team makes it clear that we need swift and structural changes if this work is to continue…1\https://t.co/ojaCydyS6fLien externe
— Timnit Gebru (@timnitGebru) December 17, 2020Lien externe
Le risque d’une évolution non contrôlée des systèmes d’Intelligence artificielle a été corroboré par d’autres chercheurs. Il s’agirait même «d’un secret de polichinelle», estime Alexandros Kalousis, professeur en sciences appliquées à la Haute École spécialisée de Suisse occidentale et expert dans l’exploration de données. «L’IA est partout et progresse à un rythme effréné. Néanmoins, les développeurs de modèles et d’instruments dotés d’IA n’ont pas vraiment conscience de l’impact que ces derniers peuvent avoir en situation réelle», prévient-il. «Les conséquences ne sont visibles qu’après coup, voire jamais».
Wtf @GoogleLien externe @GoogleAILien externe??
— Lê Nguyên Hoang (Science4All) (@le_science4all) February 28, 2021Lien externe
Before deploying any larger language models, are you confident that such a dangerous misinformation, probably ubiquitous in your training dataset, will not be repeated by your algorithms?
How does firing your ethics team help you make "responsible AIs"? https://t.co/9Fw8bOHonCLien externe
Mais à l’aune du départ de Timnit Gebru, tout porte à croire que ces lanceurs d’alerte ne sont pas forcément écoutés par les entreprises qui les emploient.
«Timnit Gebru a été engagée par Google pour s’occuper d’éthique dans le domaine de l’IA, puis congédiée pour cette même raison. Voilà qui situe bien à quel point cette compagnie se soucie de ces questions », explique pour sa part Anna Jobin, spécialiste en éthique des nouvelles technologies et chercheuse à l’Institut Humboldt à Berlin. «Si une experte de son importance est traitée de la sorte, comment Google pourrait-il devenir plus éthique», s’interroge-t-elle.
If a company cannot even pretend to care about its internal "Ethical AI" co-leader, how much do you think they care about the rest of us?
— Dr. Anna Jobin (@annajobin) December 9, 2020Lien externe
In the wake of Google's outing of @timnitgebruLien externe, my two cents on #AIethicsLien externe #BigTechLien externe #IStandWithTimnitLien externe: https://t.co/xzxlaNwPvCLien externe
Essorage de l’éthique
Dans un monde technologique encore dominé par des hommes blancs, Timnit Gebru, une trentenaire originaire d’Éthiopie, incarne une nouvelle génération. Avec Margaret Mitchell, une collègue aussi licenciée en février, elles ont créé dans l’entreprise une équipe multiculturelle afin de promouvoir chez Google un développement éthique et inclusif des systèmes d’IA.
Après avoir compilé dans un guide ses principes éthiques en lien avec l’Intelligence artificielle, Google a instauré en 2019 une structure au sein de l’entreprise chargée de superviser le développement des systèmes d’IA, structure appelée Advanced Technology External Advisory Council (ATEAC).
Sur le blog de Google, son vice-président pour les affaires internationales, Kent Walker, en avait alors précisé les contours : « Une structure qui examine, en vertu de nos principes, quelques-uns des défis les plus importants posés à Google en matière de reconnaissance faciale ou d’équité en termes d’automatisation, dans le but de nous offrir davantage de perspectives. Nous sommes impatients d’aborder ces questions avec les membres de l’ATEAC ».
Malgré ces promesses, la structure a été suspendue deux semaines après son lancement à la suite du tollé suscité par la nomination au conseil d’administration de deux membres controversés, l’un étant plutôt conservateur ayant défendu des positions anti-trans, anti-LGBTQ et anti-migrants.
Anna Jobin craint que si ce genre d’équipes et leurs travaux ne sont pas réhabilités, «l’éthique IA pourrait devenir une force contraire à l’éthique». De la cosmétique pour masquer une soif de business entrant en conflit avec des principes moraux. Comme dans le cas du «green washing», où les entreprises vantent leurs politiques environnementales mais ne les appliquent pas, on pourrait parler d’ «ethics washing», c’est-à-dire de poudre aux yeux éthique, estime-t-elle.
Ingénieur en logiciels et lui-même employé de Google à Zurich pendant 13 ans, Burak Emir s’est penché, après le licenciement de Timnit Gebru, sur les objectifs réels de l’entreprise en matière de recherches sur l’éthique.
«A quoi sert un département d’éthique si la critique ne peut s’exprimer?», se demande-t-il. «Si le but est de ne publier que des recherches positives, ne faudrait-il pas alors s’abstenir de les présenter comme une avancée dans les connaissances. Nous avons surtout besoin de davantage de transparence».
It took me a while (sorry), but I read up on available info & came around to think that @timnitgebruLien externe's reaction makes sense. The demands formulated here are reasonable, and research leadership has to move to regain trust.https://t.co/2Wc3ImG0g7Lien externe#ISupportTimnitLien externe #BelieveBlackWomenLien externe
— Burak Emir (@burakemir) December 6, 2020Lien externe
A l’œuvre notamment en Suisse, nombre de scientifiques ont aussi exprimé leur solidarité avec Timnit Gebru. C’est à Zurich qu’a pris racine le plus grand centre de recherche de Google hors des États-Unis, orienté autour de l’automatisation et de l’IA. En compagnie de plus de 2600 employés du groupe, Burak Emir a signé une pétition en faveur de Mme GebruLien externe, en questionnant Google sur son approche de l’éthique de l’IA.
L’habit ne fait pas le moine
Le groupe nie avoir «censuré» Timnit Gebru. Contacté par SWI swissinfo.ch, le bureau de presse de Google Suisse nous a renvoyés aux précédentes déclarations des dirigeants de la société. Dans l’une d’elles, Jeff Dean, responsable de l’IA chez Google, avait indiqué que les recherches cosignées par Mme Gebru ne répondaient pas aux critères de publication. De plus, elle n’aurait pas été licenciée, mais aurait elle-même démissionné, ce qu’elle conteste.
I understand the concern over Timnit’s resignation from Google. She’s done a great deal to move the field forward with her research. I wanted to share the email I sent to Google Research and some thoughts on our research process.https://t.co/djUGdYwNMbLien externe
— Jeff Dean (@JeffDean) December 4, 2020Lien externe
I was fired by @JeffDeanLien externe for my email to Brain women and Allies. My corp account has been cutoff. So I've been immediately fired 🙂
— Timnit Gebru (@timnitGebru) December 3, 2020Lien externe
Cosignataire de cette pétition de soutien et chercheuse à l’Université de Saint-Gall, Roberta Fischli observe que la réputation de Google a souffert au sein de la communauté d’experts en éthique et intelligence artificielle. Mais ce risque-là existait dès le début en raison de conflits d’intérêts inévitables, lorsque de telles recherches s’intéressent aux pratiques en place dans une entreprise.
«En théorie, la plupart de ces sociétés ne rechignent pas à avoir un regard critique. Mais en pratique, ces conflits surviennent, même par inadvertance, dès que c’est l’employeur lui-même qui est critiqué». Et Roberta Fischli de constater aussi que les scientifiques désirant aujourd’hui mener des travaux révolutionnaires en matière d’éthique et d’IA n’ont souvent pas d’autre choix que d’être engagés par de grands groupes privés aux ressources importantes pour financer les travaux. «On s’expose quand on commence à comprendre certains mécanismes tout en voulant changer les choses depuis l’intérieur».
Le limogeage de Timnit Gebru n’a pas empêché le géant du Web de poursuivre ses affaires sans être contrarié. Mais les choses bougent. En janvier dernier aux États-Unis, des employés de Google ont décidé de fonder le premier syndicat au monde opérant au cœur d’une des plus grandes multinationales de la high-tech, l’Alphabet Workers UnionLien externe. Menées par des employés de Google, des antennes ont vu le jour dans une dizaine d’autres pays, dont la Grande-Bretagne et la Suisse, créant ainsi une alliance syndicale mondiale.
Hard to understate the importance of this against the background of @timnitGebruLien externe’s forced departure from #GoogleLien externe’s AI Ethics team. Time to take ethics, diversity and labor law – and your own corporate slogan seriously, Google! #ISupportTimnitLien externe https://t.co/H0AORkHKE0Lien externe
— Roberta Fischli (@leonieclaude) December 3, 2020Lien externe
Secret de polichinelle
L’influence qu’exercent les GAFAM (Google, Amazon, Facebook, Apple, Microsoft) dépasse largement les confins de leurs bureaux. Leurs actions et leurs planifications imprègnent directement le programme mondial de la recherche universitaire. «Difficile de citer des recherches académiques qui ne sont pas liées ou financées par ce type de sociétés», résume Alexandros Kalousis.
Tenant compte de cette influence, il est aujourd’hui crucial, selon lui, d’entendre des voix indépendantes qui soulignent les dangers inhérents à une exploitation sans contrôle des données par les géants de l’économie numérique.
«Il s’agit-là d’un gros problème de notre société», explique-t-il. De telles discussions sur les notions d’éthique pourraient sinon virer à la distraction.
Le secteur de la recherche peut-il être aussi indépendant et objectif qu’il le souhaiterait sans tenir compte des risques liés au large déploiement des technologies de l’Intelligence artificielle? Pas vraiment, semble-t-il. Ce champ-là dépasse Google. Il concerne chaque entreprise développant des systèmes basés sur l’IA qui ne s’imposerait ni règles ni limites. C’est la preuve aussi, selon M. Kalousis, que la technologie dicte ce qui est acceptable éthiquement de ce qui ne l’est pas. De quoi façonner également nos vies et nos façons de penser.
En conformité avec les normes du JTI
Plus: SWI swissinfo.ch certifiée par la Journalism Trust Initiative
Joignez-vous à la discussion