L’éthique n’est pas la solution miracle aux biais de l’IA

Cette photo est L’Intelligence Artificielle joue un rôle de plus en plus central dans nos sociétés : c’est aujourd’hui un enjeu politique. Les engagements éthiques des GAFAM sont un premier pas, mais ne peuvent pas suffire en l’état.

L’Intelligence Artificielle joue un rôle de plus en plus central dans nos sociétés : c’est aujourd’hui un enjeu politique. Les engagements éthiques des GAFAM sont un premier pas, mais ne peuvent pas suffire en l’état.

Nous ne pouvons plus ignorer que l’intelligence artificielle transporte un certain nombre de biais dans son sillage. Les acteurs de la tech, les premiers, ont décidé de prendre le problème à bras le corps. Mais cela suffira-t-il ?

Un vent nouveau souffle du côté des géants de la tech qui dominent le champ de l’Intelligence Artificielle. La semaine dernière, Sundar Pichai, le patron de Google, publiait un ensemble de principes éthiques devant désormais régir les activités de l’entreprise en matière d’IA. Cette annonce arrive alors qu’un certain nombre d’employés de la firme de Mountain View mènent depuis plusieurs semaines une véritable fronde contre ses incursions  sur le terrain glissant des applications militaires. Google emboîte ainsi le pas à Microsoft, qui sortait en mars dernier un livre intitulé The Future Computed: Artificial Intelligence and its role in society, et à Facebook, qui, au pied du mur, devait admettre par la voix de son fondateur et CEO Mark Zuckerberg sa responsabilité dans une course à la présidence américaine pour le moins inhabituelle en 2016…

La fin du mythe de l’harmonie par le calcul

C’est la fin d’une époque où l’on voulait croire en la parfaite neutralité des outils technologiques, où l’on pensait que l’avènement du Big Data et de l’IA  – forcément vierges de tout biais cognitif et de toute trace d’idéologie ! – donnerait enfin corps au vieux rêve de mise en équation de la société. Que ce soit chez Google, Microsoft ou Facebook, on considère désormais que les questions qui entourent l’IA ne sont pas juste d’ordre technique, mais également éthique.

Il faut dire que les signaux se multipliaient ces dernières années. On se souvient par exemple du cas Tay, sympathique IA made in Microsoft devenue raciste et misogyne à peine 24h après avoir été lâchée dans le grand bain de la twittosphère. Plus récemment, une équipe de chercheurs du MIT a développé Norman, une IA psychopathe entraînée sur un sous-forum de Reddit sur lequel images violentes et morbides s’échangent… L’idée : illustrer les biais potentiellement inquiétants que peuvent développer les programmes d’apprentissage-machine en fonction de l’environnement au sein duquel ils sont “éduqués”. Autrement dit, les biais de sélection dans les jeux de données risquent de transformer les Intelligences Artificielles en caisse de résonance pour les préjugés de leurs concepteurs et/ou éducateurs…

On sait ainsi que les programmes de reconnaissance vocale embarqués dans les voitures peinent à interagir avec les voix féminines. On se rappelle aussi que la première mouture du logiciel de reconnaissance d’images grand public de Google rangeaient les afro-américains sous la catégorie “gorilles”. Et le fait que seuls 2% des employés de Google appartiennent à cette catégorie de population n’y était sans doute pas totalement étranger.

Intelligence Artificielle : enjeu éthique ou politique ?

Que les concepteurs de programmes d’intelligence artificielle adoptent une approche éthique de leur matière est en soi une bonne nouvelle. Depuis les quelques ratés évoqués plus haut, la plupart des grands acteurs de l’IA se sont mis à prêter une attention particulière à la diversité au sein de leurs équipes de recherche. Autre point clé : la transdisciplinarité. Etant donné l’omniprésence des technologies fondées sur l’intelligence artificielle, ingénieurs et mathématiciens doivent absolument travailler main dans la main avec, par exemple, des sociologues ou des philosophes, ainsi que le défend Jean-Gabriel Ganascia, chercheur en informatique et président du Comets (comité d’éthique du CNRS).

Pour autant, pouvons-nous nous reposer totalement sur les engagements moraux des acteurs de l’IA ? La question est délicate. Car l’automatisation est en train de prendre une place si centrale dans nos sociétés que le sujet devient à proprement parler politique. Autrement dit, le futur de l’Intelligence Artificielle ne dépend pas uniquement de la bonne volonté de ses concepteurs, mais de l’usage qui en sera fait ainsi que de la capacité à s’emparer de ces questions. Qu’il s’agisse d’accès au crédit, de systèmes d’attribution des aides sociales, du calcul des primes d’assurance ou de la recherche d’emploi, les procédures algorithmiques se substituent à toute vitesse aux anciennes procédures bureaucratiques. Et s’il est vrai que la bureaucratie a toujours été – et c’est presque un pléonasme ! – kafkaïenne, elle n’était pas pour autant une boîte noire.

Dans la plupart des pays industrialisés, les citoyens disposent d’un certain nombre de droits qui leurs permettent, le cas échéant, de demander des explications à leur administration, et même de faire appel d’une décision qui les concerne. La machine administrative n’en a jamais vraiment été une. Mais sommes-nous certains que la métaphore, demain, ne sera pas une réalité ?

La tentation des systèmes prédictifs

Certaines caractéristiques inhérentes aux programmes de machine learning doivent en effet nous conduire à une certaine prudence dans l’usage qui en est fait. Les réseaux de neurones qui se généralisent aujourd’hui apprennent en procédant par induction : la machine tire une loi générale d’observations particulières. Peut-on absolument éviter les phénomènes d’auto-renforcement, la mise en place de boucles de rétroaction perverses et le ciblage de population considérées comme à risque ? Comme l’écrit la mathématicienne Cathy O’Neill (et auteure du livre Weapons of Math Destruction) : “nous remplaçons les procédures pilotées par des humains par des algorithmes, mais nous ne les soumettons pas aux mêmes standards. Les gens leur font trop confiance”.

En 2016, l’ONG ProPublica révélait ainsi qu’un programme massivement utilisé par le système judiciaire américain pour évaluer le risque de récidive chez les condamnés pénalisait lourdement les afro-américains. Le problème est qu’il n’est même pas certain qu’un tel résultat reflète le racisme latent de tel ou tel programmeur : l’idéal de justice que constitue l’égalité de chacun devant la loi implique de traiter les séries statistiques avec une certaine distance critique, et de se méfier de la tentation de la prédiction algorithmique.

Qu’acceptons-nous d’automatiser dans nos sociétés ? Sur quoi voulons-nous garder la main ? Ces questions ne concernent pas que les spécialistes. L’Intelligence Artificielle est sans doute l’enjeu politique le plus passionnant de notre époque. Les chercheurs et ingénieurs en IA sont des protagonistes clés de ce débat. Ils ne peuvent en être les seuls.