Morale de l’IA : sans bon sens, point de salut

This is a photo of a neon sign that says, "Data has a better idea."

(Image credit: Franki Chamaki)

Cristallisés par la publication de La guerre des intelligences de Laurent Alexandre, les projections fantasmagoriques et les diagnostics radicaux sur le visage futur et incertain de l’Intelligence Artificielle vont bon train. Chercheurs, scientifiques et technocrates s’interrogent : faut-il définir un code éthique de l’IA, et l’inscrire dans un cadre juridique stricte ? Comment peut-on rendre cette technologie plus éthique ?

Loin des considérations alarmistes de certains et de l’admiration béate d’autres, Laurence Devillers, chercheuse au CNRS et auteure du livre Des robots et des Hommes, mise surtout sur l’apprentissage de bonnes pratiques, sur un code de conduite qui pourrait s’apparenter à un serment d’Hippocrate moderne. « Cette question qui agite tout le monde n’est en fait pas si complexe », souligne-t-elle. « Il s’agit de ne pas tant se focaliser sur l’outil, mais sur le contexte. » Car l’objet IA n’est pas anodin aux yeux de Laurence. S’il est dépourvu des intentions bienveillantes ou malveillantes que notre imaginaire lui prête, ses réactions peuvent cependant parfois nous sembler imprévisibles, puisque la mécanique exacte de son fonctionnement nous échappe encore.

Surveiller plutôt qu’interdire

Pour la chercheuse, quatre points clés doivent être soigneusement examinés pour s’affranchir des dérives de l’IA.

Tout d’abord, les concepteurs et optimiseurs de l’IA, à savoir ceux qui définissent sa métrique et lui font absorber de la data, doivent être reconnus responsables de leurs logiciels. En mars 2016, Microsoft a travaillé sur un agent conversationnel, baptisé Tay, capable de développer son langage en fonction de ses interactions verbales. Seulement une journée après sa mise en service, le robot s’adonnait déjà à d’haineuses diatribes, pouvant aller de « Je haie les féministes qui devraient toutes brûler en enfer » à « Hitler a fait ce qu’il fallait, je déteste les Juifs ». Rappelons qu’avant d’avoir dialogué avec de malveillants internautes, la première phrase formulée par Tay avait été un enthousiasmant « Les Humains sont super cools ! » Oh, Tay, quelle naïveté…Pour éviter à une IA de se muer en insupportable nazillon, toutes les personnes intervenant sur sa chaîne de production devraient suivre des formations en éthique, et ce dès leur entrée en école d’ingénieurs ou d’informatique.

En outre, Laurence préconise la création de systèmes capables d’expliquer clairement ce qu’ils sont. La chercheuse cite l’exemple de Google Home, dont l’agent conversationnel, au lieu de se présenter comme une machine, fait tout pour se faire passer pour une personne. Watson, Alexa, Tay…Plutôt que d’affubler ces IA de noms propres, il serait plus judicieux de rappeler leur vraie nature via leur appellation. Car il dans la nature humaine d’anthropomorphiser les objets qui nous entourent : qui n’a jamais attribué à des machines des traits de caractères ? Qui n’a jamais encouragé sa voiture à démarrer, supplié son ordinateur d’aller plus vite, ou trouvé son aspirateur capricieux ? Se prendre au jeu avec une IA serait encore plus facile. « Pourtant, une machine apprend sans comprendre. Elle est performante en termes de perception et de génération, non terme de raisonnement », rappelle Laurence.

Éduquer les utilisateurs

L’auteur met aussi l’accent sur les utilisateurs des IA dans le monde professionnel. Si des radiologues ont recours au deep learning, par exemple pour détecter des tumeurs, ils se doivent de comprendre les limites de l’IA et de faire appel à des outils complémentaires. Car évidemment, il arrive que la machine commette des erreurs. Sauf que contrairement à ses homologues humains, lorsqu’une IA se trompe, elle ne le fait pas de manière cohérente : « une IA ne se trompe pas un peu, elle est complètement à côté de ses pompes ! », explique l’auteur. Il faut donc mettre en place des protocoles permettant d’encadrer ces comportements avec des mesures de fiabilité. Exemple : une IA entraînée à détecter des lions pourra en identifier dans une photo où ils en seraient absents, uniquement car le visuel scanné représente un biotope (en l’occurrence la savane) défini comme métrique de reconnaissance. Dans la même optique, un programme sensé différencier des chars américains de chars russes classerait toujours dans la seconde catégorie des véhicules évoluant dans la neige…De fait, ce n’est pas tant les machines qu’il faudrait rendre plus agiles, mais nous même, en nous astreignant à ne pas croire aveuglements les conclusions tirées par les IA. Comme le rappelait Yann LeCun, Directeur du AI Research de Facebook, lors de la dernière conférence USI : « Ce qui manque cruellement à l’IA, c’est le bon sens… »

Finalement, plutôt que de concevoir un cadre juridique figé, la chercheuse recommande l’intégration d’usagers dans l’analyse des résultats obtenus par les machines. Dans un contexte médical, les usagers seraient par exemple les patients. Autrement dit, l’important pour Laurence n’est pas de chercher à tout comprendre. « Vouloir, expliquer les fameuses ‘boîtes noires’ des machines grâces aux mathématiques, c’est un leurre, et ce n’est pas forcément utile. Il y par exemple en médecine des tas de choses qu’on ne comprend pas, mais qui marchent. Ce qu’on peut et doit faire, c’est prendre du recul, et surtout, ne pas désapprendre ou déléguer la décision aux IA. » En entreprise, il est primordial de ne pas dépendre des machines ou d’en attendre les ordres. Et pour la chercheuse, c’est plutôt une bonne nouvelle, car si l’automatisation des tâches détruira des emplois, la gestion et l’encadrement des machines en créera à son tour.

Diversifier les sources de la data pour les rendre plus inclusives

Exportées aux quatre coins du monde, les technologies les plus puissantes et les plus récentes ont été majoritairement façonnées au sein de la Silicon Valley. Le supposé “village global” auquel Internet devait donner naissance est dominé par une poignée d’individus très homogène en termes de géographie, de genre, d’ethnie et de classe. Alors pour rendre l’IA plus morale, Ramesh Srinivasan, qui dirige à UCLA en Californie un laboratoire d’étude sur la culture digitale, prêche pour une multiplication des sources d’où extraire la donnée.

FaceApp, élaborée à Saint-Pétersbourg en Russie, avait pour fonction de rendre les visages plus beaux sur les photos. Résultat : la peau de l’ancien Président Obama a été éclaircie… En cause : les datas à partir desquelles les algorithmes et les systèmes prédictifs apprennent. Non neutres, ils véhiculent les préjugés et les valeurs de leurs créateurs. Autre exemple : l’algorithme Compas, créé par North Point, est utilisée par la police en Floride pour identifier les individus les plus susceptibles de récidiver. Et comme Compas est un peu raciste dans sa conception, il identifie les Noirs comme ayant deux fois plus de chance de commettre un nouveau délit, et ce même face à un blanc ayant un casier judiciaire. Avec ce système, un blanc ayant subi des abus sexuels quotidiens durant 15 ans pourrait être étiqueté “sans risques”, à l’inverse d’un Noir sans antécédents. « Conçu et géré par une société privée, le logiciel contribue à la perpétuation d’un système racial inégalitaire », déplore Ramesh. « Ce genre de solution ne devrait jamais être mise entre les mains d’entités ne devant rendre de compte à leurs seuls actionnaires ! »

Pendant ce temps-là, Los Angeles, Californie, plus d’un tiers des commissariats utilise un logiciel complexe et flou permettant d’analyser certains crimes et de déterminer s’ils sont ou non liés aux gangs, faisant bien souvent fie du contexte. Aux Etats-Unis, les délits commis par les gangs sont punis bien plus sévèrement que les autres…

A la question de savoir si cette technologie n’était pas discriminante et dangereuse, l’un des auteurs du software, aurait répondu : “Je suis juste un ingénieur…”

Le véritable danger, ce n’est pas la machine. C’est que la machine nous rende paresseux. Comme l’écrivait en 1801 la femme de lettre française Stéphanie Félicité du Crest de Saint-Aubin : « La paresse rend incapable de tout. » « Et surtout de réfléchir », complète Laurence Devillers. Entre peur paralysante et optimisme candide, il est facile de détourner les yeux, de baisser les bras. Certes, un encadrement juridique de l’IA est à penser, mais lui accorder trop de poids ne serait-il pas l’occasion pour les décideurs et utilisateurs de se dédouaner en cas d’incidents ?

Crédit Photo : Franki Chamaki.