Éthique et algorithmes : Déconstruire le phénomène

Credit : Burst

Après l’euphorie des premières prouesses de l’intelligence artificielle, après l’engouement du « tous codeurs », nous voilà maintenant de plus en plus méfiants face au phénomène algorithmique. Des biais insidieux présents dans les données à l’ingénierie de l’humain que sous-tendent ses nombreuses applications, les plus sceptiques ont du grain à moudre. Cette critique se heurte pourtant à la nature de l’objet qu’elle veut scruter : les algorithmes qui font notre quotidien sont opaques, diffus, impalpables.

Interrogés par cette tension, nous avons sollicité Claire Richard, auteure d’un riche article de fond sur la question — Dans la boîte noire des algorithmes, comment nous nous sommes rendus calculables.

L’algorithme, cet objet sans contours

Comment s’indigner sans coupable ? Les algorithmes, agents de nos vies numériques, ne sont plus de ces inventions qu’on pouvait attacher à leur concepteur — ils ne sont même plus une entité en soi. Claire Richard s’étonne : « Parler de ”l’algorithme de Spotify” ça n’a pas de sens. C’est n’est rien d’autre qu’un ensemble de gens qui travaillent en même temps sur des éléments différents de cette machinerie. »

Comment accuser ce qui n’est pas défini ? La journaliste suggère que la réalité est beaucoup plus diffuse que ce qu’on s’accorde à imaginer lorsque l’on tergiverse sur les dérives de ce phénomène. « On prend le problème par le petit bout de la lorgnette quand on imagine un algorithme qui serait un programme, une formule secrète cachée. Ca a peut être été le cas, mais je pense que ça ne l’est plus aujourd’hui. »

Il ne s’agit pas d’agiter nerveusement nos pancartes technophobes, contre un grand remplacement de l’homme par les robots, mais bien d’essayer d’apprécier la complexité du système dans lequel nous vivons déjà quotidiennement.

Aux yeux de Claire Richard, tenter d’appréhender le système algorithmique c’est étudier à la fois l’algorithme en lui même, les gens qui l’ont conçu et qui travaillent dessus chaque jour, et les données qui l’ont entraîné et sur lesquelles il s’appuie ensuite. Un triptyque complexe et riche, où chaque élément est interdépendant des autres. En bref, quand nous vient l’idée de pointer du doigt l’effet pervers d’un algorithme, encore faut-il s’assurer d’avoir identifié le système dans lequel il s’insère.

Ensuite, la technologie elle-même brouille les pistes. Alors qu’on pensait pouvoir imputer le biais d’un algorithme à son concepteur, on se rend compte que nombreux sont ceux conçus en machine learning, c’est à dire que souvent les ingénieurs eux-mêmes n’ont pas connaissance des choix qui ont mené au code final.

Comment prendre du recul sur un phénomène aussi complexe et immatériel ? Peut-on encore appréhender un algorithme, une IA, ou seulement les conséquences de leurs applications réelles ?

Tirer sur les ficelles idéologiques

Claire Richard ne se résigne pas face à l’inexplicabilité des algorithmes. L’effet « boîte noire » ne doit pas nous décourager à construire une réflexion critique sur la question.

Si les algorithmes sont en partie inexplicables actuellement, pas question d’en faire une fatalité. « La vraie question à se poser c’est : comment rendre un algorithme explicable ? ». Notre responsabilité serait alors d’élaborer de nouveaux critères d’éthique pour le secteur : « Nous ne pouvons pas baisser les bras, de nombreux chantiers sont à mener de front. »

Des outils qui ne sont pas neutres, mais bien marqués au fer rouge d’une certaine idéologie qui nous vient de l’autre côté de l’Atlantique. Accuser la technologie en restant aveugles à ces biais sous-jacents serait alors l’erreur qui pénalise notre réflexion. Selon la journaliste, nous y perdons notre responsabilité : « Sous l’apparente objectivité de la machine, nous déléguons des enjeux humains. »

Les récentes mises en garde de lanceurs d’alerte comme Tristan Harris nous ont effectivement révélé l’importance de ces choix technologiques — pourtant unilatéraux — et leur influence sur nos vies. L’ancien ingénieur chez Google pointait du doigt les « ficelles » du monde de la tech, qui nous manipuleraient comme des « marionnettes » sans que nous en soyons vraiment conscients. Il se risque même à la comparaison religieuse : « Nous sommes deux milliards sur Facebook, soit davantage de fidèles qu’en compte le christianisme. »

Claire Richard ne nous parle pas de religion mais bien de biais idéologique : celui du comportementalisme : « Nous savons que les usages qui découlent de nos outils technologiques sont ceux hérités d’une vision individualiste et comportementaliste de l’homme. » Dans la Silicon Valley, on pense que l’omniprésence de la technologie dans nos quotidiens n’est qu’une réponse à nos besoins inavoués, et que nous sommes toujours libres d’y souscrire ou non. Dès lors, tout ce que fait un utilisateur à travers ces outils numériques le caractérise indiscutablement. « Les plateformes réduisent les usagers à leurs traces numériques, au dépend de ce qu’ils souhaitent et de ce qu’ils disent d’eux-mêmes. » Une vision biaisée de la nature humaine, qui mérite d’être identifiée pour ce qu’elle est — une idéologie comme une autre.

Pas de ça chez moi

Plutôt que de penser les choix technologiques, il s’agirait de comprendre que nous sommes face à des choix de société. Selon Claire Richard, si nous pouvons difficilement maîtriser la façon dont ces algorithmes sont conçus, nous pouvons décider collectivement des domaines dans lesquels nous acceptons cette forme d’ingénierie humaine. Parce qu’un algorithme peut décider du placement d’une personne âgée dans un organisme de soin comme du trajet le plus optimal pour un taxi, Claire Richard prône une certaine lucidité critique vis à vis des domaines d’application de nos technologies.

La prolifération des systèmes algorithmiques nous met face à d’importants choix moraux auxquels il est pressant de trouver une réponse collective. « Ils nous obligent à trouver des réponses à des questions de société comme : « Qu’est-ce qui fait partie de la sphère publique et qu’est-ce qui y est inacceptable ? qu’est-ce qu’on veut déléguer à de la machine et qu’est-ce qui reste du domaine de l’humain ? » interroge la journaliste. Des choix qui reposent aujourd’hui entre les mains de ceux qui ont créé ces nouveaux outils en marge du système politique.

Elle aura le mot de la fin : « Au cours de mes recherches sur le sujet, j’ai compris que nous étions responsables du degré de technologisation auquel nous sommes soumis. Comme le sociologue Dominique Cardon le dit, si nous pouvons être gérés par des algorithmes, c’est que nous nous sommes rendus calculables. »