Va-t-on vers un « super » état de l’IA ?

Credit : Burst

Alors que le premier forum international sur la gouvernance de l’intelligence artificielle vient de se tenir en Suisse, la question d’une éthique globale dans l’IA est plus que jamais d’actualité. Va-t-on assister à la naissance d’un gouvernement mondial de l’intelligence artificielle, au-dessus du pouvoir des États ?

On l’accuse régulièrement de vouloir nous voler nos jobs, d’être dangereuse ou opaque. L’émergence de l’intelligence artificielle suscite fascination, fantasmes et inquiétudes. La multiplication de ses domaines d’application soulève un problème de taille : comment bien l’utiliser ? Entreprises, gouvernements, grand public : comment faire concorder les valeurs de chacune des parties prenantes ? Pour tenter de répondre à cette question, une cinquantaine de scientifiques et d’experts se sont réunis le 23 mars près de Genève en Suisse, lors d’une table ronde organisée par l’association AI Transparency Institute.

Pour Eva Thelisson, juriste et fondatrice de l’association organisatrice, citée par l’Usine Nouvelle (article payant), « il existe de nombreuses discussions et plans d’action en Chine, aux États-Unis, au niveau européen et dans plusieurs pays d’Europe. Mais d’une culture à l’autre, la définition et la vision de l’intelligence artificielle peuvent changer. L’objectif avec cette réunion est de confronter les points de vue et de mieux comprendre la culture de chacun. »

L’idée d’une gouvernance mondiale n’est pas nouvelle, mais prend de l’ampleur. De nombreuses discussions et tables rondes ont lieu autour du monde. La commission sur l’éthique des systèmes autonomes et intelligents de l’IEEE (l’Institut des ingénieurs électriciens et électroniciens) s’est penchée sur la question et devrait publier très prochainement ses conclusions et recommandations. On attend également dans les semaines à venir les préconisations de l’Unesco et d’experts de l’OCDE à ce sujet.

Derrière les algorithmes, des humains

Pour Nicolas Miailhe, cofondateur et président du think tank « The Future of Society » et de « The AI Initiative », parler d’intelligence artificielle est « obsolète ». « Il s’agit beaucoup plus d’intelligence collective que d’intelligence artificielle, explique-t-il à Take Part Media. Des humains, comme vous et moi, paramètrent, éduquent, déploient, vendent, maintiennent, les algorithmes, dit d’intelligence artificielle. Ces algorithmes sont en fait très bêtes. Ils sont intelligents parce que nous, humains, les abreuvons avec des flux et des stocks de données très importants que nous qualifions, que nous catégorisons et qui font qu’à terme ces algorithmes sont capables de discriminer avec une très grande précision, sur de grands volumes de données, un chat d’un chien ».

Nouvelles frontières

Alors, pour repenser les implications sociétales et géopolitiques de l’IA, Nicolas Miailhe a fondé « The IA Initiative » en 2015. Son but ? Favoriser l’émergence d’un cadre de gouvernance mondiale et une meilleure coordination internationale. « Nous sommes convaincus que la révolution de l’IA est globale et qu’elle appelle donc une meilleure coordination internationale mais aussi transnationale, car le monopole des États est remis en cause par la puissance des géants du numérique », explique-t-il à The Conversation.

Les intérêts des pays sont-ils si différents, qu’il s’agisse de la Chine, des États-Unis ou de l’Europe ? Pour Nicolas Miailhe, définitivement. Alors que la France cherche à « réguler » et donc contraindre, les États-Unis expriment un esprit de conquête, porté par la Silicon Valley. Côté Chinois, le développement des technologies liées à l’IA a pour conséquence de puissants transferts de richesses et de pouvoir. Les intérêts nationaux se heurtent à un moment ou un autre.

Un chemin semé d’obstacles  

Face aux intérêts contradictoires des états, faire émerger une gouvernance mondiale soulève de nombreuses problématiques. Déjà en 2018, Emmanuel Macron avait déjà proposé un « Giec de l’IA ». Ce groupe d’experts intergouvernemental sur l’évolution du climat, ouvert à tous les pays de l’ONU, identifie les possibilités de limiter l’ampleur et la gravité du réchauffement. Mais avant de pouvoir proposer une entité similaire pour l’IA, une définition des valeurs éthiques et communes (est-ce la définition ou les valeurs) entre en jeu. Dans un entretien accordé au journal Le Monde en octobre 2018, Raja Chatila, directeur de l’Institut des systèmes intelligents et de robotique (ISIR) de la Sorbonne et membre de l’IEEE, plaide pour un « code éthique ». Selon le l’expert, « tout ce qui peut être fait n’est pas bon ». « Seule la protection des données personnelles fait aujourd’hui l’objet d’une régulation. Or, dans la communauté des chercheurs, certains n’ont pas conscience que leurs travaux peuvent être dangereux ». Et côté entreprise, on voit d’un mauvais œil la demande de transparence, au risque de rompre le secret industriel.

Alors que les scientifiques et ingénieurs qui développent les technologies ne peuvent eux-mêmes distinguer le bon du mauvais, que les entreprises restent frileuses à la transparence, et que les états peinent à collaborer, il reste encore beaucoup de chemin à parcourir avant d’arriver à une entente mondiale sur l’IA.