Quand l’IA se frotte à la physique

Source : Burst

Si les outils informatiques participent depuis plusieurs dizaines d’années au travail quotidien des scientifiques et les ingénieurs, les progrès en matière de traitement de l’information, jusqu’à nos intelligences artificielles, ouvrent de nouvelles voies à la recherche, fondamentale et appliquée. Nos scientifiques seront-ils rattrapés par leurs propres outils ?

Dès les années soixante apparaissent les premiers outils d’ingénierie assistée par ordinateur et manière concomitante les supercalculateurs d’IBM font leur entrée dans le monde de la recherche civile et militaire. Aujourd’hui, nos IA sont capables de traiter des masses de données inimaginables, et de proposer des solutions impensées à partir d’un lot de contraintes définies par le scientifique.

Dessine-moi un Airbus

Quelle est l’architecture la plus optimale d’une cabine d’Airbus ? Si un ingénieur devait répondre à cette question, il étudierait une poignée de possibilités en s’inspirant de ce qui existe déjà. Il en résulterait un produit limité par les connaissances existantes et les biais humains. Des limitations qui appartiennent déjà au passé. Aujourd’hui, les outils de conception générative — basés sur le machine learning — raisonnent à partir d’objectifs de conception, de contraintes et de conditions (matériaux, poids, forces, coûts), et s’émancipent du cadre de la pensée humaine. L’intelligence artificielle teste une multiplicité de possibles et génère des millions de produits différents. Les ingénieurs disposent alors d’un panel exhaustif et novateur de scénarios qu’ils n’auraient jamais pu imaginer sans l’aide de la machine. Etonnament ou non, les propositions issues de ces processus de conception générative disposent souvent d’apparences organiques, à l’image de ce drone aux faux airs d’écureuil volant. La nature aurait-elle encore un coup d’avance ?

Ted Talk, Maurice Conti : The Incredible inventions of Intuitive AI

Manipuler virtuellement les divers paramètres physiques que l’on souhaite appliquer, en moduler les contraintes, c’est aussi s’affranchir des frais de l’expérience — et donc réduire les coûts de R&D. Un progrès aux multiples applications industrielles, dont l’une est incarnée par Dess-IA, qui propose l’analyse de toutes les combinaisons possibles d’un système mécanique grâce à l’intelligence artificielle.

Albert AI-stein

Il y a tout juste un an, les chercheurs Christopher Shallue — ingénieur chez Google AI, et Andrew Vanderburg — Université du Texas, ont découvert deux petites exoplanètes, Kepler-90i et Kepler-80g, par l’analyse des données du télescope spatial Kepler. Ils ont utilisé les algorithmes de machine learning de Google pour analyser les minuscules variations de luminosité capturées lorsqu’une planète passe devant son étoile, et ont fait la découverte de ces exoplanètes dans des systèmes pourtant déjà connus. Dans le communiqué officiel de la NASA, Christopher Shallue raconte : « Le machine learning brille dans des situations où il y a tellement de données que les humains ne peuvent les traiter eux-mêmes. »

Le mois dernier, c’est le département de physique du MIT qui a annoncé la conception d’un « physicien artificiellement intelligent ». Dirigé par les chercheurs Tailin Wu et Max Tegmark, le rapport annonce que ce physicien d’un nouveau genre serait capable de raisonner à partir d’une multiplicité de théories formant sa base de connaissances, et de tirer de nouvelles conclusions à partir d’une grande variété d’expériences. Les auteurs expliquent que les précédentes tentatives étaient justement incapables d’interpréter des données issues d’environnements trop hétérogènes, ce que résout cet IA physicien en empruntant à la discipline l’idée même de théorie. Au lieu de se cantonner à un seul modèle qui devrait traiter toutes les informations — le paradigme en vigueur dans le milieu du machine learning, les chercheurs préconisent l’accumulation de théories partielles, organisées entre elles.

La physique au bout du clavier

Dès 1981, le scientifique Richard Feynman rêvait de simuler les phénomènes physiques à l’aide de l’informatique. S’il pointait déjà du doigt l’apparente friction entre les lois quantiques et la logique des algorithmes, le problème évolue au rythme des progrès de l’ordinateur quantique. Nous pouvons aujourd’hui nous surprendre au même fantasme que Feynman : l’intelligence artificielle comme lampe de génie, capable de défaire les plus grands défis scientifiques et de simuler une dizaine d’années d’ingénierie en quelques minutes…

Grâce à ses performances toujours plus impressionnantes, l’algorithmique est aujourd’hui indispensable aux chercheurs et aux ingénieurs. La R&D s’en trouve moins coûteuse, moins chronophage et plus innovante. Cette transformation sera t-elle synonyme d’une accélération incessante des développement technologiques ou, par les multiplicité des choix qu’elles propose, autorisera t-elle les techniciens à poser un regard critique sur l’impact des innovations auxquelles ils donnent vie ?