Clay AIR, un simple geste en plus

Clay AIR, startup bordelaise spécialisée dans la reconnaissance gestuelle, vient de s’associer avec le géant américain Qualcomm pour intégrer sa solution à leurs produits. Nous avons discuté du développement du produit et des ambitions de la startup avec Thomas Amilien, son CEO.

 

Avec votre cofondateur Jean-Baptiste Guignard, c’est une passion commune pour la musique qui vous a conduit à innover dans la reconnaissance gestuelle…

À la base de ce projet, avec Jean-Baptiste, nous avions mis au point une application qui permettait d’interagir avec le son, une sorte de DJ où l’on pouvait contrôler le son dans les airs. Et comme un chef d’orchestre, manipuler la musique et ses morceaux préférés avec les mains : arrêter le temps, changer le beat, etc. Il y avait déjà la volonté d’interagir avec la matière sonore. C’est ce qui nous a motivés au tout début. Mais pour que ce soit scalable à très grande échelle, il nous fallait un outil plus performant que ce qui existait à l’époque, c’est à dire quelque chose qui soit à la fois miniature, mais aussi qu’on puisse toujours avoir sur soi. Le meilleur moyen de transmettre cette vision, c’était de le faire par un smartphone, une caméra et un processeur. On a commencé à développer les algorithmes de reconnaissance gestuelle et de tracking à partir de simples caméras, ce qui n’était pas vraiment la stratégie des autres acteurs de la gesture recognition vers 2010, qui généralement travaillaient avec des systèmes très complexes et avec un hardware dédié. Nous, l’idée était vraiment de dire qu’il fallait simplifier le système au maximum. Le premier désir d’interaction gestuelle était né et nous avons par la suite développé un certain nombre de produits qui permettent de faire cela.

 

Pouvez-vous nous expliquer le principe de fonctionnement de la technologie développée par Clay AIR ?

Il faut qu’il ait à minima une caméra et que cette caméra soit reliée à un processeur. Nous travaillons nous avec des systèmes autonomes stand alone. C’est généralement équivalent à ce qu’on peut avoir dans un smartphone, en termes de calculs et de puissance. Grâce à la partie computing et la partie caméra, nous sommes capables de faire du tracking de vos gestes. Nous utilisons pour cela différents algorithmes, principalement dans la computer vision et dans le machine learning. C’est l’une de nos particularités. Notre solution est efficiente, avec une consommation optimale très faible et une robustesse au-dessus de ce que peuvent proposer nos compétiteurs. Le pari, c’était à chaque fois de développer les meilleurs algorithmes, en utilisant différentes technologies pour pouvoir fournir un produit qui réponde parfaitement aux attentes du marché.

 

Une décennie de recherche… Sur un secteur aussi concurrentiel, comment faire en sorte de ne pas se faire devancer, selon vous ?

Ce sont des choix qui ont été pris. Le nôtre était d’être hardware — agnostique. C’est pour cela que ça ne s’est pas fait directement en 2008, les puissances de calculs des appareils et les algorithmes n’étant pas suffisants pour avoir une robustesse acceptable. Donc nous avons dû travailler un certain nombre d’années avant d’arriver à un niveau qui nous a permis d’imaginer un produit qui soit plus performant et qui soit intégré par les industriels. La notion de product market fit, au début c’est évidemment quelque chose qui est plus de l’ordre de la vision, c’est-à-dire qu’on sent vers où aller, qu’on se projette parce qu’on sent que le marché va aller dans cette direction. Et au fur et à mesure, on affine et on teste avec les premiers clients, avec une stratégie sur un segment donné, et à la fin on obtient, comme c’est le cas avec Clay AIR aujourd’hui, un produit qui répond complètement aux attentes de nos clients.

 


Qu’est-ce qui fait qu’elle intéresse autant ? Son adaptabilité ?

Nos clients souhaitent effectivement aujourd’hui une flexibilité. Ils ont des systèmes existants avec des caméras, et veulent y intégrer plusieurs interfaces utilisateurs : reconnaissance gestuelle, mais aussi reconnaissance faciale, mouvements dans l’espace, etc. On doit donc s’adapter aux caméras existantes, être flexible et pouvoir s’adapter à toute une gamme de produits. Ça permet tout simplement de partager des roadmaps, et de se dire que même dans trois ans, on sera toujours dans le futur produit du client qu’on fournit à l’heure actuelle. Et ça c’est très rassurant pour nous, mais également pour les grands groupes et industriels du secteur.

 


Pouvez-vous me parler du partenariat avec Qualcomm ? Qu’est-ce que cela change pour vous ?

C’est bien entendu un game changer pour nous, mais aussi pour l’industrie. On apporte un élément qui était vraiment attendu, la gesture recognition. Leap Motion avait essayé de le faire par le passé, mais cela n’avait pas marché, eu égard à leur grande inflexibilité, parce que leur système est coûteux financièrement et en ressources. Nous, on a solutionné ça avec nos algorithmes. Pour nous, être partenaire avec un géant comme Qualcomm, qui a à peu près les trois quarts du marché du standard en AR/VR, du reference design — c’est-à-dire tout l’intérieur du casque, du chipset à la caméra — c’est très intéressant. Qualcomm fournit cela à toute la planète. C’est une opportunité incroyable. Après nous ne travaillons pas qu’avec eux, nous avons notre indépendance.

 


Quelles sont vos perspectives dans un futur proche ?

L’objectif pour nous, c’est de devenir leader sur le marché de l’AR/VR pour la partie Gesture Recognition. Le partenariat avec Qualcomm nous donne la possibilité d’y arriver, mais nous sommes aussi en parallèle en train de travailler directement avec les différents acteurs pour leur proposer des solutions plus customisées. À côté de cela, nous avons d’autres opportunités, dans l’IoT ou dans l’automotive.