Tendances
Usine et habitat du futur : l’IA pour concevoir, optimiser et surveiller des robots
Les fabricants de robots promettent des usines autonomes gérées par l’intelligence artificielle (IA). Les algorithmes sont chargés de concevoir et d’agencer une robotique de plus en plus mobile, voire humanoïde, y compris dans le bâtiment.
L’industrie robotisée, les véhicules autonomes, mais également le bâtiment sont devenus une cible privilégiée de l’IA. Un exemple édifiant : la création de cartes à haute définition pour le parcours de conduite ou le guidage de véhicules autonomes ou de robots.
Valorisé en bourse, un moment, jusqu’à 3 000 milliards de dollars (presque autant que Microsoft ou Apple !), Nvidia, champion des processeurs graphiques et expert en IA (apprentissage machine profond ou ‘deep learning’) en a fait sa spécialité. « Foundation pose » est un exemple du savoir-faire de la firme californienne : cet algorithme permet à un robot d’ajuster la dépose d’objets, connus ou nouveaux, sans intervention humaine. Il suffit de fournir à l’IA des images de référence, a priori en 3D, pouvant provenir d’une caméra, y compris dans des environnements « complexes » (encombrés d’obstacles visuels, avec peu d’éclairage, etc.). Le robot identifie et comprend la forme et l’encombrement des objets à manipuler. Ce même algorithme peut être utilisé dans des applications de réalité augmentée, par exemple, pour superposer des visuels.
Jumeaux numériques et robots autonomes
En parallèle, les jumeaux numériques, qui permettent de reproduire le fonctionnement virtuel de machines, sont là en force. Ils sont désormais applicables au fonctionnement global d’usines ou d’ateliers entièrement gérés par l’IA.
La première phase consiste par numériser les process. «Il s’agit de copier des usines physiques et de les recréer sur une plateforme de collaboration graphique 3D en temps réel », explique Nvidia. Ensuite, on s’attache à automatiser toute la chaîne, en concevant les robots qui seront capables de remplacer la quasi-totalité des tâches humaines : depuis l’acheminement de palettes, leur déchargement, jusqu’à la saisie des pièces, l’analyse de leur forme pour ensuite les transmettre à un robot ‘usineur’ ou assembleur ou soudeur. Et ceci jusqu’à la finition (peinture, polissage, marquage personnalisé…), puis le contrôle qualité, le conditionnement et l’expédition.
Ces technologies préparent un avenir où les usines autonomes seront gérées par des robots dotés de l’IA ; ils pourront fabriquer eux-mêmes des robots en étudiant les « inefficacités » des usines en place.
« Langage de vision » et « modèle de diffusion »
La plupart de ces évolutions reposent sur la maîtrise des « langages de vision » : il faut concevoir des modèles d’IA générative capables d’analyser des vidéos, des images indépendantes ou combinées et du texte. Le résultat s’appelle VILA (virtual language architecture), une famille de modèles de langage visuel en ‘open source’ qui, selon ses concepteurs, surpasse les réseaux de neurones précédents.
Ces algorithmes permettent de personnaliser la production de « modèles de diffusion » en quelques secondes : à l'aide d'images de référence et via un court descriptif textuel, le système apprend à déshabiller (ou ‘denoise’, « ôter le bruit ») des images surchargées pour parvenir à une image simple, épurée.
Dans les usines ou les entrepôts, les installations seront ainsi rendues plus efficaces et plus sécurisées. Les robots vont y interagir comme des « assistants intelligents » assurant des tâches répétitives, très précises, sans mettre en danger les personnels. En pratique, par exemple, le manipulateur Isaac de Nvidia conçoit virtuellement des bras robotiques qui sont ensuite installés et testés. Toute la chaîne robotique peut ainsi être optimisée, ou même « inspirée de modèles humanoïdes ».
Parmi les industriels qui ont testé ces plateformes figure Foxconn, géant taïwanais de l’électronique (170 usines dans le monde). « Pour concevoir une chaîne d'assemblage optimale, les ingénieurs doivent trouver le meilleur emplacement pour des dizaines de bras robotiques, chacun pesant des centaines de kilos. Et pour étudier l'ensemble de la chaîne, il faut des milliers de capteurs et de caméras vidéo en réseau », explique un responsable. L’IA permet ici de tout déterminer : comment acheminer un composant par la meilleure route, comment le placer avec précision devant un robot assembleur, comment en reconnaître la forme et l’identifier…
Dans le bâtiment aussi…
D’autres applications visent le bâtiment, la construction. A noter, par exemple, l’initiative de la direction Habitat de l’ONU (qui déplore 2,8 milliards de mal-logés dans le monde). Elle a défini des solutions d’architecture entièrement automatisée (AuAr, automated architecture) : la conception est faite par algorithmes et la fabrication modulaire des logements est automatisée. C’est une boite à outils qui permet d’élaborer des « micro-usines » aptes à fabriquer le cœur et l’enveloppe d’une éco-habitation en bois. Tout le reste de l’aménagement est géré par logiciel. Ce n’est pas une utopie : le déploiement de la solution, contractualisée avec des constructeurs du bâtiment, vient de démarrer en Belgique et au Royaume-Uni.
Pierre MANGIN