Le système de verrouillage de cible de Terminator pourrait bientôt voir le jour. Du moins si l’on en croit les travaux d’une équipe de chercheurs en vision artificielle issu de l’ETH Zurich et de l’Université d’Ulster qui ont combiné puissance de calcul et intelligence artificielle.
Robotique et vision artificielle
Le gouvernement australien, lui-même en proie avec les redoutables prédateurs que sont les milliers de chats qui prolifèrent sur l’île, et qui développe des solutions modernes pour y mettre fin, pourrait tirer grand profit de ces travaux de recherche.
Comment apprendre à une machine à chasser des proies ? Autrement dit, comment apprendre à une machine à verrouiller une cible et à ne pas la lâcher ? C’est le défi qu’a voulu relever une équipe de chercheurs de l’ETH de Zurich, que l’on connaît déjà pour son robot Scubo. En combinant mécanique et réseaux de neurones artificiels, les scientifiques ont démontré le potentiel de leur invention dans des champs très divers.
Cette expérimentation peu banale s’inscrit dans le projet Visualise, lancé en 2013 par l’Union Européenne et financé par la Commission dans le cadre du volet Systèmes Neuro-Bio-Inspirés (NBIS) du programme FET, pour Future & Emerging Technologies. Le but ? Permettre aux machines de concurrencer les facultés de vision extraordinaires dont font preuve les êtres vivants. D’où le nom complet qui se cache derrière ce nom de projet déjà significatif : Visual Modelling using Ganglion Cells. Il s’agit en somme de reproduire le principe de fonctionnement de la rétine animale de manière artificielle. Plusieurs équipes travaillent sur ce projet européen, emmenées par Martin McGinnity (Université d’Ulster), Stefano Panzeri (University de Glasgow), Tobi Delbruck (University de Zurich) et Tim Gollisch (Centre Médical de l’Université Göttingen).
Le projet a abouti en mars dernier. Récemment, c’est un consortium de chercheurs d’Ulster et de Zurich qui a proposé des premières avancées notables.
Les réseaux convolutifs pour la vision artificielle
Dans un article universitaire intitulé Steering a Predator Robot using a Mixed Frame/Event-Driven Convolutional Neural Network, huit chercheurs de l’institut de Neuro-informatique de l’ETH Zurich et du Centre de Recherche en Systèmes Intelligents d’Ulster, en Irlande du Nord, ont dévoilé le fonctionnement de leur réseau de neurone convolutif (CNN) appliqué dans un contexte prédateur/proie. Cette technique de réseau convolutif a été popularisée par le chercheur français Yann LeCun en 2010, avant qu’il prennent la tête du laboratoire d’intelligence artificielle de Facebook. Récemment elle a permis à des japonais de créer un programme de recolorisation d’images parfaitement époustouflant, mais aussi de créer le nouvel algorithme de lecture textuelle du réseau social numéro un.
Dans le cas présent, le CNN a été entraîné “grâce à des données collectées depuis un Capteur de Pixels Dynamique et Actif (DAVIS) monté sur un robot Summit XL” qui faisait office de prédateur, explique d’entrée de jeu les chercheurs. Un prédateur qui pourchasse une proie. Le réseau convolutif a été nourri d’images traditionnelles mais aussi de données capturées par son capteur DAVIS. Le CNN est donc alimenté au même rythme qu’avance le robot.
Live predator – pray catching scenario with artificial bio inspired retina using DVS @FET_EU project @VisualiseEU pic.twitter.com/kxl0iVEdN0
— Aymard de Touzalin (@aymard_tw) May 11, 2016
Après avoir labellisé une certaine quantité de data, le réseau a été directement importé sur le robot qui reçoit des indications d’orientations en temps réel. De cette façon, les scientifiques ont atteint un taux d’exactitude situé entre 87 et 92%, en termes de verrouillage de la proie. D’après l’équipe, l’intérêt de leurs travaux est qu’ils montrent qu’il est encore possible de concilier technologies de deep learning et informatique statistiques à base de données.
Aussi, en combinant un capteur DAVIS, un capteur d’images (DVS) et des techniques très basiques de réseaux de neurones artificiels, ils ont été capables d’atteindre des résultats plus intéressants malgré la toute petite dose de deep learning intégrée au programme. L’objectif étant de rendre les robots plus habiles et plus adaptables à des environnements nouveaux. Évidemment, le but n’est pas de recréer des prédateurs sanguinaires mais bien plutôt d’adapter cette réalisation à d’autres types de machines, plus utiles, comme l’explique Tobi Delbruck à Motherboard : “La filature est l’application évidente, mais on pourrait facilement imaginer des valises ou des caddies autonomes qui vous suivrait à la trace. Ainsi, il s’agirait moins d’une relation entre un prédateur et sa proie que d’un parent avec son enfant“.
Pour arriver à un tel résultat de vision artificielle, Tobi Delbruck et son équipe ont conçu une rétine en silicone capable de traiter un nombre beaucoup plus important de données qu’une caméra standard.
Davantage de ressources sur le projet Visualise, ici.
Cet article Ce robot a été entraîné à chasser des proies grâce à une rétine bio-inspirée est apparu en premier sur Humanoides.fr.