![Des-robots-qui-apprennent-à-distinguer-le-bien-du-mal Des-robots-qui-apprennent-à-distinguer-le-bien-du-mal]()
La semaine dernière, a eu lieu une concertation internationale sur l'acceptation ou le bannissement des robots militaires tueurs, ces plateformes armées autonomes ayant la capacité d'identifier et d'attaquer des cibles humaines sans nécessiter l'intervention d'un humain.
L'idée qu'un robot soit c
apable de cibler et tuer une personne sans avoir à recevoir d'ordre de qui que ce soit, soulève un certain nombre de questions éthiques et philosophiques. La plupart des experts ont des avis tranchés sur la question - soit nous nous débarrassons des machines meurtrières maintenant, soit nous permettons leur développement.
Mais un organisme américain pense différemment : il s'agit de l'Office of Naval Research (ONR), le bureau de recherche navale du Département de la Marine des États-Unis. Il pense que la solution serait de leur apprendre à reconnaître ce qu'il faut tuer et quand. Leur apprendre en quelques sortes ce qu'est la
morale, cet ensemble de règles ou préceptes relatifs à comment les humains se conduisent.
![Edwin-le-robot-qui-a-des-sentiments Edwin-le-robot-qui-a-des-sentiments]()
Comment enseigner à une machine un concept intrinsèquement lié à l'humain ? Comment lui apprendre le bien du mal ? Sûrement pas avec quelques lignes de code lui inculquant les
Trois Lois de la Robotique d'Asimov... Il lui en faudra bien plus !
L'ONR à la recherche d'une conscience morale pour les robots
L'ONR va attribuer 7,5 millions de dollars de subventions à cinq universités américaines : Tufts, Brown, Yale, Georgetown et le Rensselaer Polytechnic Institute. Les chercheurs devront réussir à donner aux robots autonomes la capacité de discerner le bien du mal. Pour cela les robots devront savoir examiner les conséquences de leurs actes.
Même si les systèmes autonomes d'aujourd'hui sont « bêtes » par rapport à un humain, ils sont en train de progresser plus rapidement qu'auparavant pour intégrer plus d'automatisation, explique Paul Bello au site DefenseOne, directeur des sciences cognitives à l'ONR. Par exemple, les voitures autonomes de Google sont autorisées et déjà en circulation dans certains Etats. En tant que chercheurs, nous devons essayer de comprendre les implications éthiques et juridiques. Nous ne souhaitons pas être pris par surprise étant donné qu'il s'agit du domaine militaire où des vies sont en jeu.
Actuellement, l'
armée américaine a pour interdiction d'utiliser des robots tueurs, et même les drones et systèmes autonomes en service, sont autorisés à shooter qu'après l'accord d'un opérateur humain.
Même si des systèmes ne sont pas armés, ils pourraient être amenés à prendre des décisions morales dans certaines situations, continue Bello. Un robot de sauvetage, par exemple, pourrait être forcé de décider qui doit être évacué en premier, tandis qu'un robot médical pourrait avoir à choisir entre deux patients. Sans la faculté de raisonnement moral, on ne pourra pas demander aux machines autonomes de prendre des décisions par elles-mêmes.
Peut-on coder le sens de la morale ?
Peut-on programmer la morale ? Certaines équipes essayent de
donner des sentiments aux robots mais la réalité est toute autre. Bien que certains aient quelques notions basiques, les
robots sont encore loin d'arriver à sentir et penser par eux-mêmes. Et encore plus loin de posséder la
capacité à comprendre l'éthique.
Selon le président du groupe
Yale Technology And Ethics Study, Wendell Wallach, la première étape consiste à aborder cette problématique en fixant un cadre moral.
Il y a la morale opérationnelle, la morale fonctionnelle et la faculté morale totale, explique-t-il. La moralité opérationnelle est celle qui peut être programmée par un opérateur à l'avance, en prévoyant toutes les situations que le robot pourra rencontrer. La moralité fonctionnelle commence à partir du moment où le robot sait se comporter de la bonne façon dans des situations que l'opérateur n'aurait pas programmées à l'avance.
Réussir à coder la morale ne va pas être une tâche aisée. Cela nécessite d'abord une bonne compréhension de ce qui se passe autour de nous et de le décomposer. Cela signifie de pouvoir décomposer des sentiments et comportements comme la souffrance, la douleur, l'
empathie... Une fois que que ces robots auront acquis cette connaissance, ils seront à même de pouvoir prendre des décisions de manière éthique. Peut-être même que les robots arriveront un jour à faire des choix plus justes et plus droits que les hommes qui les auront programmés.