1. Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger.
2. Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la Première loi.
3. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième loi.
Les trois lois de la robotique, inventées par l’écrivain Isaac Asimov semblent être de plus en plus d’actualité. Elon Musk finance des groupes de recherche afin de développer des intelligences artificielles non nuisibles à l’homme, Bill Gates et Steven Hawkins s’inquiètent des progrès de la robotique et un accident impliquant un bras mécanique dans une usine en Allemagne a conduit au décès d’un ouvrier.
L’accident a eu lieu dans une usine Volkswagen en Allemagne. Un technicien, dont l’entreprise n’a pas voulu révéler le nom, était en train d’installer un bras robotique au sein de sa cage. Le technicien aurait été agrippé par le robot et aurait été écrasé contre une plaque de métal. Deux choses sont à souligner à propos de cet accident. Tout d’abord, il ne s’agissait pas d’un modèle de robots nouvelle génération, qui eux travaillent côte à côte avec les humains sur les chaines de montage, mais d’un ancien modèle, qui se trouvent à l’écart de la chaine de montage dans des cages de sécurité pour empêcher tout contact avec un ouvrier humain. Ensuite, l’accident serait dû à une erreur humaine et non à un dysfonctionnement du robot.
Contrairement à ce que beaucoup d’articles indiquent, il ne s’agit pas d’un robot qui aurait tué un ouvrier. Il s’agit ici d’un accident mortel, impliquant un robot. La différence, qui peut sembler infime, est de taille. On ne peut considérer que le robot ait tué l’ouvrier pour la simple et bonne raison qu’un robot n’a pas d’intentions, qu’elles soient bonnes ou mauvaises. Or, en droit, la volonté de nuire est vitale. Il est en effet nécessaire de définir si l’homicide est volontaire ou non. Dans le cas de cet accident, nous avons de plus un protagoniste incapable d’autre réflexion que celles pour lesquelles il a été programmé. S’il est évident qu’un robot a le potentiel de nuire, il est tout aussi évident qu’il ne peut en avoir la volonté.
Plusieurs personnes rappellent qu’il s’agit d’une erreur humaine qui a conduit à la mort de l’employé. Il est toutefois important de souligner que quelle que soit la conclusion de l’enquête, ce décès ne peut être dû qu’à une erreur humaine. En effet, s’il s’avère que l’employé avait observé les règles de sécurité avant de pénétrer dans la cage et que l’accident est dû à un dysfonctionnement du robot, celui-ci relève de la conception, de la programmation ou de la production du robot. Il est impossible de tenir le robot pour responsable du crime, simplement puisqu’un robot ne possède pas les capacités cognitives nécessaires pour être tenu responsable. Cela reviendrait à accuser une arme à feu lors d’un procès pour un décès survenu lors d’une fusillade. De même qu’un fusil ne peut tuer une personne que si un humain l’actionne, un robot ne peut tuer un humain que si une erreur humaine a été commise quelque part.
Cet accident tragique nous invite à réfléchir à plusieurs choses. Tout d’abord, qui doit-on tenir pour responsable dans le décès de ce jeune homme ? S’agit-il de l’employé, du concepteur du robot, de son programmeur, de son producteur ou de son intégrateur ? De même, il faut réfléchir non pas à la question de créer des robots avec une morale mais de créer moralement des robots, c’est-à-dire qu’un concepteur ne doit pas essayer d’inculquer des valeurs à un robot, mais de créer un robot en tenant compte de ses propres valeurs. Le danger est de tenter de faire du robot un bouc émissaire qui pourrait mener à un abandon, même temporaire, des recherches en robotique. Tout cela parce que certains éléments de langage ne sont pas à même d’expliquer clairement ce genre de situations.