Avec l’avènement de l’Usine 4.0, les automates devraient occuper une place importante dans la production et la… prise de décision. Demain, des voitures autonomes pourraient circuler en ville. Au-delà des contraintes techniques et sociales, l’intégration de la robotique impose que l’on détermine la responsabilité de ces machines autonomes.
Qui est capable aujourd’hui de répondre précisément à cette question : si un robot commet une erreur, qui est responsable ? Son programmeur ? Son fabricant ? Son propriétaire ? Chacun des trois peut avoir une part de responsabilité ! Mais elles ne sont pas encore précises et écrites dans des textes de loi.
Il y a urgence, car les ventes de robots sont en constante progression, à la faveur notamment de l’activité des constructeurs automobiles, qui développe de voitures intuitives sans chauffeur, et de l’industrie électrique/électronique. En 2014, il y avait déjà près de 1,5 million de robots industriels en activité dans le monde.
Pour l’instant, les juristes et les experts s’appuient sur la norme ISO 8373:2012 qui définit le robot comme « un mécanisme programmable actionné sur au moins deux axes avec un degré d’autonomie, se déplaçant dans son environnement, pour exécuter les tâches prévues ».
Selon cette définition, il s’agit d’une machine dotée d’une certaine autonomie. En fonction des informations recueillies auprès de multiples capteurs, elle peut donc prendre des initiatives. Mais cette définition n’est pas suffisante pour déterminer un cadre de confiance permettant à l’homme d’utiliser le robot de façon sécurisée. D’où la nécessité de définir ces machines comme des « personnes électroniques ». Proche du statut juridique d’une personne morale, il leur permettrait de posséder des droits, mais d’avoir aussi des obligations.
Quid de la responsabilité civile des robots
Ces questions juridiques liées au développement de la robotique et de l’intelligence artificielle sont notamment étudiées par un groupe de travail créé en janvier 2015 par la Commission des affaires juridiques (JURI). Pour ce groupe, qui a remis en juin dernier son projet de rapport, « la responsabilité civile des robots est une question cruciale à laquelle il importe de répondre au niveau de l’Union ». Il s’agit de « garantir le même niveau de transparence, de cohérence et de sécurité juridique dans toute l’Union » ; et ce, « dans l’intérêt tant des consommateurs que des entreprises ».
« Le développement de caractéristiques cognitives – telle la capacité d’apprendre de l’expérience et de prendre des décisions indépendantes – les a rendus de plus en plus similaires à des agents qui interagissent avec leur environnement et sont capables de le modifier significativement. Il faut de nouvelles règles qui se concentrent sur comment une machine peut être tenue pour – partiellement ou entièrement – responsable de ses actes ou oublis », lit-on dans le rapport.
Il y a encore des « discussions tendues », notamment avec les constructeurs automobiles qui ne veulent pas assumer la responsabilité, par exemple, pour les automobiles intuitives sans chauffeur, fait savoir Mady Delvaux (l’eurodéputée luxembourgeoise S&D qui a présenté ce projet de rapport). Ainsi, le rapport suggère-t-il la possibilité d’une obligation d’assurance des robots par les producteurs, semblable au fonctionnement de l’assurance des voitures.
Le domaine de la protection de la vie privée et des données personnelles constitue « un des sujets les plus difficiles », déclare également Mady Delvaux puisque le robot a besoin d’un accès à des données pour fonctionner. Ainsi, des applications vont communiquer ensemble et avec des bases de données sans intervention humaine, et même parfois sans qu’aucun être humain ne soit au courant. Mady Delvaux signale que le groupe de travail a retenu que les principes de précaution, de nécessité et de proportionnalité soient pris en compte dans l’accès aux données. « Le robot ne doit prendre que ce dont il a besoin et les conserver pour une durée qui ne soit pas illimitée », dit-elle.
Autre problématique : la sécurité physique, dès lors que les robots interagissent avec les hommes. « Un robot, par définition, est dangereux », dit l’eurodéputée. Il est lourd et puissant, et peut causer des dommages par exemple en cas de programmation défaillante ou de piratage.
Il y a enfin les questions de droits d’auteur puisque ces machines seront en mesure de créer elles-mêmes.
Pour répondre à toutes ces problématiques, des juristes estiment qu’il faut créer un régime spécial de responsabilité et une responsabilité de l’homme envers les robots.
Philippe Richard
Bonjour,
Je remarque encore une fois l’amalgame fait entre les robots industriels qui sont limités et qui ne prennent pas « d’initiatives » avec les robots au sens large qui eux sont destinés à reproduire l’être humain.
Les robots industriels type 6 axes de marques ABB, FANUC ou KUKAK (entre autre) ne font que ce qui est programmé dans leur mémoire même si pour se donner de grands airs certains parlent d’apprentissage de point au lieu de mémorisation de point. Ils n’ont aucune intelligence artificielle et ne sortent pas du cadre de leur programmation. Ces robots ne posent pas de problème juridique mais seulement des problèmes d’emploi.
Pour ce qui est des robots intelligents type robot humanoïde ou des intelligences artificielles c’est une autre histoire mais ils ne sont pas forcément lourd et puissant.
Salutations
Réagissez à cet article
Vous avez déjà un compte ? Connectez-vous et retrouvez plus tard tous vos commentaires dans votre espace personnel.
Inscrivez-vous !
Vous n'avez pas encore de compte ?
CRÉER UN COMPTE