Christof Heyns, Rapporteur spécial de l’ONU sur les exécutions extrajudiciaires, sommaires et arbitraires, présentera son rapport sur les robots autonomes munis d’armes létales le 29 mai, lors de la 2e session du Conseil des droits de l’homme des Nations Unies à Genève.
Il recommandera aux gouvernements d’instaurer des moratoires nationaux sur le développement de ces robots et demandera l’établissement d’un groupe de haut niveau pour l’élaboration d’un traité international.
Pour appuyer la sortie de ce rapport, Human Rights Watch a lancé fin avril une campagne mondiale pour l’interdiction de ces « robots tueurs ».
« Le recours à des robots tueurs transgresserait toute frontière morale et juridique, et devrait être rejeté comme étant inacceptable pour la conscience publique.» affirme Steve Goose, directeur de la division Armes à Human Rights Watch dans un communiqué.
De nombreuses préoccupations sont en effet suscitées par les armes complètement autonomes, notamment sur les plans juridique, éthique et politique.
L’utilisation d’armes totalement autonomes créerait un vide juridique en matière de responsabilité, car il serait très difficile d’établir clairement qui serait légalement responsable des actes d’un robot. En l’absence d’intervention humaine dans la chaîne de décision, qui serait responsable en cas de raté : le fabricant, l’armée, le politique ?
De quels robots parle-t-on exactement ?
Les progrès technologiques permettent aujourd’hui de contrôler des drones ou des véhicules armés sans équipage.
« De nombreuses armées sont à la recherche d’armes de plus en plus autonomes, mais une ligne rouge doit être tracée dès maintenant devant des armes qui seraient complètement autonomes », estime Steve Goose.
« Mettre au point ces armes reviendrait à aller trop loin dans le recours à la technologie et une interdiction est nécessaire dès maintenant, avant que les investissements, la dynamique technologique et de nouvelles doctrines militaires ne les rendent inéluctables.» poursuit-il.
Le Département américain de la Défense a d’ores et déjà émis une Directive (nº 3000.09) qui, pour l’instant, exige qu’un être humain soit dans la chaîne de consultation des systèmes pleinement autonomes quand il s’agit de décider de l’utilisation de la force létale.
En revanche, elle prévoit une dérogation possible si les responsables du Département au plus haut niveau le décidaient. Les acteurs en présence estiment donc qu’il faut aller plus loin dans l’interdiction.
Une réflexion éthique en cours
Le plan « France robots initiatives », soutenu par Arnaud Montebourg, ministre du redressement productif, vise une réflexion sur ces questions éthiques.
Cette réflexion s’intéressera bien évidemment à l’acceptabilité éthique et sociétale des robots dans les domaines de la défense et de la sécurité, mais aussi, de façon plus large, à la place respective de l’homme et des machines « intelligentes » dans la société.
Ce travail débouchera sur une charte éthique ou déontologique.
Par Matthieu Combe, journaliste scientifique
Cet article se trouve dans le dossier :
- En France : du code de la déontologie à la charte éthique
- Aux Etats-Unis, place aux ingénieurs « professionnels »
- Wernher Von Braun : un génie ambigu
- Origine de l'éthique scientifique
- Science sans conscience... La fin justifie-t-elle les moyens ?
- Les ingénieurs ont-ils à se préoccuper des enjeux éthiques des techniques ?
- Les enjeux éthiques de l'espace
- Les robots tueurs, c'est pour demain ?
- Les biocarburants utilisés en Europe accélèrent la déforestation
- Ethique : la performance à tout prix implique-t-elle la contorsion des règles ?
- Gaz de schiste : ce que révèle l'enquête du New York Times (1/3)
- Gaz de schiste : ce que révèle l'enquête du New York Times (2/3)
- Gaz de schiste : ce que révèle l'enquête du New York Times (3/3)
- Vers une charte éthique des biocarburants
- Ethique et robotique : quid des robots tueurs
- Les rats nourris au maïs Monsanto meurent plus vite