L’ONU et plusieurs organisations non gouvernementales s’intéressent aux « robots tueurs », ces engins qui auraient la capacité de choisir et de tirer sur des cibles sans aucune intervention humaine…
Christof Heyns, Rapporteur spécial de l’ONU sur les exécutions extrajudiciaires, sommaires et arbitraires, présentera son rapport sur les robots autonomes munis d’armes létales le 29 mai, lors de la 2e session du Conseil des droits de l’homme des Nations Unies à Genève. Il recommandera aux gouvernements d’instaurer des moratoires nationaux sur le développement de ces robots et demandera l’établissement d’un groupe de haut niveau pour l’élaboration d’un traité international.
Pour appuyer la sortie de ce rapport, Human Rights Watch a lancé fin avril une campagne mondiale pour l’interdiction de ces « robots tueurs ». « Le recours à des robots tueurs transgresserait toute frontière morale et juridique, et devrait être rejeté comme étant inacceptable pour la conscience publique.» affirme Steve Goose, directeur de la division Armes à Human Rights Watch dans un communiqué.
Découvrez le pack « Ingénierie des systèmes robotiques »
- Modélisation et analyse de systèmes asservis
- Régulation et commande des systèmes asservis
- Automatique avancée
- Automatique séquentielle
- Supervision des systèmes industriels
- Systèmes d’information et de communication
- Robotique
De nombreuses préoccupations sont en effet suscitées par les armes complètement autonomes, notamment sur les plans juridique, éthique et politique. L’utilisation d’armes totalement autonomes créerait un vide juridique en matière de responsabilité, car il serait très difficile d’établir clairement qui serait légalement responsable des actes d’un robot. En l’absence d’intervention humaine dans la chaîne de décision, qui serait responsable en cas de raté : le fabricant, l’armée, le politique ?
De quels robots parle-t-on exactement ?
Les progrès technologiques permettent aujourd’hui de contrôler des drones ou des véhicules armés sans équipage. « De nombreuses armées sont à la recherche d’armes de plus en plus autonomes, mais une ligne rouge doit être tracée dès maintenant devant des armes qui seraient complètement autonomes », estime Steve Goose. « Mettre au point ces armes reviendrait à aller trop loin dans le recours à la technologie et une interdiction est nécessaire dès maintenant, avant que les investissements, la dynamique technologique et de nouvelles doctrines militaires ne les rendent inéluctables.» poursuit-il.
Le Département américain de la Défense a d’ores et déjà émis une Directive (nº 3000.09) qui, pour l’instant, exige qu’un être humain soit dans la chaîne de consultation des systèmes pleinement autonomes quand il s’agit de décider de l’utilisation de la force létale. En revanche, elle prévoit une dérogation possible si les responsables du Département au plus haut niveau le décidaient. Les acteurs en présence estiment donc qu’il faut aller plus loin dans l’interdiction.
Une réflexion éthique en cours
Le plan « France robots initiatives », soutenu par Arnaud Montebourg, ministre du redressement productif, vise une réflexion sur ces questions éthiques. Cette réflexion s’intéressera bien évidemment à l’acceptabilité éthique et sociétale des robots dans les domaines de la défense et de la sécurité, mais aussi, de façon plus large, à la place respective de l’homme et des machines « intelligentes » dans la société. Ce travail débouchera sur une charte éthique ou déontologique.
Par Matthieu Combe, journaliste scientifique
Réagissez à cet article
Vous avez déjà un compte ? Connectez-vous et retrouvez plus tard tous vos commentaires dans votre espace personnel.
Inscrivez-vous !
Vous n'avez pas encore de compte ?
CRÉER UN COMPTE