Google a mis à jour mardi ses principes gouvernant le développement de l’intelligence artificielle (IA), retirant sa promesse de se tenir à distance des armes et des systèmes de surveillance, deux semaines après l’investiture de Donald Trump.
Plusieurs engagements pris en 2018 n’apparaissent pas dans une charte intitulée « Nos principes ».
L’entreprise semble ainsi avoir supprimé ses promesses de ne pas chercher à développer « les armes ou autres technologies dont l’objectif principal (…) est de blesser des personnes », « les technologies qui recueillent ou utilisent des informations à des fins de surveillance en violation des normes internationalement acceptées » et « les technologies dont le but contrevient aux principes largement acceptés du droit international et des droits humains ».
Ces formulations apparaissent dans le billet de blog « L’IA chez Google: nos principes », publié en juin 2018, qui mentionne désormais que des « mises à jour » ont eu lieu mardi, et renvoie vers la nouvelle charte.
Le changement de politique intervient alors que Donald Trump a annulé dès son premier jour un décret pris par son prédécesseur Joe Biden sur la sécurité en matière d’IA.
Les sociétés du secteur ont depuis moins d’obligations: elles n’ont plus besoin par exemple de communiquer les résultats de tests quand leurs programmes présentent « un risque sérieux en termes de sécurité nationale, de sécurité économique nationale, ou de santé publique ».
Un porte-parole de Google a refusé de confirmer à l’AFP quels principes avaient été modifiés ou retirés, renvoyant simplement vers le rapport publié mardi par l’entreprise, intitulé « l’IA responsable ».
« Nous publions un rapport annuel sur la transparence depuis 2019 », s’y félicitent les auteurs, James Manyika, vice-président, et Demis Hassabis, patron de la filiale d’IA Google DeepMind.
Ils expliquent que le contexte autour de l’IA a beaucoup changé depuis 2018.
« Des milliards de personnes utilisent désormais l’IA dans leur vie quotidienne », soulignent-ils. « Elle est passée d’un sujet de recherche de niche en laboratoire à une technologie qui devient aussi omniprésente que les téléphones portables et l’internet lui-même ».
Ils citent aussi l’évolution des normes et les luttes géopolitiques autour de l’IA, parmi les raisons de mettre à jour leurs principes directeurs, et assurent qu’ils vont continuer à déterminer cas par cas « si les avantages l’emportent largement sur les risques potentiels ».
Les principes initiaux avaient été publiés après une pétition de salariés de Google en 2018, demandant au patron Sundar Pichai de mettre fin à la participation du groupe à un programme de recherche du Pentagone sur des drones militaires, baptisé Project Maven.
juj/aem
« Tous droits de reproduction et de représentation réservés. © 2025 Agence France-Presse. »
Réagissez à cet article
Vous avez déjà un compte ? Connectez-vous et retrouvez plus tard tous vos commentaires dans votre espace personnel.
Inscrivez-vous !
Vous n'avez pas encore de compte ?
CRÉER UN COMPTE