Les faux contenus sont de plus en plus nombreux depuis la «démocratisation» de l’intelligence artificielle générative. Pour mieux informer les internautes, le réseau social commence à apposer des étiquettes «Made with AI» sur les vidéos, images et sons générés par cette technologie et publiés sur ses plateformes.
Certains les trouvent drôles ou ni prêtent pas attention, d’autres sont choqués et inquiets. Les vidéos générées par l’IA pullulent sur l’internet. À l’approche de toute élection, on voit apparaître de tels clips, qui se présentent comme des parodies ou des détournements potaches. Mais le risque de désinformation est permanent.
Tous les pays sont concernés. Une fausse interview générée par une IA et diffusée quelques jours avant les élections législatives slovaques de septembre 2023 a tenté de présenter le leader de Progressive Slovakia, Michal Šimečka, comme ayant discuté avec un journaliste de la manière de truquer le vote.
Un faux contenu audio a faussement impliqué un candidat à la présidence dans des projets de manipulation des bulletins de vote lors des élections nigérianes de février 2023. Au Bangladesh, des vidéos truquées de membres de l’opposition, en bikini et dans une piscine, ont été publiées avant les élections nationales.
La France n’est pas épargnée par les deepfakes. Deux comptes TikTok diffusant des vidéos de jeunes filles, nombril à l’air et longs cheveux blonds, avec les visages de Marine Le Pen et Marion Maréchal, ont été supprimés.
Désinformation et fake news
La désinformation, les contenus générés par l’IA et les fake news constituent une menace sérieuse pour les processus démocratiques alors que la moitié de la population mondiale participera à plus de 80 élections nationales en 2024 – dont les élections européennes en juin.
Pour endiguer ce fléau, le Parlement européen est parvenu, en décembre 2023, à un accord sur la proposition de loi européenne sur la liberté des médias (EMFA). Il vise à harmoniser les législations nationales des États membres de l’UE en matière de liberté éditoriale, de pluralisme et d’indépendance des médias.
Meta, maison mère de Facebook, est bien concernée au premier rang par ce fléau. Après des années sans réelles actions, le groupe a annoncé vouloir étiqueter les vidéos diffusées sur ses plateformes pour différencier les « vraies » vidéos de celles générées par de l’IA.
Les étiquettes seront apposées soit lorsque les utilisateurs divulgueront l’utilisation d’outils d’IA, soit lorsque Meta détectera des « indicateurs d’image d’IA standard de l’industrie ». Cependant, l’entreprise n’a pas fourni plus de détails sur son système de détection.
Par ailleurs, on ne sait pas encore exactement quel impact les « deepfakes » pourraient avoir sur les élections et nous pourrions même voir ce type de contenu utilisé d’une manière qui n’a pas encore été imaginée.
Enfin, il convient également de rappeler que la désinformation n’est pas toujours une affaire de haute technologie. Il existe d’autres moyens d’attaquer ou de déstabiliser une démocratie : rumeurs, théories du complot, fraude électorale…
Même si l’annonce de Meta est à saluer, aucun système ne pourra être parfait dans la détection de deepfakes. Des erreurs, voire des abus, pourraient être relevés. En 2018, Facebook avait censuré les seins nus de « La Liberté guidant le peuple » et « L’Origine du monde » de Gustave Courbet…
Réagissez à cet article
Vous avez déjà un compte ? Connectez-vous et retrouvez plus tard tous vos commentaires dans votre espace personnel.
Inscrivez-vous !
Vous n'avez pas encore de compte ?
CRÉER UN COMPTE