Aristotle est la nouvelle intelligence artificielle qui surveille vos enfants. Cette tour dotée d’une caméra et d’un micro s’allume de mille feux, diffuse de la musique, répond aux enfants et propose des jeux ou des questions pour les calmer. Évidemment, elle peut aussi raconter des histoires. Fini le babyphone grésillant, voici le babyphone vidéo! Aristotle retransmet sur le smartphone des parents ce qui se passe dans la chambre de leur enfant en direct. De quoi éduquer et prendre soin des enfants. Pour les parents, Aristotle va aussi permettre de commander facilement des produits pour leurs enfants. Sa commercialisation est prévue pour juin 2017, autour de 300 dollars.
Cette fois, Mattel assure que le dispositif est sécurisé. Rien à voir avec les derniers scandales. Rappelons celui de la Hello Barbie, la barbie connectée que l’entreprise proposait en 2015. Un chercheur américain avait alors souligné que des pirates pouvaient facilement voler des informations personnelles et transformer le microphone de la poupée en un dispositif de surveillance. Pas plus de lien avec les peluches CloudPets commercialisés par la société américaine Spiral Toysqui. Ces peluches connectées permettent à un proche autorisé d’enregistrer un message aux enfants qui peut le réécouter à foison. Problème : elles avaient été à l’origine de la fuite d’informations personnelles de 821.000 détenteurs et de 2,2 millions d’enregistrements fin 2016. Victor Gevers, président de la GDI Foundation avait révélé un lien mal protégé vers la plate-forme de stockage en ligne utilisée par ces jouets pour stocker des informations. Et enfin, la poupée Cayla était qualifiée en Allemagne de « dispositif dissimulé d’espionnage » par l’agence de régulation des réseaux.
Cette fois, les images de la caméra d’Aristotle transmises aux parents sont chiffrées. Le géant du jeu répond aux règles de la COPPA, une directive américaine concernant la protection de la vie privée des moins de 13 ans.
Avis de l’expert Jean-Gabriel Ganascia, chercheur en intelligence artificielle à l’université Pierre-et-Marie-Curie
Pour assurer la sécurité des données, je pense qu’il faudra développer ce que l’on appelle l’ « ethics by design » (éthique par conception). Il s’agit de principes de conceptions qui assurent que les données ne sont pas délocalisées. Il y aura une garantie ancrée dans l’objet. J’ai travaillé quelques années sur ce que l’on appelait la télévision intelligente. À partir de ce que les gens regardaient à la télévision, on faisait de la recommandation. Il s’agissait d’une architecture locale qui ne déportait pas les données vers un service central. On peut donc certifier aux utilisateurs que certaines données resteront sur l’appareil et ne seront pas diffusées pour être réutilisées par d’autres. Le devenir des données sera un argument de vente dans le futur.
Si des acteurs proposent cela sur le marché , il y aura un mouvement populaire qui ira vers ce genre de solutions. Le processus est long car il y une sensibilité relativement faible sur ces questions, mais je pense qu’elle va s’accroître. Par exemple, sur les moteurs de recherche, Google aspire toutes les requêtes pour faire de la publicité ciblée. Le moteur de recherche français Qwant s’engage à ne pas les aspirer. Lorsque cela deviendra un sujet important, cela leur conférera un avantage compétitif important.
Par Matthieu Combe, journaliste scientifique
Cet article se trouve dans le dossier :
L'Intelligence Artificielle s'impose dans l'entreprise comme chez le particulier
- Les géants du web investissent dans l'éthique de l'IA
- Les robots ont-ils des droits et des devoirs ?
- L'ère des assistants personnels s'ouvre !
- L'IA ne détruira pas tout de suite l'humanité !
- L'IA s'invite dans la chambre de vos enfants !