Alban Leveau-Vallier, philosophe et chercheur spécialisé dans l’intelligence artificielle, décrypte nos relations aux nouvelles technologies, entre espoir, craintes et fantasmes.
Si l’intelligence artificielle attire de plus en plus les chercheurs et les investisseurs dans de multiples domaines, elle n’en reste pas moins un sujet de méfiance. L’inquiétude vis-à-vis de la privatisation des données a mené à l’instauration de la RGPD pour protéger les datas dont se nourrit l’IA pour fonctionner. Nous avons interrogé Alban Leveau-Vallier, philosophe et chercheur spécialisé dans l’intelligence artificielle, pour comprendre ce que nos pensées et nos actions concernant l’IA disent de nous.
Pourquoi lier la philosophie et l’intelligence artificielle ?
L’IA est un projet philosophique car elle s’interroge sur l’intelligence humaine. En construisant des programmes, nous tentons de comprendre comment on pense. Pourtant, s’inspirer de notre intelligence pour créer l’IA est compliqué car nous n’arrivons toujours pas à définir ce qu’est l’intelligence. Le terme d’ « intelligence » pose donc question. D’ailleurs, Luc Julia, vice-président de l’innovation chez Samsung, a écrit le livre L’intelligence artificielle n’existe pas pour dénoncer cette appellation, qui donne l’illusion que des machines pensantes vont nous remplacer.
Que vous apprennent vos recherches sur la relation humain/machine ?
Si nous sommes disposés à opposer l’humain et la machine, je pense qu’il faudrait plutôt s’interroger sur ce que nous racontons à travers les machines que l’on crée. Nous avons tendance à imaginer une machine totalement autonome, ce qui crée des fantasmes et des craintes. Pourtant, ça n’existe pas. Pour remplir son rôle, une machine doit être conçue, mise à jour et maintenue par des humains. Si nous laissons un smartphone sans le charger ni le mettre à jour, il ne fonctionnera plus et c’est pareil pour toutes les technologies. Plutôt que de se focaliser sur les machines autonomes, nous pourrions davantage nous intéresser aux technologies qui aident à résoudre des problèmes concrets, donc à l’ »intelligence augmentée ». Aujourd’hui, nous attendons les voitures autonomes, annoncées depuis des années. En parallèle, des startups introduisent dans les voitures des technologies comme la reconnaissance d’images pour détecter les piétons, des limitateurs de vitesse etc. Ces évolutions technologiques sont concrètes car elles existent déjà dans nos véhicules et modifient nos pratiques. Pourtant, elles font moins rêver car elles ne remplacent pas le conducteur.
La peur d’être remplacé par une machine dans son travail est-elle fondée ?
Oui et non. D’un côté, il n’y a pas de remplacement par une machine autonome car elles seront maintenues par des humains. En revanche, l’introduction de programmes va changer les manières de travailler donc certains vont en bénéficier et d’autres en pâtir. Par exemple, si un programme intégré dans une entreprise permet de faire beaucoup d’économies, cet argent ne sera pas redistribué aux employés. Il serait intéressant de profiter de ce gain de productivité pour mettre en place des semaines de 30h par exemple, mais je n’ai jamais entendu parler de cela. À mon avis, il faut plus s’inquiéter de la répartition des gains que d’un remplacement par les machines.
Pourquoi y a-t-il autant de fantasmes et de craintes autour de l’IA ?
Le rêve d’une machine intelligente n’est pas récent, nous en trouvons déjà des traces chez Homère. L’IA est souvent assimilée à une forme de magie. Nous sommes actuellement dans la 3e vague d’enthousiasme concernant l’IA, et comme les précédentes dans les années 50-60 puis 80, elle s’accompagne de grands espoirs et de promesses excessives. Cependant, cet engouement donne énormément de crédit à l’intelligence artificielle et les investissements financiers suivent, donc des innovations très intéressantes naissent. Les craintes qu’elle crée en parallèle sont pour moi inévitables. Déjà, la méfiance envers ce qui pourrait modifier nos façons de vivre et de se relier les uns aux autres nous poussent à nous refermer aux changements. Ensuite, les scandales autour de l’utilisation de nos données légitiment ces craintes. Mais selon moi, ces deux pans confèrent chacun trop d’importance à la technologie et sont le reflet de peurs du monde qui nous entoure.
Est-ce que les lois sur la protection des données limitent le développement de l’IA, qui a justement besoin de ces données ?
On aime bien se lamenter et dire que l’Europe sera en retard parce que les chercheurs pourront moins utiliser les données que les Chinois par exemple. Mais définir des premiers et des derniers dans le développement de l’IA, c’est se placer dans un monde de compétition clair. Or, il est compliqué de classer les pays selon leur avancée car l’intelligence artificielle est un domaine très ouvert, dans lequel les chercheurs publient en open source et circulent à travers le monde. Selon moi, les règles de protection des données sont un avantage et nous placent justement en avance sur cet aspect. Avant de déployer une technologie, nous ne pouvons pas prévoir les effets, autant positifs que négatifs. Mais une fois que nous commençons à distinguer les scandales et les abus, il est sain de se demander quelles nouvelles lois doivent l’encadrer. C’est d’ailleurs le rôle de l’Etat.
Quel avenir imaginez-vous pour l’intelligence artificielle ?
J’aime bien prendre l’exemple de Blade Runner, réalisé en 1982, et dont l’intrigue se déroule en 2019. Il y a des voitures autonomes, des androïdes intelligents, mais pourtant, les personnes téléphonent encore depuis des cabines téléphoniques à pièces. Cette scène prouve bien que nous pouvons imaginer l’avenir, mais pas faire de prévisions stables car tout sera radicalement différent.
Réagissez à cet article
Vous avez déjà un compte ? Connectez-vous et retrouvez plus tard tous vos commentaires dans votre espace personnel.
Inscrivez-vous !
Vous n'avez pas encore de compte ?
CRÉER UN COMPTE