Depuis le lancement de ChatGPT en novembre 2022, l’intelligence artificielle est dans toutes les bouches, et nombre d’entreprises souhaitent surfer sur la vague IA pour ne pas se faire distancer. Pourtant, peu d’entre elles prennent le temps d’avoir une démarche raisonnée et de comprendre les impacts d’une telle technologie.
Experte en intelligence artificielle, Amélie Cordier a été maître de conférence et a travaillé dans le privé en tant que chercheuse en IA. Depuis un an, elle a créé son entreprise Graine d’IA pour aider les entreprises dans leur adoption raisonnée de cette technologie. A travers cet accompagnement, elle leur fait prendre conscience des impacts environnementaux, sociétaux, économiques, stratégiques de cette technologie, et les aide à l’implanter efficacement.
Techniques de l’Ingénieur : Qu’est-ce qui vous a poussé à créer Graine d’IA ?
Amélie Cordier : Depuis 2017, je travaille dans le privé en tant que directrice scientifique, donc ma mission était de résoudre un problème de l’entreprise en apportant une solution basée sur l’IA. Or depuis novembre 2022 et la sortie de ChatGPT, tout le monde s’est inventé expert en IA. Mais quand on y regarde de plus près, les entreprises se lancent tête baissée dans l’adoption de l’IA, certaines par réels besoins, d’autres par peur de passer à côté d’une « révolution », mais sans se poser aucune question. Je suis effarée par leur inconscience des impacts environnementaux, des transformations des métiers que cela va provoquer en interne et des enjeux géopolitiques. En utilisant des solutions souvent américaines, elles perdent toute souveraineté sur leurs propres données. D’autre part, j’ai remarqué que les dirigeants d’entreprise sont complètement démunis et ne savent pas comment prendre le problème ni vers qui se tourner pour se faire accompagner. Je me suis dit qu’il fallait faire quelque chose, à commencer par de la sensibilisation et de l’accompagnement.
Aujourd’hui, quelles solutions ont les entreprises qui veulent se faire aider pour implanter l’IA ?
Le marché est monopolisé par des offreurs de solutions en IA, à savoir des personnes capables d’apporter la brique solutionniste à un problème, mais sans aucun questionnement éthique autour. Or avant d’implanter l’IA, il faudrait une réflexion pour savoir quelle est notre position sur le sujet en tant que citoyen. Quand des entreprises se demandent si l’IA qu’ils veulent implanter est en accord avec leurs valeurs ou s’il y a des alternatives, ils ne savent pas vers qui se tourner, car souvent les offreurs de solutions sont déjà engagés auprès d’une technologie particulière et sont dépendants des produits de Microsoft, Google, Amazon…
Peut-on réellement utiliser l’IA de manière éthique dans son entreprise ?
La réponse n’est pas binaire, mais plutôt une question de curseur. Dès lors que l’on s’inscrit dans une certaine éthique et qu’on essaie d’œuvrer selon un ensemble de valeurs, la question est « quelle IA puis-je adopter pour respecter mes valeurs ? ». Si une entreprise fait de la création de contenus et a besoin d’illustrations, elle a l’option d’embaucher un illustrateur ou de générer des images par Bing. La seconde option est beaucoup moins chère mais elle peut aussi prendre en compte d’autres critères comme la consommation de CO2, l’impact social en faisant travailler quelqu’un en France etc. L’entreprise peut comparer les critères économiques, écologiques, sociaux et décider de la meilleure option selon les valeurs qu’elle défend, voire de choisir des solutions intermédiaires. Si elle n’a pas les moyens de payer un illustrateur, elle peut éventuellement utiliser une autre IA à plus faible impact environnemental ou dont les serveurs sont en France, et choisit donc en toute conscience.
Que conseillez-vous aux entreprises qui veulent implanter l’IA ?
Le conseil numéro 1, c’est de ne jamais perdre de vue l’objectif et l’usage. Pour ne pas se faire avoir et s’éparpiller vers des solutions dont on n’a pas besoin, il faut avoir une approche extrêmement scientifique et rationnelle et se poser différentes questions : quel est le problème que j’essaie de résoudre ? Comment l’IA peut m’aider à résoudre ce problème ? De quoi ai-je besoin pour mettre en place cette IA ? Et enfin, comment maîtriser mon investissement ? Une fois les réponses à ces questions, il faut rester focalisé dessus et ignorer les discours marketing.
D’autre part, beaucoup de personnes pensent que ce sont des solutions clés en main, mais une fois installée, l’IA nécessite une maintenance. Dès la mise en production, il faut définir des métriques pour évaluer la qualité des résultats produits, et mettre en place des stratégies en cas de dérives. Implanter une solution d’IA nécessite une démarche de gestion de projet rigoureuse.
Comment faire pour utiliser les données de manière responsable ?
Les entreprises doivent être capables de trouver l’équilibre entre la quantité de données dont elles ont besoin pour être efficaces, et les valeurs qu’elles cherchent à respecter. Prenons l’exemple d’une déchèterie qui utilise un algorithme de vision pour faire du tri de déchets, et qui obtient 97% de performance. Aurait-elle besoin d’investir plus d’argent pour avoir un dataset plus conséquent qui causerait davantage d’impacts sociaux et écologiques, afin d’atteindre les 100% ? C’est un équilibre subtil à trouver.
Avant 2022, il y avait besoin de beaucoup de données pour être performant, ce qui soulève de nombreuses questions sur où récupérer les données. Cependant, on a dorénavant accès à des modèles « fondation » donc des modèles génériques qu’on réentraîne localement pour une tâche spécifique. Cela pose d’autres questions : certes, on réduit le nombre de données et l’impact carbone, mais on devient dépendants des modèles originaux, or ces modèles ont peut-être leurs propres biais. Grâce à la recherche, on arrive à faire mieux avec moins, et cette tendance va se maintenir. Je regrette juste que la course à la performance empêche de faire les choses bien dès le départ, car on veut sortir son produit avant le concurrent.
Certaines entreprises ont-elles renoncé à implanter l’IA après un accompagnement en amont ?
Oui ! C’est très fréquent chez les entreprises spécialisées dans leur domaine d’activité, qui souhaitent se moderniser via des technologies qu’elles ne maîtrisent pas. Avec notre œil d’expert, on s’aperçoit parfois que, pour une problématique donnée, l’IA leur coûtera cher pour peu de résultats. Avec l’accompagnement, les entreprises comprennent davantage où l’IA peut être réellement efficace et quelles autres solutions sont possibles.
Que pensez-vous des solutions alternatives aux mastodontes américains et chinois ?
La concurrence est vitale. Elle est très compliquée à maintenir car il y a un énorme monopole aujourd’hui, et c’est très dur pour les entreprises alternatives qui n’ont pas accès aux mêmes ressources de calcul, aux mêmes possibilités de salaires etc. Mais c’est la responsabilité des entreprises de leur donner leur chance. Pourquoi ? D’abord, car l’innovation vient de la diversité, et ensuite car il ne faut pas laisser le pouvoir à une seule entité. Que se passera-t-il si à l’avenir on se fâche avec les Etats-Unis ? De nombreuses entreprises mettront la clé sous la porte. Toutes les boîtes qui osent se lancer dans la compétition devraient être plus soutenues, ce qui n’est pas encore le cas aujourd’hui en France.
Est-il souhaitable que l’IA soit autant présente dans notre société ?
C’est surtout la façon dont elle se fait aujourd’hui qui n’est pas souhaitable, avec la mise sous le tapis des impacts environnementaux, sociétaux, culturels, et dans l’inconscience totale des enjeux géopolitiques. Il y a un énorme besoin d’acculturation et de médiation sur le sujet. C’est un débat de société, et plus on en parle, plus les individus s’en préoccupent et comprennent les enjeux. Il leur est alors possible d’exprimer leur avis en choisissant des solutions alternatives, en laissant leur chance aux solutions souveraines etc.
Propos recueillis par Alexandra Vépierre
Cet article se trouve dans le dossier :
Intelligence artificielle : le progrès à quel prix ?
- Racistes, sexistes, classistes : comment les biais algorithmiques creusent les inégalités ?
- Félix Tréguer : “La surveillance croit largement avec les techniques d’IA”
- « Les entreprises foncent tête baissée dans l’IA sans se poser de questions »
- Peut-on concevoir des algorithmes réellement éthiques ?
- Biais algorithmiques : la sensibilisation commence dès la formation
Dans l'actualité
- Vers une éthique du métier d’ingénieur
- Ecoutez notre podcast Cogitons Sciences : Biais, fantasmes, et pratique du numérique [Sciences et éthique #3]
- Ecoutez notre podcast Cogitons Sciences : Innover, pour le meilleur ? [Sciences et éthique #1]
- Ethique dans l’ingénierie : une responsabilité sociétale encore trop peu encadrée
- Intelligence artificielle : l’Europe ne fait pas le poids face aux Américains et Chinois
- Biais algorithmiques : la sensibilisation commence dès la formation
- Racistes, sexistes, classistes : comment les biais algorithmiques creusent les inégalités ?
- Félix Tréguer : “La surveillance croit largement avec les techniques d’IA”
- Peut-on concevoir des algorithmes réellement éthiques ?
- Écoutez notre podcast Cogitons Sciences : Comment l’IA révolutionne notre façon de travailler ? [L’IA s’invite dans nos métiers #1]
- Écoutez notre podcast Cogitons Sciences : Intégrer l’IA dans votre entreprise, pour un usage utile et raisonné [L’IA s’invite dans nos métiers #2]
- Un baromètre sur les salaires dans l’industrie en 2024
- En image : bientôt des chatbots pour assurer les entretiens d’embauche ?
- Les grands modèles de langage : de puissants outils qui restent encore à maîtriser
- Albert : l’IA qui veut transformer les services publics
- L’IA au travail : un assistant ou un danger pour notre emploi ?
- PME/TPE : fléchissement des investissements, mais la dynamique reste positive
- Une nouvelle directive pour encourager le développement durable des entreprises
- La neutralité carbone reste un défi majeur pour Google
- Une solution française permet d’identifier la majorité des deepfakes musicaux et vocaux