Le chercheur le plus connu du monde dans le domaine de la conscience dit que les machines pourraient un jour devenir conscientes d’elles-mêmes.
Pourquoi c’est important :
Les scientifiques ne tombent pas d’accord sur ce qu’est la conscience.
Un ver de terre est-il conscient ? Un bourdon ? Est-ce qu’un ordinateur qui peut jouer aux échecs ressent quelque chose ?
Pour Christof Koch, directeur scientifique du Allen Institute for Brain Science [Institut Allen pour la science du cerveau] à Seattle, la réponse à ces questions pourrait se trouver dans la trame constitutive de l’univers. La conscience, pense-t-il, est une propriété intrinsèque de la matière, tout comme la masse ou l’énergie. Organisez la matière de la bonne façon, comme dans le cerveau mammifère, et tada ! on peut ressentir.
M. Koch, aujourd’hui 57 ans, a passé presqu’un quart de siècle à essayer d’expliquer pourquoi, par exemple, le soleil nous fait chaud sur le visage. Mais après avoir écrit trois livres sur la conscience, M. Koch dit que les chercheurs sont encore loin de savoir pourquoi la conscience survient, ou même de tomber d’accord sur ce que c’est. C’est un problème difficile. C’est l’une des raisons pour lesquelles M. Koch a quitté son poste à Caltech [California Institute of Technology] en 2011 pour rejoindre un projet à 500 millions de dollars lancé par le milliardaire Paul Allen, co-fondateur de Microsoft.
Le but de l’Institut Allen est de construire un atlas détaillé de chaque neurone et chaque synapse du cerveau mammifère. Cela fournirait aux neurosciences un geyser* de données similaire à ce qu’a accompli le Projet Génome Humain.
Mais M. Koch n’a pas abandonné sa recherche d’une grande théorie qui pourrait tout expliquer. En fait, il pense que la conscience pourrait être expliquée par ce qu’on appelle la théorie de l’information intégrée, laquelle affirme que la conscience est un produit des structures, comme le cerveau, qui ont à la fois la capacité d’emmagasiner une grande quantité d’informations, et une densité critique d’interconnexions entre leurs parties constitutives.
Pour M. Koch, cette théorie fournit un moyen d’évaluer des degrés de conscience chez les personnes ayant subi des dommages au cerveau, chez les espèces du règne animal, et même, dit-il, chez les machines. Nous avons interrogé M. Koch sur la conscience des ordinateurs pendant la conférence EmTech de MIT Technology Review.
La découverte du fondement biologique de la conscience sera-t-elle déshumanisante en aucune façon ? Et si ce n’était qu’une illusion ?
Je trouve ridicule cette vision de certaines personnes que la conscience est une illusion. Si c’est une illusion, alors c’est l’illusion la plus puissante que nous ayons. Et la plus célèbre déduction de la philosophie occidentale, c’était quoi déjà ? « Je pense. Donc je suis ». Le fait que nous possédions l’expérience consciente est la seule certitude indéniable que nous ayons.
Si les scientifiques découvrent le fondement de la conscience, quels genres de technologies pourraient en résulter ?
On pourrait avoir un test pour déterminer qui a une conscience et qui n’en a pas. Nous avons des débats passionnés dans ce pays sur l’avortement. J’aimerais avoir un moyen objectif de tester à quel moment un fœtus commence véritablement à avoir des sensations conscientes. Ou bien si un patient [dans le coma] est conscient ou non. Souvent, on ne sait pas, en fait. Ce sont des questions que les gens se posent depuis la nuit des temps, mais une fois qu’on aura une théorie, et une théorie acceptée par le plus grand nombre, on pourra aussi y répondre. Et puis, si je voulais construire une machine qui soit consciente, ça me donnerait un plan directeur.
Donc vous pensez qu’un ordinateur peut être conscient ?
J’ai fait récemment un cours magistral au MIT sur la théorie de l’information intégrée, développée par Giulio Tononi à l’Université du Wisconsin. C’est une théorie qui fait une prédiction très claire : elle dit que la conscience est une propriété des systèmes complexes qui possèdent un répertoire « cause-effet » particulier. Ils ont une façon particulière d’interagir avec le monde, comme le fait le cerveau, ou en principe, comme pourrait le faire un ordinateur. Si vous arriviez à construire un ordinateur qui a les mêmes circuits et branchements que le cerveau, cet ordinateur serait aussi doué de conscience. Il pourrait ressentir et ça lui ferait quelque chose d’être cet ordinateur-là. Cependant, il n’en est pas de même des simulations digitales.
Si je construisais un modèle logiciel parfait du cerveau, il ne serait jamais conscient, mais une machine spécialement conçue qui imite le cerveau le serait ?
Exact. Cette théorie dit clairement qu’une simulation digitale ne serait pas consciente, ce qui est radicalement différent de la croyance fonctionnaliste de 99 % des gens du MIT ou des philosophes comme Daniel Dennett. Ils disent tous qu’une fois qu’on arrivera à tout simuler, il n’y aura besoin de rien d’autre, et ce sera conscient.
Je pense que la conscience, comme la masse, est une propriété fondamentale de l’univers. L’analogie, et elle est très bonne, est qu’on peut faire de très bonnes prédictions météo de nos jours. On peut prédire l’intérieur d’une tempête. Mais ce n’est jamais mouillé à l’intérieur de l’ordinateur. On peut simuler un trou noir par ordinateur, mais l’espace-temps n’y sera jamais déformé. La simulation n’est pas vraie.
C’est la même chose avec la conscience. Dans 100 ans, on pourra peut-être simuler la conscience sur un ordinateur. Mais l’ordinateur ne vivra, ne sentira rien. Nada. Ce sera tout noir dedans. Il ne pourra pas avoir de ressenti en tout état de cause, même s’il peut avoir notre intelligence et notre capacité de parler.
Je ne suis pas en train de dire que la conscience est une âme magique. Non. C’est quelque chose de physique. La conscience survient toujours sur du physique. Mais il faut un type de matériel informatique particulier pour l’instancier. [Ndlt : instancier = en programmation informatique, créer un élément à partir d’un modèle et d’un jeu de valeurs initiales de paramètres.] Un ordinateur fait de transistors, qui déplacent des charges à travers des portes électroniques, avec chacune de ces portes connectée à quelques autres portes, est une structure cause-effet très différente de celle que nous avons dans le cerveau, où on a un neurone connecté à 10.000 neurones afférents et projetant vers 10.000 autres neurones. Mais si vous construisiez l’ordinateur de façon appropriée, comme un ordinateur neuromorphique, il pourrait être conscient.
Si je vous enfermais dans une pièce avec un ordinateur du futur, seriez-vous capable de déterminer s’il est conscient ?
Je ne pourrais pas de l’extérieur. Il faudrait que j’examine la mécanique.
Et avec le test de Turing ?
La question posée par le test de Turing est : « les machines peuvent-elles penser ? ». Mais finalement, c’est un test opérationnel pour l’intelligence, et non pour la conscience. Si vous avez une conversation intelligente avec un type dans une autre pièce, et qu’après une demi-heure vous ne pouvez pas décider s’il s’agit d’un ordinateur ou d’un humain, ben, là vous dites que l’ordi est aussi intelligent qu’un humain. Mais le test de Turing ne me dirait pas si l’ordinateur a ressenti quoi que ce soit. Je pourrais lui demander « Es-tu conscient ? » et la machine pourrait me répondre : « Mais oui, je suis pleinement conscient. Et pourquoi affirmez-vous que je ne le suis pas ? Je suis offensé ! » Mais je ne pourrais pas vraiment savoir. Je serais obligé de dire : « Désolé, il va falloir que je te démonte pour savoir comment tu es fait et comment tu fais pour générer ces états physiques différents ».
N’y a-t-il pas une question-piège à poser, à laquelle seul un être conscient pourrait répondre ?
Très bonne question. Chez les humains, nous avons des tests pratiques pour évaluer la conscience. S’il vous arrive un accident grave et que vous atterrissez aux urgences, ils vous demanderont : « Pouvez-vous bouger les yeux ? Pouvez-vous bouger vos membres ? Pouvez-vous parler ? Si vous pouvez parler, savez-vous en quelle année nous sommes ? Savez-vous qui est le président ? »
Mais comment puis-je vraiment savoir que vous êtes conscient ? C’est le problème du solipsisme. Dans l’analyse précédente, je ne sais pas. Mais je sais que votre cerveau est très similaire au mien. J’ai passé plein de gens au scanner, et je sais qu’ils ont tous un cerveau, et que leur cerveau se comporte similairement au mien. Donc je peux faire la déduction parfaitement raisonnable que vous aussi, vous êtes conscient.
Mais plus ces systèmes différent de moi, plus il est difficile de faire cette démarche par déduction. Par exemple, prenez une abeille. Est-ce qu’elle ressent quelque chose du fait d’être une abeille et de voler dans les rayons dorés du soleil et de boire du nectar ? Je trouve qu’il est très difficile de savoir si une abeille est consciente ou non. Et un ordinateur est encore plus radicalement différent. Il n’existe aucun comportement duquel je puisse le rapprocher par analogie. Je serais obligé d’examiner la mécanique sous-jacente.
Pensez-vous qu’on construira un jour des machines conscientes ?
Je ne suis pas sûr de savoir pourquoi on voudrait faire ça. Mais il n’y a aucun doute dans mon esprit qu’on construira des machines intelligentes capables de passer le test de Turing bien avant de comprendre le fondement biologique de l’intelligence humaine. Et je pense qu’il y a des dangers qui vont avec ça, que la plupart des gens, en optimistes insouciants, ignorent complètement.
Quels dangers ?
Vous ne regardez pas les films de science-fiction ? « L’intelligence artificielle hors de contrôle », bien sûr. Pensez aux marchés financiers, à toutes ces machines d’échanges boursiers, tous ces flash-crashes. Les gens vont abuser de l’intelligence des ordinateurs, la maximiser aveuglément pour un quelconque but. Ca mènera à une concentration de plus en plus grande du pouvoir entre des mains de moins en moins nombreuses. On le voit déjà, ça va conduire à du chômage en masse. Et peut-être dans 30 ou 40 ans, je pense qu’il y a vraiment un risque existentialiste pour l’espèce, de l’ampleur des armes nucléaires ou d’une chute de météorite.
Et tout ça sans que les machines soyent conscientes ? Dans les films, c’est précisément au moment où l’IA devient folle qu’elle gagne la conscience d’elle-même.
Ca, c’est parce que les gens veulent faire une histoire captivante. Si l’ennemi ne ressentait rien, s’il n’y avait rien en face, ça ne ferait pas un bon adversaire.
* ndlt : geyser de données, ou data firehose en anglais = lorsqu’un fournisseur de données sociales dynamiques (de type Twitter, par exemple) se met d’accord avec un utilisateur final pour lui envoyer la totalité des données dynamiques d’un secteur défini en temps réel, la puissance colossale du flux de données reçues par l’utilisateur final en temps réel peut être comparée par analogie à la puissance d’un geyser.
Source :
- Antonio Regalado, MIT Technology Review, 2 octobre 2014
- Traduit par Alexandra Béliaeff
Réagissez à cet article
Vous avez déjà un compte ? Connectez-vous et retrouvez plus tard tous vos commentaires dans votre espace personnel.
Inscrivez-vous !
Vous n'avez pas encore de compte ?
CRÉER UN COMPTE