L’intelligence artificielle tombera-t-elle amoureuse?
Traduction en français par Nirosha Murugan.
Dans quelques mois, des millions des téléspectateurs vont revenir à Westworld, la série originale de HBO sur les androïdes artificiellement intelligents qui habitent dans un parc à thème western. Le spectacle, basé sur un film de 1973 écrit par défunt Michael Crichton, dépeint les hauts et les bas de la nature humaine à travers des intrigues magnifiquement construites autour des riches vacanciers, qui paient pour entrer dans le parc thématique et vivre leurs fantasmes.
Westworld est un simulacre classique. Il représente le Far West: un cadre où les malfrats de l’humanité peuvent sévir sans conséquences, où les androïdes vivent un cycle récursif de scénarios sans connaître leur composition automatisé. Westworld est donc un substitut à la réalité, inconnue des hôtes androïde – mais pas pour longtemps. Les questions du spectacle (Qui est androïde? Qui ne l’est pas?) sont posées au début du premier épisode quand Dolores, l’une des protagonistes androïdes centraux, est interrogée par un technicien du parc sur sa conscience de soi.
“Avez-vous jamais questionné la nature de votre réalité?”, demande son créateur. “Non”, répond Dolores, dans un tiret western parfaitement programmé.
Nous passons une grande partie de la saison à enraciner pour Dolores alors qu’elle se débat avec des sensations étranges à son moi androïde. Pourtant, nous passons aussi cette partie de la série dans une sorte de peur, alors que nous réalisons que les sentiments croissants de Dolorès démentent aussi sa sensibilité et son intelligence croissantes. L’ascension de Dolores vers l’intelligence consciente est marquée par une croissance de la capacité émotionnelle. Après avoir été témoin de la mort d’autres androïdes, Dolores cite des lignes sur la douleur et la perte. “Avons-nous écrit cela pour vous?”, demande son créateur. Elle dit non, ajoutant: “Je l’ai adapté à partir d’un dialogue scénarisé sur l’amour.” Et avec cela, nous apprenons que Dolores approche de l’intelligence humaine.
Quand nous pensons à l’intelligence, nous avons la tendance à nous concentrer sur des éléments tels que le raisonnement verbal, la planification, les compétences perceptuelles ou d’autres capacités cognitives. L’émotion a longtemps été complètement ignorée ou incluse seulement après coup dans les conceptions de l’intelligence. Peut-être, Westworld suggère, nous devrions également considérer l’émotion.
Un article récent dans la revue Trends in Cognitive Neurosciences a posé cette pensée provocatrice dans son titre: Les robots intelligents ont-ils besoin d’émotion? Dr. Luiz Pessoa de l’Université du Maryland, College Park soutient que, oui, la capacité émotionnelle avancée est nécessaire pour les cadres théoriques de l’intelligence. De plus, il soutient que l’émotion ne doit pas être seulement incluse mais intégrée à la cognition pour faire un robot vraiment intelligent.
Pessoa décrit une version mise à jour du Turing Test, un théorème classique de l’informatique. C’est simple: Une machine peut-elle manifester un comportement intelligent qui peut être confondu avec l’intelligence humaine? Le Test a vu son apogée de culture (voir l’un de nos _articles passé) sur le roman classique de Philip K. Dick, Androids Dream of Electric Sheep?), mais rarement la science-fiction influence directement la recherche scientifique comme dans l’article de Pessoa. Il l’appelle le Dolores Test – un clin d’œil pas si subtil au robot favori de Westworld. Le test de Dolores implique que les humains et les androïdes interagissent et se comportent ensemble; les deux seraient confondus avec la composition de l’autre si – et seulement si – l’émotion était intégrée à la cognition chez les androïdes.
Pour bien comprendre l’hypothèse de Pessoa, nous devons nous retirer de Westworld et demander: «Qu’est-ce que c’est l’intelligence?» La science elle-même ne sait pas mesurer cette construction. Les mesures vont du QI, une mesure composite des capacités verbales et perceptuelles, au facteur g, une construction plus large qui résume la performance corrélée d’un individu sur des nombreuses tâches cognitives. Le jury n’est pas encore arrivé sur que qui exactement dans le cerveau contribue à l’intelligence. De plus en plus d’études informatisées de l’intelligence cherchent à structurer les fonctions cognitives qui permettraient l’intelligence. Les fonctions cognitives sont des compétences telles que le raisonnement verbal, la capacité d’apprentissage ou la mémoire de travail. Ainsi, les composantes de l’intelligence, comment mesurer l’intelligence et comment répliquer l’intelligence dans les robots intelligents restent nébuleux.
Les principes classiques de l’intelligence, tels que le langage, sont montrés partout dans Westworld d’être une préoccupation sérieuse pour les créateurs et les gardiens des androïdes. Les androïdes du parc sont programmés pour avoir des capacités linguistiques sophistiquées, y compris l’improvisation contextuelle et parfois même citer Shakespeare, mais – revenant à l’idée de Pessoa – c’est peut-être la compréhension émotionnelle de Shakespeare qui indique à quel point ces robots sont intelligents. Comme toujours, citer Shakespeare dans le vide est assez simple. Comprendre la signification des mots du barde et les adapter en réponse aux stimuli externes pour exprimer l’émotion montre une intelligence beaucoup plus grande là-derrière.
N’avons-nous pas encore approché une véritable intelligence artificielle parce que nos modèles du cerveau séparent les «sentiments» des choses comme l’attention, la résolution des problèmes et la planification? L’article de Pessoa indique que dans le cerveau, les substrats émotionnels (par exemple l’amygdale) sont fortement interconnectés avec les substrats cognitifs (par exemple le lobe frontal). On les appelle des «réseaux cortico-sous-corticaux»: des boucles qui relient les structures émotionnelles les plus primitives du cerveau à ses mécanismes cognitifs plus récents. Les structures sous-corticales du cerveau peuvent fournir des entrées non conscientes aux structures corticales plus sophistiquées de la boucle, où une émotion consciente est assemblée. Ces réseaux corticaux-sous-corticaux créent un système qui, chez les humains sains et intelligents, permet à chaque système d’informer l’autre. Les émotions influencent notre façon de participer, comment nous résolvons les problèmes et comment nous planifions … que nous le voulions ou non. En appliquant cette idée aux machines réelles, supprimer un module émotionnel serait paralyser l’intelligence d’un robot.
Où cette idée pourrait-elle manquer d’intelligence artificielle? Les substrats neuraux de l’émotion sont bien délimités mais structurellement complexes. Construire une machine qui imite notre machinerie biologique pourrait s’avérer impossible. Ou, peut-être en dépit de l’affirmation de Pessoa, un module émotion-cognition intégré n’est pas nécessaire pour que les androïdes futures ressemblent à l’humanité. Peut-être que l’intelligence artificielle n’a pas besoin de connaître l’amour.
Quoi qu’il en soit, les recherches futures pourraient prendre des notes de Westworld, ou d’autres favoris de science-fiction, pour inspirer des hypothèses sur ce que la simulation de l’intelligence humaine pourrait exiger. Un jour, le simulacre androïde pourrait ne pas être un simulacre après tout.
Bibliographie
LeDoux, J.E. and Brown, R. (2017). A higher-order theory of emotional consciousness. PNAS.
Pessoa, L. (2016) Do intelligent robots need emotion? Trends in Cognitive Neurosciences.
Turing, A. (1950) Computing Machinery and Intelligence. Mind.

The key may be in creating artificial life, rather than artificial intelligence. Living organisms come into the world with a problem to solve: how to survive, thrive, and reproduce. Brains evolved in species in order to imagine more than one way to accomplish this, so that they could more successfully adapt to different physical and social environments. So, one of the distinctions between an intelligent species and a machine is that the living organism already has something important to think about.
Emotions seem important to decision making. In David Eagleman’s “The Brain” series on PBS, he used the example of a woman whose emotion center was injured, and it made grocery shopping nearly impossible. I guess that emotions are linked to concepts in a positive or negative way such that a choice might be calculated by summing the strengths of the emotional weights on both sides of the issue. Learning new things can also change how we feel about things, and adjust these weights.