Will Artificial Intelligence Fall in Love?

  • In a few months, millions of viewers will return to Westworld, the HBO original series about artificially intelligent androids inhabiting a Western theme park. The show, based on a 1973 film written by the late Michael Crichton, depicts the highs and lows of human nature through stirring plotlines built around rich vacationers, who pay to enter the titular theme park and live out their fantasies.

    Westworld is a classic simulacrum. It represents the Wild West: a setting where humanity’s wiles can run rampant without consequence, where androids live a recursive cycle of storylines without knowledge of their automated makeup. Westworld is thus a stand-in for reality, unknown to the android hosts—but not for long. The show’s questions (Who is android? Who is not?) are posited early in the first episode when Dolores, one of the central android protagonists, is questioned by a park technician about her self-awareness.

    “Do intelligent robots need emotion?”

    “Have you ever questioned the nature of your reality?” her creator asks. “No,” Dolores responds, in a perfectly programmed Western drawl.

    We spend much of the season rooting for Dolores as she grapples with sensations stranger to her android self. Yet, we also spend this portion of the show in a sort of fear, as we realize that Dolores’ growing sentiments also belie her increasing sentience and intelligence. Dolores’ ascent towards conscious intelligence is marked by a growth in emotional capacity. After witnessing the deaths of fellow androids, Dolores quotes lines on pain and loss. “Did we write that for you?” her creator asks. She says no, adding, “I adapted it from a scripted dialogue about love.” And with that, we learn that Dolores is approaching human intelligence.

    When we think about intelligence, we tend to focus on components like verbal reasoning, planning, perceptual skills, or other cognitive capabilities. Emotion has long been either ignored entirely or included in conceptions of intelligence as an afterthought. Perhaps, Westworld suggests, we should also consider emotion.

    A recent article in the journal Trends in Cognitive Neurosciences posed this provocative thought in its title: Do intelligent robots need emotion? Dr. Luiz Pessoa of University of Maryland, College Park argues that, yes, advanced emotional capacity is necessary for theoretical frameworks of intelligence. Further, he argues that emotion must be not just included but integrated with cognition in order to make a truly intelligent robot.

    Pessoa describes an updated version of the Turing Test, a classic adage of computer science. It’s simple: Can a machine manifest intelligent behavior that is mistakable for human intelligence? The Test has seen its pop culture hey day (see one of our past articles about Philip K. Dick’s classic novel, Do Androids Dream of Electric Sheep?), but rarely does science fiction so directly influence scientific inquiry as in Pessoa’s article. He calls it the Dolores Test—a not-so-subtle nod to Westworld’s favorite robot. The Dolores Test involves humans and androids interacting and behaving together; both would be confused with each other’s makeup if—and only if—emotion were integrated with cognition in the androids.

    To fully understand Pessoa’s hypothesis, we must retreat from Westworld and ask, “What is intelligence?” Science itself is unsure how to measure this construct. Measures range from intelligence quotient (IQ), a composite measure of verbal and perceptual abilities, to the g factor, a broader construct that summarizes an individual’s correlated performances on many cognitive tasks. The jury is out on what exactly in the brain contributes to intelligence. More computationally-based studies of intelligence now grapple with how to structure the cognitive functions that would enable intelligence. Cognitive functions are skills like verbal reasoning, learning ability, or working memory. Thus, the components of intelligence, how to measure intelligence, and how to replicate intelligence in intelligent robots remains unclear.

    “Perhaps it’s the emotional understanding of Shakespeare that indicates just how smart these robots are.”

    Classic tenets of intelligence, such as language, are shown throughout Westworld to be of serious concern to the androids’ creators and caretakers. The park’s androids are programmed to have sophisticated linguistic capabilities, including contextual improvisation and occasionally even quoting Shakespeare, but—returning to Pessoa’s idea—perhaps it’s the emotional understanding of Shakespeare that indicates just how smart these robots are. Quoting Shakespeare in a vacuum is fairly simple, as these things go. Understanding the meaning behind the Bard’s words and adapting them in response to external stimuli to express emotion exhibits a much greater intelligence at work.

    Have we not yet approached true artificial intelligence because our models of the brain separate “feelings” from things like attention, problem solving, and planning? Pessoa’s article points out that in the brain, emotional substrates (e.g. the amygdalaA collection of nuclei found in the temporal lobe. The amygd... More) are strongly interconnected with cognitive substrates (e.g. the frontal lobe). These are called cortical-subcortical networks: loops that twine the brain’s more primitive emotional structures to its more recently evolved cognitive machinery. Subcortical structures of the brain may provide non-conscious inputs to the loop’s more sophisticated cortical structures, where a conscious emotion is assembled. These cortical-subcortical networks create a system that—in healthy, intelligent humans—seamlessly allows each system to inform the other. Emotions influence how we attend, how we solve problems, and how we plan… whether we like it or not. By applying this idea to actual machines, removing an emotional module would cripple a robot’s intelligence.

    Where might this idea fall short for artificial intelligence? The neural substrates of emotion are well-delineated but structurally complex. To build a machine that mimics our biological machinery could prove impossible. Or, perhaps despite Pessoa’s assertion, an integrated emotion-cognition module isn’t necessary for future androids to resemble humanity. Maybe artificial intelligence doesn’t need to know love.

    Regardless, future research might take notes from Westworld, or other science fiction favorites, to inspire hypotheses on what simulating human intelligence might require. One day, the android simulacrum may not be a simulacrum after all.

    For our review of the Turing Test, click here!

    References:

    LeDoux, J.E. and Brown, R. (2017). A higher-order theory of emotional consciousness. PNAS.

    Pessoa, L. (2016) Do intelligent robots need emotion? Trends in Cognitive Neurosciences.

    Turing, A. (1950) Computing Machinery and Intelligence. Mind.

    Image by Huixuan Liang

  • L’intelligence artificielle tombera-t-elle amoureuse?

    Traduction en français par Nirosha Murugan.

    Dans quelques mois, des millions des téléspectateurs vont revenir à Westworld, la série originale de HBO sur les androïdes artificiellement intelligents qui habitent dans un parc à thème western. Le spectacle, basé sur un film de 1973 écrit par défunt Michael Crichton, dépeint les hauts et les bas de la nature humaine à travers des intrigues magnifiquement construites autour des riches vacanciers, qui paient pour entrer dans le parc thématique et vivre leurs fantasmes.

    Westworld est un simulacre classique. Il représente le Far West: un cadre où les malfrats de l’humanité peuvent sévir sans conséquences, où les androïdes vivent un cycle récursif de scénarios sans connaître leur composition automatisé. Westworld est donc un substitut à la réalité, inconnue des hôtes androïde – mais pas pour longtemps. Les questions du spectacle (Qui est androïde? Qui ne l’est pas?) sont posées au début du premier épisode quand Dolores, l’une des protagonistes androïdes centraux, est interrogée par un technicien du parc sur sa conscience de soi.

    “Avez-vous jamais questionné la nature de votre réalité?”, demande son créateur. “Non”, répond Dolores, dans un tiret western parfaitement programmé.

    Nous passons une grande partie de la saison à enraciner pour Dolores alors qu’elle se débat avec des sensations étranges à son moi androïde. Pourtant, nous passons aussi cette partie de la série dans une sorte de peur, alors que nous réalisons que les sentiments croissants de Dolorès démentent aussi sa sensibilité et son intelligence croissantes. L’ascension de Dolores vers l’intelligence consciente est marquée par une croissance de la capacité émotionnelle. Après avoir été témoin de la mort d’autres androïdes, Dolores cite des lignes sur la douleur et la perte. “Avons-nous écrit cela pour vous?”, demande son créateur. Elle dit non, ajoutant: “Je l’ai adapté à partir d’un dialogue scénarisé sur l’amour.” Et avec cela, nous apprenons que Dolores approche de l’intelligence humaine.

    Quand nous pensons à l’intelligence, nous avons la tendance à nous concentrer sur des éléments tels que le raisonnement verbal, la planification, les compétences perceptuelles ou d’autres capacités cognitives. L’émotion a longtemps été complètement ignorée ou incluse seulement après coup dans les conceptions de l’intelligence. Peut-être, Westworld suggère, nous devrions également considérer l’émotion.

    Un article récent dans la revue Trends in Cognitive Neurosciences a posé cette pensée provocatrice dans son titre: Les robots intelligents ont-ils besoin d’émotion? Dr. Luiz Pessoa de l’Université du Maryland, College Park soutient que, oui, la capacité émotionnelle avancée est nécessaire pour les cadres théoriques de l’intelligence. De plus, il soutient que l’émotion ne doit pas être seulement incluse mais intégrée à la cognition pour faire un robot vraiment intelligent.

    Pessoa décrit une version mise à jour du Turing Test, un théorème classique de l’informatique. C’est simple: Une machine peut-elle manifester un comportement intelligent qui peut être confondu avec l’intelligence humaine? Le Test a vu son apogée de culture (voir l’un de nos _articles passé) sur le roman classique de Philip K. Dick, Androids Dream of Electric Sheep?), mais rarement la science-fiction influence directement la recherche scientifique comme dans l’article de Pessoa. Il l’appelle le Dolores Test – un clin d’œil pas si subtil au robot favori de Westworld. Le test de Dolores implique que les humains et les androïdes interagissent et se comportent ensemble; les deux seraient confondus avec la composition de l’autre si – et seulement si – l’émotion était intégrée à la cognition chez les androïdes.

    Pour bien comprendre l’hypothèse de Pessoa, nous devons nous retirer de Westworld et demander: «Qu’est-ce que c’est l’intelligence?» La science elle-même ne sait pas mesurer cette construction. Les mesures vont du QI, une mesure composite des capacités verbales et perceptuelles, au facteur g, une construction plus large qui résume la performance corrélée d’un individu sur des nombreuses tâches cognitives. Le jury n’est pas encore arrivé sur que qui exactement dans le cerveau contribue à l’intelligence. De plus en plus d’études informatisées de l’intelligence cherchent à structurer les fonctions cognitives qui permettraient l’intelligence. Les fonctions cognitives sont des compétences telles que le raisonnement verbal, la capacité d’apprentissage ou la mémoire de travail. Ainsi, les composantes de l’intelligence, comment mesurer l’intelligence et comment répliquer l’intelligence dans les robots intelligents restent nébuleux.

    Les principes classiques de l’intelligence, tels que le langage, sont montrés partout dans Westworld d’être une préoccupation sérieuse pour les créateurs et les gardiens des androïdes. Les androïdes du parc sont programmés pour avoir des capacités linguistiques sophistiquées, y compris l’improvisation contextuelle et parfois même citer Shakespeare, mais – revenant à l’idée de Pessoa – c’est peut-être la compréhension émotionnelle de Shakespeare qui indique à quel point ces robots sont intelligents. Comme toujours, citer Shakespeare dans le vide est assez simple. Comprendre la signification des mots du barde et les adapter en réponse aux stimuli externes pour exprimer l’émotion montre une intelligence beaucoup plus grande là-derrière.

    N’avons-nous pas encore approché une véritable intelligence artificielle parce que nos modèles du cerveau séparent les «sentiments» des choses comme l’attention, la résolution des problèmes et la planification? L’article de Pessoa indique que dans le cerveau, les substrats émotionnels (par exemple l’amygdale) sont fortement interconnectés avec les substrats cognitifs (par exemple le lobe frontal). On les appelle des «réseaux cortico-sous-corticaux»: des boucles qui relient les structures émotionnelles les plus primitives du cerveau à ses mécanismes cognitifs plus récents. Les structures sous-corticales du cerveau peuvent fournir des entrées non conscientes aux structures corticales plus sophistiquées de la boucle, où une émotion consciente est assemblée. Ces réseaux corticaux-sous-corticaux créent un système qui, chez les humains sains et intelligents, permet à chaque système d’informer l’autre. Les émotions influencent notre façon de participer, comment nous résolvons les problèmes et comment nous planifions … que nous le voulions ou non. En appliquant cette idée aux machines réelles, supprimer un module émotionnel serait paralyser l’intelligence d’un robot.

    Où cette idée pourrait-elle manquer d’intelligence artificielle? Les substrats neuraux de l’émotion sont bien délimités mais structurellement complexes. Construire une machine qui imite notre machinerie biologique pourrait s’avérer impossible. Ou, peut-être en dépit de l’affirmation de Pessoa, un module émotion-cognition intégré n’est pas nécessaire pour que les androïdes futures ressemblent à l’humanité. Peut-être que l’intelligence artificielle n’a pas besoin de connaître l’amour.

    Quoi qu’il en soit, les recherches futures pourraient prendre des notes de Westworld, ou d’autres favoris de science-fiction, pour inspirer des hypothèses sur ce que la simulation de l’intelligence humaine pourrait exiger. Un jour, le simulacre androïde pourrait ne pas être un simulacre après tout.

    Bibliographie

    LeDoux, J.E. and Brown, R. (2017). A higher-order theory of emotional consciousness. PNAS.

    Pessoa, L. (2016) Do intelligent robots need emotion? Trends in Cognitive Neurosciences.

    Turing, A. (1950) Computing Machinery and Intelligence. Mind.

    Huixuan Liang

Gabrielle Torre

Gabrielle Torre

Gabrielle-Ann is a PhD student at Georgetown University and studies the neural correlates of reading, IQ, and socioeconomic status. She is broadly interested in using neuroimagingTechniques for viewing the brain and its activity, especiall... More methods to ask questions about human cognitive behaviors and abilities. Previously, she studied brain-behavior relationships in healthy aging at the University of Arizona, where she developed a love for literature and creative writing. She still enjoys reading and writing, as well as live music, gender studies, and eating.
Gabrielle Torre

Latest posts by Gabrielle Torre (see all)

Gabrielle Torre

Gabrielle-Ann is a PhD student at Georgetown University and studies the neural correlates of reading, IQ, and socioeconomic status. She is broadly interested in using neuroimaging methods to ask questions about human cognitive behaviors and abilities. Previously, she studied brain-behavior relationships in healthy aging at the University of Arizona, where she developed a love for literature and creative writing. She still enjoys reading and writing, as well as live music, gender studies, and eating.

One thought on “Will Artificial Intelligence Fall in Love?

  • December 15, 2017 at 10:14 am
    Permalink

    The key may be in creating artificial life, rather than artificial intelligence. Living organisms come into the world with a problem to solve: how to survive, thrive, and reproduce. Brains evolved in species in order to imagine more than one way to accomplish this, so that they could more successfully adapt to different physical and social environments. So, one of the distinctions between an intelligent species and a machine is that the living organism already has something important to think about.

    Emotions seem important to decision making. In David Eagleman’s “The Brain” series on PBS, he used the example of a woman whose emotion center was injured, and it made grocery shopping nearly impossible. I guess that emotions are linked to concepts in a positive or negative way such that a choice might be calculated by summing the strengths of the emotional weights on both sides of the issue. Learning new things can also change how we feel about things, and adjust these weights.

    Reply

Leave a Reply

%d bloggers like this:
Skip to toolbar