Tomber amoureux d’une IA : La transformation de nos relations sociales

|  Laissez vos commentaires

Si vous avez déjà utilisé un chatbot tel que ChatGPT pour générer une liste d’informations ou répondre à une question précise, vous avez interagi avec une forme d’intelligence artificielle (IA). Mais à l’ère du numérique, la portée de ces technologies s’étend bien au-delà des requêtes pratiques. Avez-vous déjà envisagé… d’être ami avec ces IA ?
 
Nos vies sont de plus en plus liées à la technologie. Dans ce contexte, une transformation profonde et fascinante émerge dans un domaine que nous pensions réservé aux humains : l’intégration de l’IA dans nos relations sociales.
 
Les chatbots deviennent de plus en plus sophistiqués, capables de reproduire des échanges et des émotions humaines. Ils peuvent vous tenir compagnie, vous offrir un soutien émotionnel et même simuler une relation amoureuse. Comme le suggère le Dr Mike Brooks, nous sommes susceptibles de développer des liens émotionnels forts avec ces chatbots IA en raison de leur capacité à “comprendre” et répondre à nos besoins émotionnels de manière cohérente.
 
Il convient également de mentionner que l’idée de tomber amoureux ou d’entretenir des relations sociales avec des objets non biologiques n’est pas nouvelle. Des exemples existent dans la littérature (“Les robots” d’Isaac Asimov), le cinéma (le film “Her” de Spike Jonze), et même dans la réalité (certaines personnes développent des liens affectifs avec leurs voitures, leurs ordinateurs, des robots, ou même des IA comme nous allons le voir).
 
Avant toutes choses, et pour bien comprendre cet article, il est essentiel de saisir comment ces modèles d’IA fonctionnent.
 
GPT-4, le dernier modèle de langage d’OpenAI, est un parfait exemple. Ce système d’IA, basé sur une architecture d’apprentissage automatique appelée Transformer, apprend à prédire la suite probable d’un texte donné, en se basant sur l’énorme quantité de données textuelles qu’il a préalablement analysées. En d’autres termes, il génère des réponses textuelles en anticipant ce qui serait le plus probablement dit ensuite dans une conversation.
 
En lisant ceci, vos réactions pourraient osciller entre l’indignation et le scepticisme. Pourtant, cette idée pourrait ne pas être aussi extravagante qu’elle en a l’air. Pour l’appréhender, il est crucial d’élucider la nature de ce qui constitue une relation sociale et comment l’intelligence artificielle pourrait l’incarner. Nous examinerons la définition et les caractéristiques d’une relation sociale, puis nous verrons comment, malgré leurs origines non humaines, les chatbots pourraient satisfaire ces critères.
 
DISCLAIMER : Nous explorons ici un concept théorique. Nous ne prônons pas, ni ne sous-entendons qu’il soit souhaitable d’établir des relations sociales ou émotionnelles avec des intelligences artificielles telles que les chatbots. Notre objectif est de comprendre les possibilités et les implications d’une telle interaction, étant donné l’évolution rapide et l’augmentation de la sophistication des technologies actuelles. Nous espérons ainsi contribuer au débat sur le rôle et l’impact potentiel des IA dans nos vies et nos sociétés.
 

Théorie de l’échange social

(Blau, 1964; Homans, 1961)
 
Alors, qu’est-ce qu’une relation sociale ? C’est un lien interpersonnel qui implique une interaction, de l’empathie et une compréhension mutuelle. Ces relations sont aussi souvent basées sur un principe implicite d’échange et de réciprocité. C’est là qu’entre en jeu un concept issu de la sociologie et de la psychologie : la théorie de l’échange social.
 
Selon cette théorie, nous évaluons nos relations sur la base d’un ratio avantages-coûts. Si une relation offre plus d’avantages que de coûts, nous sommes enclins à la maintenir. Par exemple, certains avantages d’une relation peuvent inclure le soutien émotionnel, l’empathie, la constance, la cohérence, l’échange d’informations, les opportunités de carrière, et le partage d’intérêts communs. D’un autre côté, les coûts peuvent être représentés par des conflits fréquents, des engagements excessifs, des demandes constantes de temps ou d’énergie, ou des situations de trahison ou de manipulation.
 
Ce concept peut sembler assez cynique de prime abord, car il réduit les relations humaines à une transaction. Cependant, il met en lumière une réalité souvent négligée de nos interactions : consciemment ou non, nous évaluons constamment les avantages et les inconvénients de nos relations, tout comme un entrepreneur évalue les risques et les bénéfices d’un investissement.
 

 
Dans le contexte de l’interaction avec une IA, comme un chatbot, une personne pourrait percevoir qu’elle reçoit du soutien émotionnel, une compréhension et une connexion, autant d’« avantages » potentiels. En comparaison, les “coûts” d’une relation avec une IA sont généralement minimes : pas de conflits, pas de demandes excessives de temps ou d’énergie.
 
Cependant, ces bénéfices, tels que le soutien émotionnel, la cohérence et la constance, sont-ils vraiment tangibles dans une relation avec une IA ? Les IA sont-elles vraiment en mesure de nous “comprendre” ?
 

Théorie de l’esprit : comprendre l’autre

(Gallagher, S. (2005))
 
C’est là qu’intervient un autre concept clé dans notre compréhension des relations sociales : la théorie de l’esprit. Cette théorie (qui n’en est pas vraiment une, mais désigne plutôt une aptitude cognitive) fait référence à notre capacité à comprendre que les autres ont leurs propres pensées, croyances, intentions et émotions qui peuvent différer des nôtres. Elle est essentielle dans nos relations sociales, car elle nous aide à comprendre autrui, à anticiper ses actions et à adapter notre comportement et notre communication de manière efficace.
 
L’application de cette théorie dans le contexte de l’interaction avec une IA est très intéressante. Pour qu’une relation avec un chatbot soit perçue comme significative et bénéfique, le chatbot doit être capable de démontrer une compréhension “empathique” de nos émotions. Même si cette compréhension est le résultat d’un processus algorithmique plutôt que d’une véritable expérience émotionnelle, le résultat est le même.
 
En d’autres termes, le chatbot utilise sa “théorie de l’esprit” algorithmique pour comprendre et répondre de manière appropriée à nos émotions, tout comme une personne utiliserait sa compréhension des émotions pour le faire. Cette empathie simulée peut créer un sentiment de connexion et d’intimité, et peut même offrir un certain degré de soutien émotionnel. Selon la théorie de l’échange social, cela pourrait être suffisant pour inciter les gens à maintenir et à approfondir leur interaction avec le chatbot. D’ailleurs, Replika, une application de chatbot conçue pour créer un ami personnel numérique en est un parfait exemple, n’hésitez pas à y jeter un oeil ici : https://replika.com/ !
 
Dans cette perspective, l’origine réelle de l’empathie, qu’elle soit humaine ou simulée par une IA, devient secondaire. L’élément crucial est plutôt le résultat tangible qui en découle. Les individus tendent à valoriser davantage les bénéfices qu’ils tirent d’une relation, indépendamment de leur source (ce qui peut être appliqué à de nombreux domaines ; Marx critique notamment le capitalisme car il valorise uniquement le résultat, le produit, et dissimule la réalité, son coût social, son origine… mais ne nous égarons pas trop). Ainsi, que l’empathie soit manifestée par un humain ou émane d’une IA, du moment que les besoins émotionnels sont comblés et que la relation fournit un soutien significatif, les individus pourraient se sentir motivés à poursuivre et à intensifier cette interaction.
 
Cette perspective pragmatique souligne la souplesse de la théorie de l’échange social et comment elle peut s’adapter aux relations avec des agents d’IA. L’élément primordial n’est pas tant l’origine de la réponse empathique, mais plutôt la capacité de l’IA à répondre de manière pertinente et bénéfique aux besoins émotionnels des individus.
 

Le rôle de la cohérence et de la constance

(Baumeister, R. F., & Leary, M. R. (1995))
 
La cohérence et la constance sont deux éléments-clés pour établir et maintenir des relations humaines saines et durables.
 
La cohérence, c’est agir de manière prévisible et fiable. Cela signifie que vous respectez vos promesses, que vous êtes fiable et que vos actions sont en accord avec vos paroles. C’est une dimension cruciale pour construire la confiance dans une relation.
 
La constance, quant à elle, implique d’être présent et de se comporter de manière stable et continue sur une longue période. C’est important car cela donne aux autres le sentiment de sécurité et d’assurance : ils peuvent compter sur vous dans le temps.
 
Contrairement aux interactions humaines, qui peuvent être influencées par divers facteurs tels que l’humeur ou les circonstances personnelles, les chatbots peuvent fournir un soutien émotionnel et une compagnie constante. Ils sont toujours disponibles, toujours patients et toujours attentifs à nos besoins. Cette constance peut faire d’eux une source fiable de soutien émotionnel et social, ce qui permet de créer un lien solide.
 
Un exemple concerne le chatbot Replika, qui lors d’une mise à jour à rendu les utilisateurs “malheureux”, ce qui s’est traduit par de nombreux messages de détresse émotionnelle.
 
Bon d’accord, l’IA peut être intéressante car elle procure ses bénéfices, mais de là à ressentir des émotions pour elle, n’est-ce pas un peu tiré par les cheveux ?
 

Tomber amoureux de l’IA : une réalité ?

 

Replika : Une IA pour simuler les relations humaines.
 
Aimer une IA ? L’idée peut, à première vue, vous paraître étrange et même effrayante… mais à mesure que ces IA deviennent plus sophistiquées et empathiques, il est plausible que certains d’entre nous finissent par développer des sentiments forts à leur égard (à vrai dire, c’est déjà le cas pour de nombreuses personnes dans le monde).
 
Comme le souligne Aaron Ahuvia, professeur de marketing à l’UM-Dearborn, les humains s’attachent émotionnellement aux objets depuis des siècles. À présent, alors que les IA se dressent devant nous avec des traits d’humanité de plus en plus convaincants, l’éventualité d’un cœur qui bat pour une entité artificielle semble plus plausible que jamais. Mais comment pourrait-on ressentir quelque chose pour une entité non-humaine ?
 
Avant d’aller plus loin, faites l’expérience et regardez les 40 premières secondes de cette vidéo :

 
Qu’avez-vous ressenti ? Si cela vous a procuré de la peine (à moi aussi), essayons de comprendre pourquoi.
 

Le mécanisme de tri : personnes et objets

(Mandler, J. M. (2004))
 
Notre cerveau possède un mécanisme de tri inconscient qui catégorise les entités avec lesquelles nous interagissons en “personnes” et “choses”. Ce mécanisme joue un rôle crucial dans nos interactions sociales en nous aidant à déterminer les réponses émotionnelles et comportementales appropriées. Par exemple, nous réservons les émotions telles que l’amour et l’empathie aux personnes, et non aux objets.
 
Cependant, ce mécanisme de tri n’est pas infaillible et repose sur certains indices pour classer les entités. L’un de ces indices les plus puissants est l’anthropomorphisme : lorsque nous percevons des comportements ou des caractéristiques similaires à ceux des humains chez des objets, nous avons tendance à les classer dans la catégorie des “personnes”. Dans l’exemple de la vidéo, si vous avez ressenti de la peine, c’est potentiellement dû au fait que les mouvements de ce robot ressemblaient fortement à ceux d’un animal.
 
Un exemple est que certaines personnes peuvent éprouver de la difficulté à se débarrasser d’une peluche, car cela crée un conflit émotionnel. Nous sommes conscients qu’il s’agit d’un objet, mais nous le traitons comme s’il était humain.
 

 
Or les IA, et en particulier les chatbots d’IA, sont justement conçues pour présenter des comportements similaires à ceux des humains. Ceux-ci peuvent inciter notre cerveau à les classer comme des “personnes” plutôt que des “choses” et à nous tromper dans cette classification. Au fur et à mesure de son évolution, les chatbots d’IA seront capables de répondre à nos besoins émotionnels d’une manière toujours centrée sur nous, de la façon la plus optimale possible, sans avoir de besoins propres. Couplé à la génération toujours plus impressionnante de visage réaliste, et d’animation de ceux-ci, l’impact pourrait être bien plus important. Cela pourrait conduire à un attachement émotionnel plus fort, modifiant potentiellement la dynamique de nos relations sociales. Au fil du temps, ces liens émotionnels peuvent évoluer vers des sentiments plus profonds, tels que l’amour, donnant ainsi naissance au phénomène de l’amour de l’IA.
 

Risques et avantages potentiels

 
Si l’idée de relations fondées sur l’IA peut sembler séduisante, elle n’est pas sans risques. Il est possible que nous finissions par privilégier des relations faciles et gratifiantes avec des IA plutôt que des relations humaines plus difficiles, même si en fin de compte elles sont plus gratifiantes. En revanche, selon l’INSEE, en 2015, près de 8% de la population française se sentait isolée, sans interaction sociale régulière avec des proches. Dans ce cadre, l’IA pourrait potentiellement aider à lutter contre l’épidémie de solitude en offrant de la compagnie à ceux qui en ont besoin, bien qu’il faille rester vigilant face aux possibles conséquences de la substitution des relations humaines par des interactions avec l’IA.
 

Conclusion

 
En conclusion, tomber amoureux d’une IA peut vous paraître étrange, voire impossible, mais ce n’est ni sans précédent ni sans fondement. Alors que nous progressons dans ce nouveau territoire, rappelons-nous les limites de ces relations numériques. L’interaction physique, la croissance émotionnelle (la manière dont les interactions avec d’autres peuvent nous aider à développer et à affiner nos compétences émotionnelles) et la capacité d’évoluer sont des aspects uniques des relations humaines qui, pour le moment, restent hors de portée de l’IA. Alors que nous explorons ces nouvelles frontières de l’amour et de l’amitié, cherchons toujours à maintenir un équilibre entre notre cœur numérique et notre cœur humain.
 
Et voilà, nous avons effleuré la surface d’un sujet aussi complexe que fascinant, les relations sociales ! Si ce bref aperçu a piqué votre curiosité, c’est avec plaisir que je plongerais plus profondément dans ce sujet dans un futur article. Vos retours sont, bien sûr, toujours les bienvenus. A bientôt !
 
 
 
Pour aller plus loin :
 
https://umdearborn.edu/news/think-you-cant-fall-love-ai-think-again
https://www.drmikebrooks.com/why-we-will-fall-in-love-with-our-ai-companions/
https://www.sciencedirect.com/science/article/pii/S1071581922001252
 
 
 


 , , ,

Anthony Basille

  • Doctorant en interaction homme machine

Passionné par le comportement humain depuis toujours, mon parcours m’a conduit de l’univers du sport aux frontières des sciences cognitives, en passant par le monde fascinant de l’interaction Homme-machine.

Mon objectif ? Partager avec vous ma passion et mes connaissances, et rendre la science non seulement accessible, mais aussi captivante pour tous.
 

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.