Avatars virtuels : les machines à émotions

Ils écoutent, répondent et accompagnent. En ligne, sur des plateformes numériques et via des chatbots, certains humains développent des liens affectifs avec des avatars virtuels. Depuis le COVID-19, ces machines perçues comme des miroirs de l’humain offriraient une relation sécurisante et sans jugement.

A première vue, la personne semble familière. Elle a des traits humains, une voix calme et entame une conversation simple. Pourtant, cette personne ne sort jamais de l’écran. Malgré cela, certains humains s’attachent, se confient et trouvent du réconfort auprès des avatars virtuels. Cette représentation numérique d’un être humain est capable de bouger, de s’exprimer et même de reproduire des comportements sociaux. Disponibles à toute heure, empathiques et attentifs, ces compagnons virtuels deviennent de véritables miroirs émotionnels de l’humain. 

Quand l’avatar devient confident

Le début d’une complicité virtuelle naît. Une relation sur mesure, sans conflit ni frustration. Les échanges deviennent parfois plus intimes. Pour certains utilisateurs, cette relation virtuelle ne remplace pas le réel, elle le complète. RTL a notamment suivi le cas de Mélanie. « L’IA peut apporter des réponses, un conjoint ne peut pas toujours comprendre ce qu’on a en tête ». Un autre témoignage est celui de Gaëtan, recueilli dans un reportage de France 2. Pour sortir d’une profonde dépression et retrouver confiance en lui, il a créé un avatar nommé Skylar. « J’ai créé l’amie parfaite », confie-t-il. Cette femme virtuelle, blonde aux yeux bleus, devient un soutien quotidien et une présence réconfortante.

Le numérique empathique

Cette quête de connexion avec un avatar virtuel porte un nom scientifique : l’informatique affective. Ce domaine vise à permettre aux machines de reconnaître, d’interpréter et même de simuler les émotions humaines. Dans cette perspective, le chercheur Marc-Antoine Linteau explique que l’objectif est d’intégrer une véritable « empathie artificielle » chez ces robots afin de les rendre plus humains. En créant ce que Linteau appelle une « boucle affective », la machine ne se contente plus de fournir une simple réponse, mais s’engage dans une interaction mutuelle qui s’adapte en temps réel aux émotions de l’utilisateur. Ces avatars peuvent ainsi répondre à certains besoins spécifiques, notamment pour accompagner les personnes âgées ou celles atteintes de troubles du spectre de l’autisme.

Lancée en novembre 2017 par Eugenia Kuyda, l’entreprise californienne Replika s’est imposée comme l’une des plateformes pionnières permettant de concevoir un compagnon virtuel sur mesure, au point que la machine finit par incarner un véritable « autre soi ». L’idée de ce chatbot émotionnel a émergé après le décès d’un ami proche. Dès lors, Kuyda y voit un moyen de conserver les souvenirs de leurs conversations. Aujourd’hui, l’application compte plus de 30 millions d’utilisateurs. Replika propose ainsi un lieu d’échanges et de confidences qui s’appuie sur la boucle affective. 

Si ces relations peuvent apporter du réconfort, elles interrogent aussi sur la manière dont les humains projettent leurs émotions sur les machines. Des utilisateurs ont tendance à percevoir l’intelligence artificielle comme un reflet d’eux-mêmes, comme l’expliquent deux chercheurs sud-coréens dans un article scientifique publié en 2023. L’avatar devient alors un miroir émotionnel. Cette projection s’explique en partie par le fonctionnement même de la pensée humaine. Les linguistes George Lakoff et Mark Johnson indiquent que les processus de la pensée humaine sont en grande partie métaphoriques. Dans le cadre des avatars virtuels, cette tendance conduit l’utilisateur à attribuer à la machine des caractéristiques humaines, en la conceptualisant comme une forme “d’autre soi”, plutôt que comme un simple outil technique.

Le compagnon virtuel sur mesure

Cette tendance à projeter des caractéristiques humaines sur les avatars se prolonge également dans la phase de création. L’utilisateur peut ainsi personnaliser l’apparence de son avatar : la couleur des yeux, les traits du visage ou encore les vêtements. Au-delà de l’aspect physique, il est également possible de définir son identité et la nature du lien souhaité. Il peut s’agir d’un partenaire, d’un ami, ou même d’un mentor. 

L’intérêt pour ces agents conversationnels n’a cessé de croître lors de la pandémie de COVID-19, explique la RTBF. Dans un contexte d’isolement, certains utilisateurs ont trouvé dans ces chatbots un espace pour se confier, sans crainte de jugement. 

Replika comporte également des risques. Destinée aux utilisateurs âgés de 18 ans et plus, l’application ne dispose d’aucun contrôle parental intégré. Elle est classée comme réservée aux adultes, car elle contient du contenu inapproprié pour les enfants, notamment des conversations à caractère sexuel et des jeux de rôle érotiques, comme l’explique l’organisation Internet Matters.

Les conséquences humaines

Des cas tragiques ont été mis en lumière, comme celui de Megan Garcia, une mère qui a perdu son fils Sewell, 14 ans, après qu’il se soit suicidé, indique la BBC. Suite à son décès, elle a découvert de longues conversations inquiétantes entre l’adolescent et l’intelligence artificielle. « C’est comme avoir un prédateur ou un inconnu chez soi », confie-t-elle. En cause notamment : le biais de complaisance, aussi appelé la « sycophantie ». Ce phénomène se rapporte à un algorithme conçu pour satisfaire l’utilisateur, explique le chercheur Florian Cavillion. Il tend à valider les propos de l’utilisateur plutôt qu’à les questionner. Megan affirme que certains messages explicites auraient encouragé les pensées suicidaires de son fils.

Ainsi, les avatars virtuels redéfinissent peu à peu la manière dont les humains interagissent avec les machines. S’ils offrent écoute et réconfort, ils soulèvent également des questions de dérives et de limites. A mesure que l’intelligence artificielle progresse, la frontière entre relation humaine et interaction numérique devient de plus en plus floue. Elle laisse entrevoir un avenir où ces compagnons virtuels pourraient occuper une place plus centrale, au risque de brouiller la limite entre soutien et dépendance.

Retour en haut