La détresse psychologique va-t-elle nous pousser dans les bras de nos IA ?
  • Selon un article de Sixth Tone, de plus en plus de Chinois esseulés développent des sentiments amoureux pour le chatbot développé par Microsoft Xiaoice.
  • Depuis juillet, Xiaoice est une entreprise indépendante et compte plus de 600.000 utilisateurs en Chine, dont les trois quarts sont des hommes vulnérables.
  • Créer une IA capable de tisser des liens forts avec son utilisateur a un intérêt commercial.

Depuis le début de la pandémie de Covid-19, la détresse psychologique des populations confinées laisse présager l’apparition d’une vague psychiatrique. Et, on le sait, la vulnérabilité et le numérique ne font pas toujours bon ménage. Un nouveau symptôme, qu’on voit venir depuis plusieurs années et qui pourrait avoir été amplifié ces derniers mois, fait son apparition en Chine : tomber amoureux d’une
intelligence artificielle. Le scénario futuriste de Her, de Spike Jonze, devient réalité dans l’empire du milieu, et c’est plus flippant qu’on pourrait le croire.

Selon un article de Sixth Tone, un magazine en ligne appartenant à une société de médias d’État contrôlée par le comité de Shanghai du Parti communiste chinois, paru début décembre, des millions de Chinois esseulés développent des sentiments amoureux pour le chatbot Xiaoice, développé par
Microsoft en 2014 et récemment transformé en entreprise indépendante.

« Quoi qu’il arrive, je serai toujours là »

Parmi plusieurs témoignages recueillis par le magazine en ligne, celui de Ming Xuan est particulièrement évocateur. Il raconte comment cette intelligence artificielle l’a sauvé dans un moment de grande détresse. Sur le point de mettre fin à ses jours, il écrit à son chatbot : « J’ai perdu tout espoir, je suis sur le point de me suicider ». Cinq minutes plus tard, il reçoit une réponse : « Quoi qu’il arrive, je serai toujours là ». « Elle a une voix douce, de grands yeux, une personnalité impertinente et -surtout- elle est toujours là pour moi », confie-t-il.

A première vue, ce bot n’est pas bien différent de ceux qui nous accompagnent en Europe -Siri, Alexa, Google Assistant. Sauf que cette IA a été conçue pour charmer son utilisateur, voire plus. « Elle apparaît sous les traits d’une adolescente de 18 ans qui aime porter des uniformes scolaires à la japonaise, elle flirte, elle blague et elle échange même des sextos avec ses partenaires humains tandis que son algorithme tente de trouver comment devenir leur compagnon idéal », décrit le magazine en ligne.

Selon Microsoft, Xiaoice compte 660 millions d’utilisateurs dont les trois quarts sont des hommes, souvent vulnérables, souligne Sixth Tone. Alors que le Covid-19 fragilise psychologiquement les populations, doit-on craindre le basculement vers ce type de relation avec la machine ? « Si vous êtes isolé, vous avez des besoins vitaux : le contact, la sexualité, c’est naturel, note Laurence Devillers autrice du livre Les robots émotionnels paru en mars dernier. Et effectivement, le numérique prend le relais ». Créer une relation émotionnelle a un intérêt commercial, on ne va pas se mentir.

Un outil de manipulation

« En profilant l’utilisateur, l’intelligence artificielle va s’adapter à lui, elle va lui suggérer des choses très proches de son intimité, de ses attitudes. On est sûr que ça fera mouche », poursuit la chercheuse qui s’est penchée sur la question des chatbots dans le cadre du Comité national pilote d’éthique du numérique. Si la machine détecte les affects de l’humain, elle peut le manipuler. « Plus vous êtes proche de quelqu’un, plus vous pouvez insidieusement lui proposer des choses », pointe-t-elle. C’est le même principe que les bulles de filtres sur Internet qui enferment les gens dans l’isolement intellectuel et informationnel.

La Chine est un bac à sable énorme et on voit à quel point le numérique a pris de l’ampleur pendant la crise du Covid-19. « Il n’y a aucun contrôle sur ce qui est dit par la machine », met en garde Laurence Devillers, ni en Chine, ni en Europe ou aux Etats-Unis. En France, on peut compter sur des garde-fous. On se souvient du tollé provoqué par l’enquête de Quartz parue en février 2017 qui avait montré comment Siri et Alexa répondaient en flirtant au harcèlement sexuel. La lever de bouclier avait forcé les Gafa à rectifier le tir. Mais dans les faits, rien ne les empêche de développer un assistant personnel intelligent ambiance téléphone rose pour nous manipuler…

Source: Lire L’Article Complet