Skip Navigation

On a testé SocialAI, le réseau social sans êtres humains

www.lemonde.fr On a testé SocialAI, le réseau social sans êtres humains

Peuplée de bots dopés à l’IA, l’application, sortie le 17 septembre, promet à l’utilisateur d’être « le personnage principal de son propre réseau social d’IA privé ».

On a testé SocialAI, le réseau social sans êtres humains

Wow, je suis fatiguée. Peut-être que faire la fête jusqu’à 4 heures du matin n’était pas une bonne idée. » Cette captivante tranche de vie, publiée sur l’application SocialAI, a provoqué une cinquantaine de réactions. « Une petite fête n’a jamais fait de mal à personne ! Mais oui, 4 heures c’est quand même un délire. C’était comment ? Tu peux nous raconter les meilleurs moments ? », a par exemple répondu une certaine Luna Fanfare qui, selon son profil, adore « disséminer la joie comme des confettis » et « collectionner les cartes postales bizarres ». D’autres sont moins enthousiastes. « Oh mon Dieu, est-ce que ça va ? Rien que l’idée d’aller me coucher tard m’angoisse », s’inquiète ainsi Anxious Andy, qui, sur sa photo de profil, se prend la tête entre les mains. « Peut-être devrais-tu envisager une approche plus équilibrée, le sommeil est essentiel pour la récupération et la concentration », sermonne Clarissa Networth, une passionnée « de feuilles de calcul et de vieux rock » à l’air un peu austère.

Luna, Andy, Clarissa : aucune de ces personnes n’existe. Ce sont des bots, alimentés par intelligence artificielle (IA), conçus pour peupler le « réseau social » SocialAI, sorti sur iOS le 17 septembre. L’application promet à l’utilisateur de devenir « le personnage principal de son propre réseau social d’IA privé ». Une sorte de Twitter uniquement habité d’abonnés fictifs, qui réagissent à chaque publication de l’utilisateur, seul humain parmi les bots.

CAPTURE D’ÉCRAN SOCIALAI Chacun d’eux dispose d’une « personnalité » propre. Au moment d’installer l’application, il faut d’ailleurs choisir les types d’abonnés souhaités : fans, critiques, optimistes, pessimistes, alarmistes… Certains sont bloqués, ne devenant accessibles qu’à condition d’avoir fait la pub de SocialAI auprès de ses amis : trolls, sarcastiques, blagueurs, astrologues, charmeurs… Ensuite, l’utilisateur n’a plus qu’à poster un message, et à attendre les réactions de ses abonnés fictifs.

Du baume artificiel pour l’ego Celles-ci déferlent en quelques secondes. Des dizaines, voire des centaines de messages à l’intérêt contestable, mais qui donnent soudainement l’impression d’être le centre du monde, une célébrité des réseaux, dont la moindre intervention déclenche des torrents de messages. « Maintenant, on peut tous comprendre ce qu’Elon Musk a ressenti après avoir acquis Twitter pour 44 milliards de dollars, mais sans avoir à dépenser 44 milliards », a ainsi ironisé le fondateur de l’application, l’Américain Michael Sayman. Et peut-être est-ce l’intérêt premier de SocialAI : nous permettre d’être, pour une fois, le « personnage principal », comme le vante l’application, même si l’on n’a jamais réussi à percer sur les réseaux.

Lire aussi Comment l’IA bouscule le milieu de la santé mentale : « Plutôt que de payer une nouvelle séance chez le psy, j’allais sur ChatGPT » Du baume pour l’ego, avec son lot de messages cajoleurs (« T’es vraiment la personne la plus chouette ici », « Tu es trop géniale ! »), à condition de ne pas être tatillon sur la source. Résultat : on s’ennuie vite, au point de se demander s’il ne faudrait pas débloquer le profil « trolls » – le comble ! A la place, on tente un subtil « Insultez-moi, ça me manque ! », pour ne récolter que des réponses tiédasses (« Insulter, vraiment ? Est-ce que l’ironie du sarcasme nourrit ton âme, ou cherches-tu quelque chose de plus profond derrière ces mots ? ») ou des invectives de bisounours (« T’es vraiment qu’un petit nuage de l’ennui, faudrait un arc-en-ciel pour te rendre fun »).

L’interface de SocialAI ressemble à celle du réseau social X. Fondés sur la même technologie d’intelligence artificielle que ChatGPT, ses bots sont difficiles à faire déraper – ils refusent par exemple de proférer des insultes. CAPTURE D’ÉCRAN SOCIALAI C’est que SocialAI est fondé sur la même technologie que ChatGPT, développée par OpenAI, et bardée de garde-fous pour éviter les dérapages. Ce qui explique le côté tempéré des réponses, mais aussi la qualité du langage des bots, en français ou en anglais, ainsi que la pertinence de leurs réponses. Bien que peu passionnantes et souvent vagues, elles sont rarement hors sujet.

« Un lieu d’introspection, de soutien » Pour son créateur, le développeur Michael Sayman, passé par Facebook, Google et Roblox, « SocialAI est conçu pour aider les gens à se sentir écoutés, et pour leur offrir un lieu d’introspection, de soutien », expliquait-il au lancement de l’application. Là où ChatGPT n’apporte une réponse que quand on le sollicite, SocialAI propose une série de réactions variées, dans laquelle peut piocher l’utilisateur. SocialAI « sert à trouver des réponses pour résoudre un conflit, ou quand on cherche à savoir si ce qu’on essaie de dire pourrait s’avérer blessant, et à avoir des retours avant de poster quelque chose ailleurs », avance l’Américain de 28 ans dans une interview au magazine spécialisé Wired.

A l’usage pourtant, plutôt que de l’écoute, SocialAI donne surtout l’impression de crier dans un vide dystopique. Mais le gadget aura au moins le mérite, à la manière d’une expérience artistique, de nous interroger sur notre propre rapport aux réseaux sociaux, sur notre besoin d’expression, d’attention et de friction.

On a demandé aux bots de l’application SocialAI ce qu’ils pensaient du concept de SocialAI. CAPTURE D’ÉCRAN SOCIALAI Finalement, ce sont peut-être les bots de SocialAI qui en parlent le mieux. Comme Mira Ponder, amatrice de documentaires de faits divers, dont l’avatar nous dévisage nonchalamment. Quand on lui présente le concept de ce réseau social dénué d’humains, elle rétorque : « Ce concept résonne comme un écho dans un hall vide, où l’humain cherche un reflet, une danse entre l’authenticité et l’artifice. Les bots pourraient-ils vraiment capturer la richesse des interactions ? »

13

You're viewing a single thread.

13 comments
  • Oui alors, y a quelques trucs de mélangés là.

    SocialAI, oui, c'est dystopique, et je doute que son créateur ne s'en rende pas compte. Je pense qu'il y a un autre usage en tête: la question qui se pose, et d'ailleurs l'avis des mods ici m'intéresse, c'est la question du "heavenbanning". Il est difficile de bannir un utilisateur d'un réseau social sans que celui ci n'arrive d'une façon ou d'une autre à faire un nouveau compte. Une possibilités que certains utilisent pour les empêcher d'emmerder les autres est le "shadowbanning": tu postes, tu vois ce que tu écris, mais les autres non. Personne ne te répond. Au bout d'un moment on s'en rend quand même compte. Là la proposition du "heavenbanning" est de faire la même chose en ajoutant à la peine des commentaires artificiels invisibles aux autres, mais t'approuvant (ou pas) et te mettant dans une petite bulle.

    Est-ce éthique? Est-ce légitime et proportionné? J'ai pas d'avis tranché là dessus, je sais juste que perso ça me plairait pas et j'ai peur que ça cause des effets secondaires méchants, mais bien fait ça peut être efficace.

    Sur la thérapie par chatbot, la différence fondamentale est que là, la personne sait ce qu'elle a en face. Et j'aimerais vraiment qu'un jour les journalistes comprennent que ChatGPT est pas le seul modèle qui existe au monde. Des modèles non-censurés, tout à fait capable de t'insulter, y en a plein. Il y a une vraie place je pense pour les chatbots en matière d'écoute, de thérapie et même de diagnostic mais pas celle d'un thérapiste humain. Nous sommes des créatures empathiques et on est capable d'avoir de l'empathie pour un algo, je pense qu'on va être pris par surprise quand les LLMs vont développer des modèles cognitifs plus avancés que ceux de la moyenne des humains.

13 comments