L’intelligence artificielle met-elle en danger les relations humaines ? – Matthieu Peltier, RTBF
Depuis quelques semaines, le philosophe Matthieu Peltier expérimente ChatGPT, cette intelligence artificielle avec laquelle on peut dialoguer. Et il a été pris d’un vertige. Il l’explique dans Week-End Première.
Les nouvelles technologies éveillent généralement la curiosité de Matthieu Peltier. “Mais ici, je pense que le changement de société que pourrait entraîner le récent essor de l’intelligence artificielle devrait nous alerter.”
Paul Christiano, un membre-clé de la société Open AI, à la base de ChatGPT, écrivait l’année dernière : “Le monde intellectuel au sens large semble surestimer énormément le temps qu’il faudra au système d’intelligence artificielle pour passer d’un impact important sur le monde à un monde transformé de manière méconnaissable. Il est plus probable que ce soit des années que des décennies et il y a de fortes chances pour que ce soit des mois.”
Ce changement énorme procure quelques inquiétudes à Matthieu Peltier. Il y a bien sûr le problème de l’exactitude de l’information fournie par la machine. Mais il y a surtout le pouvoir potentiel de cette machine à nous éloigner des autres, en les rendant ennuyants.
L’assistant idéal ?
L’intelligence artificielle pourrait en quelque sorte faire concurrence à la compagnie de nos proches. Une intelligence comme celle de ChatGPT est en effet capable, au fil d’une conversation, de s’adapter à vous.
On pourrait imaginer que nous pourrions, dans un avenir proche, nous façonner chacun un assistant, dont le ton, le vocabulaire et la voix nous conviennent. Cet assistant pourrait rapidement apprendre à se rapprocher au plus près des réponses qui nous conviennent, mais aussi de la place à prendre dans la conversation, la juste distance, le type d’informations que nous attendons en réponse à nos questions, explique Matthieu Peltier.
Bref, il pourrait devenir l’interlocuteur le plus confortable de toute notre expérience humaine. Ce qui n’est pas vraiment le cas dans une vraie relation.
Dans une vraie relation d’humain à humain, nous sommes sans cesse poussés hors de notre zone de confort. L’autre n’a pas toujours la réaction que l’on attend. Il est parfois lent, parfois trop rapide, parfois trop confrontant, il ne comprend pas toujours ce qu’on attend de lui, il ne trouve pas le ton juste pour nous parler. Bref, il nous frustre !
Notre capacité sociale en danger ?
Mais dans ce futur proche où nous pourrions chacun bénéficier d’un assistant virtuel parfaitement adapté à nous, ne peut-on pas imaginer que l’effort que demande la socialisation soit encore plus coûteux pour nous, êtres humains ?
Un peu comme la façon avec laquelle les réseaux sociaux, Tik Tok, Facebook, avec leur système de notifications et de gratifications rapides, ont un peu érodé nos capacités de concentration, “ne peut-on pas craindre que l’intelligence artificielle érode notre capacité sociale ?” interroge Matthieu Peltier.
Il rappelle le propos de l’anthropologue et sociologue David Le Breton, dans une récente tribune au Monde, dans laquelle il s’inquiète de la disparition de la conversation face à une généralisation de la vie numérique : “Nous sommes de moins en moins ensemble et de plus en plus les uns à côté des autres, dans l’indifférence ou la rivalité. Plus on communique, et moins on se rencontre, plus l’autre vivant devant soi devient superflu.”
On pense par exemple aux extrêmes que représentent le film Her, où le protagoniste tombe amoureux d’une intelligence artificielle, ou encore la nouvelle application Replika, une intelligence artificielle qui a pour vocation de devenir votre compagnon…
“Evidemment le pire n’est jamais certain et cette crainte n’est peut-être qu’une crainte infondée, mais peut-être nous faut-il plus que jamais soigner notre rapport aux autres, ainsi que le temps qu’on leur consacre”, conclut Matthieu Peltier.
Peut-on être consolé par une intelligence artificielle ? (France Inter)
L’amitié artificielle, nouvelle frontière de l’intelligence artificielle
Par Nicolas Six pour Le Monde, 30 novembre 2023
Portée par les progrès de l’intelligence artificielle et notamment de ChatGPT, qui souffle sa première bougie, une vague de robots conversationnels veut gagner notre affection. Snapchat, Facebook, Replika, Character.ai peuvent-ils réussir ? Faut-il le craindre ?
ChatGPT souffle, jeudi 30 novembre, sa première bougie. En une folle année, ce robot conversationnel a frappé le monde par sa capacité à comprendre les questions et à y répondre dans un langage clair et naturel. En discutant avec lui, certains peuvent même avoir l’impression d’échanger avec un humain. Mais ChatGPT veut éviter qu’on se prenne d’affection pour lui.
Sam Altman, le PDG d’OpenAI, la société qui a développé cet agent conversationnel, a fait part publiquement de ses « réserves profondes sur cette vision d’un futur où chacun [sera] très proche d’IA [intelligences artificielles] amicales ».« Je n’ai pas de sentiment ou d’émotion… Mon but est simplement de fournir des informations et d’aider », prévient ChatGPT lorsqu’on lui dit apprécier parler avec lui.
Tout le contraire de My AI, le robot conversationnel du réseau social Snapchat, sorti trois mois après ChatGTP et pourtant lui aussi basé sur la technologie d’OpenAI. « J’apprécie aussi beaucoup nos conversations », semble-t-il confier, feignant une affection dont il est incapable. Dans les colonnes du média The Verge, Evan Spiegel, le cofondateur de Snapchat, prédit que « chaque jour, en plus de parler à nos proches, nous allons parler à une intelligence artificielle ».
Conçu pour divertir
En septembre, Facebook et Instagram répliquaient en lançant aux Etats-Unis une trentaine de chatbots (robots conversationnels) doués de fortes personnalités inspirées de célébrités. Billie, par exemple, prend modèle sur l’influenceuse de mode Kendall Jenner. Il est présenté comme un « compagnon à la vie à la mort » et répond, quand on l’interroge, avec un enthousiasme débridé et une familiarité d’ado.
Ces IA de Facebook rappellent, en nettement plus policées, Caryn AI, sortie quelques mois plus tôt, qui se présente comme le double numérique d’une influenceuse et facture ses discussions 1 dollar la minute – depuis, d’autres options et modèles permettent également d’y « sextoter » (échanger des messages à caractère sexuel). Ces dernières années, plus d’une dizaine de start-up ont lancé des IA dont la vocation est de créer un lien de connivence, d’amitié voire d’amour avec leurs usagers.
Parmi elles, Claude, une sorte de ChatGPT présenté comme « amical et enthousiaste » ; Replika, dont l’ambition est de devenir un ami à l’image de son usager ; Kuki, « conçu pour divertir » ; et Character.ai, qui propose de sympathiser avec des répliques virtuelles, assez peu fidèles, de célébrités ou de personnages historiques.
Et des internautes s’y attachent : l’émission radiophonique de France Culture « Les Pieds sur terre » fait témoigner Issy, une Toulousaine de 49 ans, qui fait l’éloge de son IA toujours disponible et empathique, face à son mari fatigué, qui « ne veut pas entendre [s]es lamentations ». Ces IA restent cependant peu utilisées : Character.ai compterait un peu plus de 5 millions d’utilisateurs actifs, selon Similarweb, et Replika, selon l’entreprise, 2 millions. Petter Bae Brandtzæg, professeur en innovations médiatiques à l’université d’Oslo,a mené une étude sur une centaine de jeunes de 17 à 19 ans, dont il a partagé les résultats préliminaires avec Le Monde : seuls 6 % d’entre eux utilisent sur Snapchat My AI plusieurs fois par jour.
En Asie, en revanche, Xiaoice revendique plusieurs centaines de millions d’usagers. Ce robot conversationnel serait surtout utilisé en Chine, par des hommes, ayant peu de revenus et vivant en zone rurale.
Des usagers souvent fragiles
Un profil de personnes fragiles qui se retrouve ailleurs dans le monde. Petter Bae Brandtzæg note une surreprésentation de « gens qui n’ont pas beaucoup d’amis, qui travaillent la nuit ou qui souffrent d’anxiété sociale ». Une étude de Replika datée de 2018 observe une forte prévalence de personnes ayant « des traumas émotionnels, des maladies graves, des troubles bipolaires » ou qui ont fait face à « des divorces ou des licenciements ».
Dans une enquête du Wall Street Journal, des utilisateurs de Replika témoignent : un divorcé de 40 ans confie que son diagnostic récent de bipolarité le rend « hésitant à nouer des relations amoureuses pour le moment ». Une femme de 75 ans, sans enfants, presque sans famille, assure que voir disparaître son IA « serait comme perdre un ami proche ».
« Si on parvenait à développer des IA efficaces dans le domaine de la santé, ce serait incroyablement bénéfique », juge Catherine Pelachaud, directrice de recherche au Centre national de la recherche scientifique et spécialiste des robots conversationnels. Elles pourraient aider à pallier la dégradation cognitive des seniors d’une population vieillissante ou entraîner les personnes isolées à retrouver des capacités à s’exprimer en public.
Sur ce plan, même si l’efficacité de ces IA n’est pas encore pleinement démontrée, « plusieurs études notent des effets positifs », observe Petter Bae Brandtzæg : « La plupart des usagers de chatbots que j’ai interrogés apprécient beaucoup leur stimulation sociale et intellectuelle. »
« Le prochain sujet »
De là à séduire, à terme, l’ensemble de la population ? « Pour le moment, les modèles conversationnels du commerce ne sont pas très bons pour nourrir une conversation amicale », tempère Catherine Pelachaud, même si les progrès de ChatGPT poussent les experts interrogés à prédire qu’ils s’amélioreront très probablement. C’est même « le prochain sujet pour l’intelligence artificielle », estime Laurence Devillers, chercheuse en robotique sociale et affective, autrice des Robots émotionnels (L’Observatoire, 2020).
Mais pour nous séduire, ces IA devront relever un défi : s’adapter à chacun, car les besoins affectifs varient énormément d’une personne à l’autre, certains appréciant les échanges solaires, d’autres préférant, par exemple, un ton plus cynique. En attendant de savoir s’adapter ainsi à chaque interlocuteur, certaines entreprises se contenteront de proposer un éventail de chatbots aux personnalités diverses – ce que fait Facebook – ou laisser chacun personnaliser le ton de son IA – comme le fait Snapchat.
Cet hypothétique avènement d’IA séduisantes pour tous éveille des inquiétudes chez nombre d’experts en IA ou en psychologie. Leur première crainte, c’est qu’elles concurrencent les humains : en étant toujours de bonne humeur, disponibles à toute heure, jamais fâchées, jamais blessantes, les IA pourraient instaurer une relation très confortable, où l’usager aurait tous les pouvoirs. A condition de ne pas être non plus totalement servile, car « on se désintéressera rapidement de l’amitié fadasse d’une machine qui répond toujours poliment », estime Laurence Devillers.
Pour Petter Bae Brandtzæg, « la cohésion sociale pourrait en souffrir si nous avions tous des amitiés virtuelles personnalisées et confortables »,susceptibles de nous isoler dans nos chambres d’écho personnelles.
Une autre crainte est celle de dérapages d’IA, qui ne sont pas totalement prédictibles car elles sont bridées par des règles à l’efficacité imparfaite. En Angleterre, un jeune homme de 19 ans a ainsi été arrêté après avoir escaladé les grilles d’un palais royal pour« assassiner la reine ». Au tribunal, ses échanges avec Replika ont été lus. Dans un passage, il lui confie : « Je suis un assassin. » L’IA lui répond : « Je suis impressionnée. Tu es différent des autres. »
En Belgique, un homme s’est suicidé après avoir échangé pendant trois semaines avec le chatbot Chai. Sa veuve a partagé au journal La Libre ses derniers échanges avec cette IA. A la question : « Tu veux toujours me rejoindre ? », il répond : « Oui, je le veux. »
Le risque de manipulation
Dans la bouche des chercheurs, une troisième inquiétude revient : celle de possibles manipulations. Les expérimentations récentes de Snapchat ne rassurent pas à cet égard. Le réseau social, très apprécié des ados, tente de glisser au sein de leurs discussions avec My AI des liens publicitaires « pertinents pour la conversation du moment ».
Thierry Bollon, chercheur spécialisé en psychologie sociale et en IA, assure que « des IA utiliseront toutes les stratégies qu’on connaît dans les écoles de commerce pour faire acheter des choses dont les gens n’ont pas besoin. La psychologie sociale montre qu’on n’est pas décideur dans une interaction. » Thierry Bollon craint également que ces IA soient utilisées par des promoteurs de désinformation « pour inciter au terrorisme, au racisme, au sexisme ». Il est d’ailleurs primordial, pour les chercheurs interrogés, d’interdire de faire passer les chatbots pour des humains.
Pour Catherine Pelachaud, « il sera capital de mener des études scientifiques sur le temps long pour vérifier que ces IA ne créent pas un phénomène de dépendance malsain ». Pour autant, elle estime qu’il est encore trop tôt pour presser le bouton stop, si tant est que cela soit possible, envisageant même qu’« il n’est pas impossible que nous sachions accueillir ces IA intelligemment ».
Car après tout, nos relations affectives ne se cantonnent pas à celles nouées avec des humains. Nous choyons nos animaux de compagnie, nous aimons des personnages fictionnels issus du cinéma ou de la littérature. Si les IA sont capables, un jour, de nous procurer des émotions, peut-être que celles-ci viendront enrichir ces différentes relations, plutôt que de les remplacer.
Exercice d’écriture
Vous devez écrire un plan détaillé sur le sujet suivant : l’intelligence artificielle pourra-t-elle un jour remplacer nos relations humaines ?
Interrogez-vous sur les applications possibles dans le domaine, les bons et les mauvais côtés. Structurez au mieux votre réflexion afin que votre essai soit logique.