IA & psychothérapie : phénoménologie de la relation thérapeutique
- francoisregisribes
- 26 oct.
- 6 min de lecture
Dernière mise à jour : 11 nov.

L’utilisation de l’IA – ou plus précisément des LLM – comme outil de soutien psychologique fait beaucoup parler. Le sujet a pris une nouvelle ampleur depuis la mise en cause d’OpenAI dans l’affaire du suicide d’un adolescent, dont les échanges avec ChatGPT sont soupçonnés d’avoir pu influencer son passage à l’acte. La plupart des discours sur la question oscillent entre deux positions :
(A) un appel à la prudence, pointant les biais de complaisance, les dérives des régulateurs et les risques d’un usage prolongé de ces modèles ;
(B) et, à l’inverse, une fascination pour un outil déjà remarquable, promis à dépasser bientôt la plupart de ses limites actuelles, y compris sur le terrain émotionnel et psychologique.
La conclusion implicite semble aller de soi : avec les précautions nécessaires, l’IA pourrait devenir un complément pertinent aux métiers du soin.
Cet article propose d’aborder la question sous un angle plus fondamental : dépasser les différences contingentes entre l’aide psychologique d’une IA et celle d’un thérapeute - liées aux limites techniques actuelles notamment - pour interroger leurs différences nécessaires. Nous toucherons ainsi du doigt ce qu’est, au fond, un entretien thérapeutique et ce qu’il apporte de si singulier à ceux qui passent la porte d’un cabinet.
L'empathie ou la conscience ?
Après avoir fait l’expérience de confier des problématiques personnelles à ChatGPT, on constate plusieurs choses : l’empathie qu’il parvient à exprimer est bluffante, il se met en phase avec nos émotions, nos buts et nos valeurs, et pour ne rien gâcher, ses réponses sont pertinentes. Tout cela est systématique, j’obtiendrais le même niveau d’empathie, d’investissement et de pertinence à chacune de mes sollicitations. Face à cela, le psychologue est, au bas mot, plus fluctuant ; pas toujours empathique, pas toujours attentif, pas toujours pertinent. Pourtant, malgré l’utilisation massive de ChatGPT parmi mes patients, ils continuent de venir me voir. Ils viennent évidemment chercher le côté “humain” qu’ils ne trouvent pas en ChatGPT. Mais quand bien même l’IA prenait un jour l’apparence d’un humain, accompagnant son empathie notoire d’expressions émotionnelles, les gens continueraient probablement de consulter un thérapeute humain. Il faut en avoir fait l'expérience comparative pour comprendre. On ne va chercher auprès du thérapeute ni l’expression d’empathie, ni la chaleur humaine, mais le témoignage. Il nous faut un témoin actif de ce que l’on pense et ressent, or il n’y a qu’une conscience qui puisse témoigner de ce que je vis. Ma souffrance doit tomber dans une conscience qui éprouve et s’en dit des choses. Et je dois pouvoir me dire que mon vécu et mon existence résonne encore dans cette conscience au moment de quitter le cabinet.
Il est étonnant de constater que l’expression empathique dont fait preuve ChatGPT ne laisse pas complètement indifférent. Mais l'expérience de l’empathie n’est pleine que lorsqu’elle est le fruit d’une conscience qui me répond selon ce qu’elle se sera dit et ce qu’elle aura éprouvé face au témoignage de ma souffrance. “Dans une thérapie, j’ai surtout besoin de me sentir compris” m’a-t-on dit plusieurs fois. Or pour se sentir compris, il faut que mon discours résonne dans la chair de l’autre, qu’il simule sur lui-même l’expérience subjective de ce que ça pourrait faire, qu’il soit spectateur de l'expérience vécue dans toute sa richesse phénoménologique. Bref, il faut qu’il soit conscience témoin de ce que ça fait de vivre ce que je vis ; pour qu’à travers sa réponse, je devine la communauté d'expérience vécue qui nous uni.
L’insupportable liberté de l’autre
“la liberté d'autrui m'est révélée à travers l'inquiétante indétermination de l'être que je suis pour lui”.
J’emprunte cette citation à Sartre qui traduit le sentiment amère que l’on peut avoir à l'issue d’un entretien thérapeutique : “Pourquoi est-ce qu’il m’a répondu ça ?”, “Qu'est-ce qu’il peut bien se dire de moi ?”. Une fois loin du cabinet, une part de moi est aux mains d’une conscience qui m’échappe. Malgré la sacro-sainte neutralité bienveillante dont il doit faire preuve dans son attitude, je ne peux pas empêcher mon thérapeute de se dire ou de ressentir des choses sur ce que je lui ai confié. Je fais alors l'expérience de l’insupportable liberté de l’autre. Quand bien même ChatGPT n’était plus soumis à son biais de complaisance, son avis sur moi n’aurait pas le même effet. Car derrière sa critique ou son éloge, transparaît la programmation de son fabricant. L’identification des causes à l’origine d’un jugement en atténue la portée. La remarque de ma belle-mère m’agace d’autant plus que je la trouve arbitraire et injustifiée. La déclaration d’amour de mon crush me comble d’autant plus qu’elle est irréductible à l’attrait pour l’une ou l’autre de mes qualités. “Pourquoi est-ce qu’il se disent ça sur moi ?”, la réponse reste en suspens car leur jugement est le fruit d’une conscience libre. Aussi, la plupart de nos émotions dans notre rapport à nous-même et aux autres - culpabilité, colère, amour - est pétri de ce postulat implicite de libre-arbitre.
Le niveau de libre-arbitre que je suppose derrière un jugement en détermine la prégnance. Cela implique une différence fondamentale dans la posture que j’adopte au moment de confier un problème psychologique :
Face à ChatGPT, je n’ai honte de rien, et le problème que je lui confie est formulé avec approximation. Je m’autorise une certaine indétermination car aucun jugement potentiel ne pèse sur moi.
Face au thérapeute, exprimer ce dont j’ai honte est un effort et me permet de prendre la mesure de mes contradictions, je dois transformer un problème nébuleux en une demande claire et organisée. Bref, je dois me structurer, prendre forme sous la pression d’une conscience libre et jugeante.
Le silence et la finitude
“Je souhaite améliorer ma productivité, pouvez-vous m’aider à cela ?”
“Excellente intention ! Voici une approche complète et personnalisable, structurée en 4 grands axes pour améliorer votre productivité”, répondrait servilement ChatGPT. Le thérapeute serait, lui, en mesure de questionner la demande : “Que cherchez-vous à combler par cette recherche de productivité ? Si l’objectif final est l’intégration sociale, pourquoi pas, mais améliorer sa communication serait alors plus pertinent.” ; ou alors : “Si cette recherche de productivité est à des fins narcissiques, peut-être devons-nous réfléchir à savoir si c’est ce que vous souhaitez vraiment avant d’aller plus loin”.
Derrière ma demande de l’instant, en tant qu’assistant dépourvu de volonté propre, ChatGPT n’a d’autre choix que d’apporter une réponse à ladite demande. La liberté spécifiquement du thérapeute l’amène à se positionner par rapport à la finalité sous-jacente. De là, plusieurs options s’ouvrent à lui :
Remettre en question la demande immédiate pour mieux répondre à la finalité sous-jacente.
Remettre en question la finalité sous-jacente elle-même.
Répondre par une question.
Le patient obtient rarement une réponse qui éclaire directement sa demande de l’instant. C’est le propre de l’entretien thérapeutique où deux libertés se heurtent. Mais il y a encore une option dont ChatGPT ne sera probablement jamais équipé et que le thérapeute peut aisément utiliser : le silence.
Ne rien répondre. Parfois, c’est un choix de la part du thérapeute qui peut avoir différentes fonctions, comme faire comprendre que ce n’est pas la bonne question ou que c’est au patient de répondre par lui-même. Parfois, c’est complètement involontaire, le thérapeute est démunie, incapable de répondre. Cette deuxième forme de silence est la plus intéressante car elle est l’occasion d'expérimenter la finitude humaine. J’ai moi-même été quelquefois soumis à ce type de silence : le problème d’un patient me dépasse l’espace de quelques instants, les yeux dans le vide, la mine déconfite. Systématiquement, le patient le ressent et réagit. Il relativise, propose des pistes de solutions, reformule le problème… Il me vient spontanément en aide. Il se rend acteur proactif au sein d’une communauté de détresse. Ces réactions saines face à mes silences involontaires sont peut-être le fruit d’une prise de conscience très brève de la finitude humaine, y compris du thérapeute, face à certaines difficultés. Là où les réponses mielleuses et convaincantes de ChatGPT laissent parfois penser qu’une solution extérieure à soi existe pour tout problème, la finitude et les imperfections du psychologue peuvent systématiquement être mises à profit de la thérapie. C’est une matière de travail idéale pour le patient qui doit se confronter directement aux aspérités des relations humaines.
Conclusion
Le thérapeute se voit par bien des points surpassé par l’intelligence artificielle. Cependant, certaines différences fondamentales, voire ontologiques, semblent insurmontables quelles que soient les améliorations spectaculaires dont nous serons témoins à l’avenir. Si ChatGPT avait demain une apparence humaine, une finesse d’analyse, une attitude et des réponses parfaites en tout point, il suffirait que je prête une conscience à l’humanoïde face à moi, sans savoir qu’il est une IA, pour que la magie opère. Une conscience qui ressent, qui pense et doté d’un libre-arbitre pour me sentir compris, jugé et choisi. Malheureusement, il est difficile de croire qu’aucune mesure collective ne soit prise pour distinguer les IA des humains dans de telles circonstances. Enfin, l’IA ne peut demeurer qu’à l’état de moyen. On ne souhaite pas qu'elle remette en question nos valeurs et nos fins, ce n’est pas sa fonction. La capacité à confronter nos libertés conscientes sans nous anéantir est une affaire d’humains. Et c’est précisément ça, la thérapie. Le podcast associé à cet article avec exemples issus de ma pratiques ici : https://www.francoisregisribes.com/podcast/episode/b73e76df/ia-and-psychotherapie-phenomenologie-de-la-relation-therapeutique







Commentaires