top of page

L’IA en santé mentale au service du mieux-être

  • Photo du rédacteur: Natasha Tatta
    Natasha Tatta
  • 8 janv.
  • 7 min de lecture

Dernière mise à jour : 9 janv.

⚠ Avis de non-responsabilité. Ce contenu informatif ne remplace pas un avis médical, psychologique ou thérapeutique ni l’évaluation d’un professionnel qualifié. En cas de détresse ou de symptômes persistants, consultez un professionnel de la santé. Pour une aide immédiate en santé mentale au Québec, composez le 9-8-8 (appel ou texto 24/7).


IA générative et santé mentale illustrées de façon abstraite et apaisante, mettant en relation réflexion humaine et technologie.

Ignorer le rôle grandissant de l’IA générative en santé mentale serait passer à côté d’un phénomène majeur.


Pénurie de services, délais d’attente, hausse de l’anxiété, solitude accrue, le contexte actuel pousse naturellement vers des solutions numériques accessibles, gratuites et personnalisées. D’ailleurs, selon la Recherche en santé mentale Canada (RSMC), près d’un Canadien sur dix a déjà utilisé des outils d’IA pour obtenir du soutien en santé mentale, avec une adoption plus marquée chez les jeunes, les personnes racialisées et les communautés 2SLGBQ+.


Si vous souhaitez passer rapidement à l’action, une section plus loin présente comment utiliser l’IA en santé mentale.


L’enjeu n’est plus de savoir si l’IA doit être utilisée ou pas en santé mentale, mais plutôt comment. C’est dans ce contexte qu’une étude vient changer le ton du débat. 👇


Therabot: quand l’IA en santé mentale démontre une efficacité clinique mesurable


Des chercheurs ont évalué l’efficacité d’un robot conversationnel thérapeutique baptisé Therabot, entièrement basé sur l’IA générative, comparable à un robot conversationnel comme ChatGPT, dans le traitement de troubles mentaux courants.


L’étude, publiée en mars 2025 dans la revue New England Journal of Medicine AI, repose sur un protocole rigoureux. Au total, 210 adultes présentant des symptômes cliniques ont été répartis de manière aléatoire en deux groupes. Le premier groupe a utilisé Therabot pendant quatre semaines, tandis que le second, le groupe témoin, a été placé sur une liste d’attente, sans accès à l’outil durant cette période. Cette méthodologie a permis de comparer l’effet réel de l’IA dans l’absence d’intervention humaine.


screen shots of Therabot mental health application

Les résultats sont particulièrement frappants. Les participants ayant utilisé Therabot ont vu leurs symptômes diminuer de manière beaucoup plus importante que ceux du groupe témoin.


Par ailleurs, cette amélioration ne s’est pas dissipée une fois l’utilisation de l’outil terminée, elle s’est maintenue jusqu’à huit semaines à la suite de l’étude. En moyenne, les utilisateurs ont passé plus de six heures à interagir avec le robot conversationnel, signe d’un engagement soutenu et volontaire.


Un autre élément retient l’attention: les participants ont jugé leur relation avec l’outil aussi satisfaisante que celle avec un thérapeute humain.


Ce point est loin d’être anecdotique. En psychothérapie, l’alliance thérapeutique, c’est-à-dire le sentiment d’être compris, écouté et soutenu, est un facteur clé de l’efficacité du traitement.


Le fait qu’une IA puisse atteindre ce niveau de perception subjective soulève des questions sur le rôle qu’elle peux jouer en complément des soins de santé classiques.


Il s’agit de la première étude rigoureuse démontrant qu’un robot conversationnel peut atténuer des troubles mentaux à un niveau clinique. Les chercheurs demeurent toutefois prudents. Ils insistent sur la nécessité de reproduire ces résultats à plus grande échelle, avec des populations plus diverses et sur des périodes plus longues, avant de tirer des conclusions définitives.


Autrement dit, Therabot ne représente pas une solution miracle, ni un remplacement de la psychothérapie humaine. Cependant, il constitue une preuve tangible que l’IA générative peut dépasser le simple soutien émotionnel superficiel et produire des effets mesurables sur la santé mentale.


L’IA en santé mentale, au-delà de la thérapie clinique


L’IA générative ne s’inscrit pas uniquement dans un cadre thérapeutique formel. Une grande partie de son impact actuel se situe ailleurs: dans le bien-être quotidien, la lutte contre la solitude et l’introspection, accessible et continue. C’est dans cet espace que se multiplient les outils IA de bien-être.


Des applications comme Manifest misent sur des affirmations personnalisées générées par l’IA pour créer des moments de connexion émotionnelle. L’objectif n’est pas de traiter un trouble mental, mais d’offrir des micro-interventions positives: une phrase qui résonne, un rappel, une invitation à se recentrer.


screen shot of manifest a mental health app

L'idée derrière ces applications étant que si les gens passent déjà une grande partie de leur temps sur leur téléphone, autant utiliser ce canal pour introduire des pratiques favorables au bien-être.


Cette approche repose sur des moments courts, fréquents et personnalisés, plutôt que sur des séances longues et formelles.


On parle ici de soutien émotionnel augmenté, pas de thérapie. L’IA devient un compagnon discret, capable de refléter un état, de normaliser certaines émotions et d’encourager une prise de recul. Pour une génération souvent réticente aux structures traditionnelles de soins, cette porte d’entrée peut faire une réelle différence.


Quand l’IA aide à détecter les risques


Un autre usage prometteur de l’IA en santé mentale concerne la prévention, notamment en amont des situations critiques. Au Québec, depuis 2024, des équipes de recherche de l’Université Laval, de l’Université de Montréal et de l’Université Dalhousie travaillent sur des modèles d’IA capables d’analyser et de prédire des risques suicidaires à partir de grandes quantités de données.


Ces travaux s’appuient sur une collaboration avec l’Institut national de santé publique du Québec (INSPQ), qui permet l’accès à des bases de données massives et structurées. L’IA y est utilisée pour détecter des corrélations, des signaux faibles et des trajectoires de risque qu’un humain seul aurait de la difficulté à repérer à grande échelle.


Ces modèles ne servent pas à poser un diagnostic individuel. Ils fonctionnent comme des outils d’aide à la décision, destinés à orienter des actions de prévention, à prioriser des interventions ou à mieux comprendre les facteurs de risque dans la population.


ChatGPT Santé: encadrer l’IA quand la santé est en jeu


Dans la même logique de prévention et de responsabilité, OpenAI a récemment annoncé ChatGPT Santé, une initiative visant à mieux encadrer l’usage de l’IA lors d’échanges sur des questions de santé et de bien-être.

screen shot chatgpt health interface

L’objectif étant d’améliorer la prudence des réponses, de renforcer les rappels de limites et d’orienter plus clairement les utilisateurs vers des ressources appropriées en cas de détresse.


Cette approche illustre une tendance de fond: l’IA peut soutenir l’information, la réflexion et l’orientation, à condition d’être déployée avec des garde-fous explicites et une conscience claire de ses limites.


La promesse, le potentiel et les limites des thérapeutes IA


Entre le bien-être et la recherche clinique se trouvent les thérapeutes IA, des agents conversationnels conçus pour reproduire la structure de thérapies reconnues, comme la thérapie cognitivo-comportementale (TCC).


Des solutions comme Sonia AI pour le soutien émotionnel ou DrEllis pour la santé mentale masculine, proposent des échanges guidés, un ton empathique et une disponibilité constante, 24 heures sur 24.


soutien émotionnel numérique et des micro-interventions de bien-être assistées par l’IA illustré avec une photo d'une personne sur son téléphone

Leur force réside dans leur accessibilité. Pour des personnes qui hésitent à consulter, qui sont sur une liste d’attente ou qui cherchent un soutien entre deux séances, ces outils peuvent offrir une structure, des exercices et un espace d’expression.


Les dialogues sont souvent inspirés de cadres thérapeutiques validés, avec des questions ouvertes, des reformulations et des invitations au recadrage cognitif.

Cela dit, ces outils IA n’ont aucune responsabilité clinique, ne sont pas adaptées aux situations de crise et ne peuvent pas gérer des cas complexes ou urgents.


Il existe aussi un risque de dépendance émotionnelle et des enjeux importants de confidentialité et de protection des données. Un robot conversationnel peut soutenir, mais ne doit pas remplacer les soins professionnels, notamment en cas de troubles anxieux ou dépressifs sévères.


Ce que l’IA fait bien… et ce qu’elle ne fera probablement jamais


🟢 Ce que l’IA fait bien:

  • écouter sans jugement et sans fatigue,

  • analyser, reformuler ou structurer la pensée,

  • normaliser certaines émotions,

  • proposer des exercices simples et répétables,

  • offrir une disponibilité immédiate.


🔴 Ce qu’elle fait moins bien, ou pas du tout:

  • poser un jugement clinique,

  • saisir toute la complexité du contexte humain,

  • remplacer l’intuition et l’expérience d’un professionnel,

  • assumer une responsabilité légale ou éthique,

  • intervenir adéquatement en situation de crise.


Utilisée avec discernement, l’IA peut soutenir, accompagner et prévenir, mais attention! Elle peut aussi créer de fausses attentes et ne remplace pas une relation humaine. C’est précisément dans cet équilibre que se joue son avenir en santé mentale.


Comment utiliser l’IA en santé mentale de façon responsable et utile


D’abord, l’IA peut servir d’outil d’introspection structurée. En posant des questions bien formulées, elle aide à mettre des mots sur ce qui est flou, à identifier des schémas de pensée récurrents et à prendre du recul sur ses émotions, tant à l’écrit qu’à l’oral.


Ce type d’usage est particulièrement utile pour explorer ses blocages, clarifier ce qui génère du stress ou amorcer un travail sur l’estime de soi.


À ce titre, pour transformer ses faiblesses en forces, briser des barrières psychologiques ou sortir de la routine, voici des requêtes conçues pour cet objectif:



Ensuite, l’IA peut soutenir des habitudes de bien-être et de santé holistique. Elle peut accompagner une réflexion sur l’équilibre de vie, le sommeil, la gestion de l’énergie, l’alimentation, l’activité physique ou la cohérence entre le corps et l’esprit.


L'’IA peur agir comme un miroir ou un guide, capable de proposer des pistes d'action, de poser des questions ou de suggérer des exercices.


Des requêtes orientées vers la santé holistique permettent, par exemple, d’explorer les liens entre stress mental et fatigue physique, ou encore d’identifier des routines plus adaptées à son rythme personnel:



L’IA au service du mieux-être, avec discernement


Utilisée avec discernement, l’IA peut devenir un outil de réflexion, de clarification et de prévention, accessible et complémentaire à l’humain.


Elle ne soigne pas et ne remplacera probablement jamais l’expertise des professionnels, mais les données montrent qu’elle peut jouer un rôle important et offrir un soutien concret.


Tout se joue dans le cadre et l’esprit critique. Bien utilisée, l’IA peut servir de filet de sécurité et ouvrir la porte à une aide humaine.


💚 Rien de magique, mais parfois juste assez pour remettre un peu d’ordre quand tout semble flou.



Abonnez-vous à l’infolettre Info IA Québec pour rester à l’affût des usages réels et responsables de l’IA générative. Chaque semaine, vous recevez une Recette IA 🍳: une requête concrète, expliquée étape par étape, pour mieux comprendre comment utiliser l’IA de façon utile et réfléchie au quotidien.


natasha tatta infopreneure en ia rédactrice et traductrice agréée bilingue

Natasha Tatta, C. Tr., trad. a., réd. a. Spécialiste langagière bilingue, je conjugue la précision des mots et la portée des idées. Infopreneure et consultante en IA générative, j’accompagne les professionnels dans l’adoption de l’IA générative et le marketing de contenu. En parallèle, j’enseigne la traduction en TI à l’Université de Montréal.


bottom of page