Les avancées en matière d’intelligence artificielle (IA) et les multiples applications qui en ressortent s’intègrent de plus en plus dans le quotidien des médecins et modifient leur pratique. Décrétée grande cause nationale en 2025 puis 2026, la santé mentale bénéficie également des progrès offerts par l’IA. Ces outils représentent un soutien à la pratique des psychiatres et peuvent participer à améliorer la qualité et l’efficacité des soins en créant un soutien plus personnalisé, accessible et orienté vers la prévention.
L’irruption des robots conversationnels est un bouleversement majeur. Depuis la crise Covid, ces chatbots sont de plus en plus utilisés par la population, notamment par les jeunes, afin d’assurer un soutien émotionnel. La société OpenAI a récemment dévoilé que, sur une semaine, 0,15 % des utilisateurs actifs de ChatGPT font part de pensées suicidaires. D’où la nécessité de développer des robots à des fins thérapeutiques. Depuis Eliza, un des premiers agents conversationnels, développé dans les années 1960, d’autres ont fait leur apparition, tel le chatbot Owlie. En répondant de manière empathique, ils semblent fournir un soutien psychologique au quotidien.
L’usage excessif de ces outils soulève néanmoins plusieurs questions. Les réponses proposées par ces IA peuvent en effet ne pas être appropriées, peu pertinentes voire trompeuses au regard des besoins du patient. Des risques d’incohérence notamment qui, à terme, peuvent compromettre le suivi et la qualité des soins, avec parfois des conséquences plus graves comme des suicides, violences ou apparitions de pensées délirantes, déjà recensés et signalés dans le monde. À ces facteurs de risques peuvent s’en greffer d’autres, en fonction des nouveaux usages.
Des biais dans les données patients
Les applications de l’IA dans le champ de la psychiatrie sont multiples et ne cessent de se développer. Une étude menée au Canada (1) a par exemple montré son utilité dans l’amélioration de l’accès aux soins. Un module de triage numérique utilisant le traitement automatique du langage naturel et l’apprentissage automatique a été utilisé pour « recommander un niveau d’intensité des soins et un programme de psychothérapie numérique adapté au trouble ». Le délai global pour accéder aux soins a diminué de 71,43 %. Un psychiatre a également évalué les informations fournies. Au final, ses décisions relatives à l’intensité des soins et aux programmes ont été similaires à celles de l’IA dans 71,29 % des cas. De plus, 63,29 % des participants affectés à des plans de traitement de moindre intensité par le programme de triage assisté par l’IA n’ont pas eu besoin de consultation psychiatrique par la suite. Les praticiens peuvent ainsi se concentrer sur des cas plus complexes.
L’IA intervient également dans l’amélioration de la précision diagnostique et la personnalisation des soins grâce à l’analyse massive des données cliniques. Elle permet d’identifier des profils spécifiques de patients susceptibles de répondre à certains médicaments ou thérapies.
Les universités Claude-Bernard et Paris-Cité proposent des diplômes universitaires en IA en santé avec des enseignements dédiés à la psychiatrie
Cette multiplication des fonctionnalités pose de nombreux défis dans la pratique clinique. L’un des principaux est le biais dans les données patients. Celles-ci diffèrent d’un individu à l’autre en fonction du contexte socio-économique, du genre ou encore de l’origine. Une étude de l’université de Pennsylvanie (2) a, par exemple, démontré que les systèmes d’IA analysant les données issues des médias sociaux pour détecter la dépression étaient nettement moins précis pour les Afro-Américains en comparaison avec les utilisateurs d’origine européenne. En cause, des différences dans les schémas linguistiques pas suffisamment représentés dans les données d’entraînement.
Enjeux éthiques, juridiques et sociétaux
Malgré leurs apports dans la pratique psychiatrique, ces outils ne remplacent en rien les médecins dans une spécialité reposant sur la parole, qui crée un lien fort entre le patient et son thérapeute et qui requiert de l’empathie. Les algorithmes sont en effet limités à des tâches automatisées, ils ne possèdent pas les capacités d’écoute, le ressenti et le jugement clinique propres aux psychiatres.
C’est pourquoi leur développement nécessite de prendre en compte les limites de l’usage de l’IA et, comme le recommande le collectif MentalTech, « de définir des cadres clairs pour prévenir toute dérive ». La sensibilité des données de santé utilisées pour développer ces outils demande une protection particulière. La réglementation européenne en vigueur, le RGPD et l’IA Act, impose un cadre juridique exigeant autour de l’utilisation des données. La confidentialité de ces dernières doit être garantie autant par le respect des règlements en place que par des systèmes de sécurité performants.
L’utilisation de ces technologies implique de les maîtriser complètement et les intégrer au mieux dans la pratique. Cela implique des actes de formation spécifiques afin de comprendre les enjeux éthiques, juridiques et sociétaux. Les universités Claude-Bernard, à Lyon, et Paris-Cité proposent par exemple des diplômes universitaires en intelligence artificielle en santé avec des enseignements dédiés à la psychiatrie. Une approche qui permet de s’appuyer sur ces outils tout en préservant la confiance dans le système mis en place et l’équité de l’accès aux soins.
(1) Stephenson C. and al. Evaluation of an Artificial Intelligence and Online Psychotherapy Initiative to Improve Access and Efficiency in an Ambulatory Psychiatric Setting, Can J Psychiatry, 2025 Aug 1;71(1):30–40, DOI 10.1177/07067437251355641
(2) Rai S., Stade E. C., Giorgi S., Guntuku S. C. Key language markers of depression on social media depend on race, PNAS March 26, 2024, Vol 121, N° 14, DOI 10.1073/pnas.231983712
« Les patients n’avaient plus accès au cabinet » : une généraliste de Maine-et-Loire victime des inondations témoigne
Les ESS marquent leur territoire
Télémédecine : le gouvernement prêt à déverrouiller (un peu) les consultations à distance
Syndicats de biologistes libéraux et SEL font l’union sacrée au sein d’une fédération… et poussent leurs pions