Dr claude jean paris vous conseille de prendre connaissance
Aux États-Unis, une IA peut désormais prescrire des médicaments à la place des psychiatres
Une start-up a reçu l’autorisation de renouveler des ordonnances pour certains médicaments psychotropes, dans l’État américain de l’Utah.
Des cocktails de psychotropes expérimentaux prescrits et supervisés non pas par un médecin, mais par une intelligence artificielle. Le scénario de la série « Maniac » relève de la fiction, mais la réalité s’en rapproche de plus en plus. Dans l’État de l’Utah, aux États-Unis, la startup Legion Health vient d’obtenir le feu vert pour renouveler des prescriptions de médicaments psychiatriques, sans consultation de médecin, via le chatbot dopé à l’Intelligence artificielle de son application.« La balance bénéfice-risque est périlleuse »
Malgré ces garde-fous, ce projet pionnier inquiète les psychiatres. « Aucune étude n’a été réalisée au préalable pour valider un tel dispositif. La balance bénéfice-risque est périlleuse, juge ainsi le Pr Ludovic Samalin, psychiatre au CHU de Clermont-Ferrand et spécialiste du numérique en santé mentale. En outre, cette expérimentation est encadrée par l’État de l’Utah, mais n’est pas considérée comme un dispositif médical donc elle échappe à l’avis de la FDA » (l’agence fédérale américaine chargée d’autoriser la mise sur le marché des médicaments, NDLR).
Au-delà des questions sur la sécurité des patients, l’approche est pointée du doigt pour son approche trop réductrice de l’offre thérapeutique. « En réalité, 90 % du temps passé avec un patient, on ne parle pas de médicament, on évalue le niveau de fonctionnement, on accompagne les projets sociaux, professionnels. On est dans une prise en charge très globale », précise Ludovic Samalin. Et il n’est pas possible pour un chatbot de capter tous les signaux détectables à travers un entretien médical. « Les patients ne vont pas livrer leurs ressentis sur un plateau et cette compréhension peut être compliquée pour une IA », indique le psychiatre, qui s’inquiète « d’une logique de moule » qui pourrait placer les patients dans des cases.
À qui appartient la responsabilité ?
Un dernier point pourrait s’avérer particulièrement problématique : celui de la responsabilité. « Une prescription de médicaments ou de traitements engage la responsabilité déontologique, civile et pénale du médecin, des précautions sont à prendre », indique le conseil français de l’ordre des médecins sur son site internet.
Il faut plutôt miser sur un modèle d’hybridation. On ne remplace pas le professionnel dans sa relation avec le patient, mais on améliore potentiellement ses compétences ou la vie de l’usager.
Pr Ludovic Samalin, psychiatre au CHU de Clermont-Ferrand et spécialiste du numérique en santé mentale
Mais dans la situation où un chatbot pose un mauvais diagnostic, qui est responsable ? « Est-ce qu’il y a malgré tout un psychiatre derrière ou quelqu’un qui coordonne et qui engage sa responsabilité ? », s’interroge Ludovic Samalin. Dans l’accord passé avec l’Utah, l’entreprise s’engage à « indemniser et à tenir indemne l’État de toute réclamation ou dommage ». Il est aussi stipulé que des médecins ont le statut de « prescripteur nommé » pour les renouvellements autorisés par l’IA sans interagir directement avec les patients.
L’intérêt de l’IA pour la santé mentale
Cependant, dans un contexte de pénurie de psychiatres, les chatbots conversationnels ont un rôle à jouer. « Il faut plutôt miser sur un modèle d’hybridation. On ne remplace pas le professionnel dans sa relation avec le patient, mais on améliore potentiellement ses compétences ou la vie de l’usager », explique Ludovic Samalin. Concrètement, une IA peut aider à vérifier les interactions médicamenteuses, synthétiser automatiquement le compte rendu d’une consultation, ou encore orienter les patients vers le bon niveau de prise en charge. « Si c’est intégré dans le parcours de soins, ça peut avoir une utilité et faire gagner du temps », reconnaît le psychiatre. Des études montrent même que certains patients se confient plus facilement à un agent conversationnel qu’à un médecin, levant des inhibitions liées à la crainte du jugement.
À lire aussi L’intelligence artificielle peut-elle remplacer le psy ?
Mais ces usages supposent toujours qu’un professionnel de santé reste aux commandes. En brûlant les étapes de validation et en s’affranchissant du suivi régulier d’un professionnel de santé, le dispositif mis en place dans l’Utah risque de nuire aux développements d’outils mieux encadrés. « Ce type de projet peut mal tourner, mettre le feu aux poudres et nous éloigner d’une avancée sur l’utilisation du numérique en santé », redoute Ludovic Samalin.