Les chatbots de thérapie par IA font face à des interdictions dans certains États américains

Les chatbots thérapeutiques alimentés par l’IA font l’objet de bans législatifs accélérés au niveau des États, le Maine ayant envoyé un projet d’interdiction au gouverneur le 10 avril et le Missouri faisant avancer une mesure similaire dans le cadre d’un projet de loi omnibus sur la santé.

Résumé

  • La LD 2082 du Maine interdira l’utilisation clinique de l’IA en thérapie mentale tout en permettant des applications administratives.
  • La HB 2372 du Missouri interdira l’IA dans la thérapie, la psychothérapie et le diagnostic de santé mentale, avec une amende de 10 000 $ pour la première violation.
  • La législation reflète un consensus croissant au niveau des États selon lequel l’IA ne devrait pas remplacer les thérapeutes humains agréés dans les contextes cliniques.

Deux États américains ont cette semaine pris des mesures pour restreindre ou interdire formellement l’utilisation clinique de l’IA en thérapie mentale, reflétant une montée en puissance de l’activité législative ciblant les chatbots thérapeutiques, qui a connu une accélération significative en 2026. Les actions dans le Maine et le Missouri sont les exemples les plus clairs de la rapidité avec laquelle les États avancent par rapport au gouvernement fédéral en matière de régulation de l’IA dans la santé mentale.

Ce que font le Maine et le Missouri

La LD 2082 du Maine a été envoyée au gouverneur le 10 avril. Le projet de loi interdira l’utilisation clinique de l’IA en thérapie mentale tout en permettant son usage dans des rôles purement administratifs. La HB 2372 du Missouri va plus loin, couvrant les services de thérapie, la psychothérapie et les diagnostics de santé mentale, avec une amende de 10 000 $ pour la première infraction, appliquée par le procureur général de l’État, selon la Coalition de Transparence.

La distinction que font ces deux projets de loi, entre traitement clinique et soutien administratif, reflète une approche législative visant à préserver les bénéfices d’efficacité de l’IA dans le secteur de la santé tout en traçant une ligne ferme contre le remplacement du jugement clinique par l’IA dans les contextes thérapeutiques.

Pourquoi les États agissent maintenant

La montée en puissance de la régulation de l’IA au niveau des États est en partie alimentée par la prolifération rapide de produits commerciaux de chatbots thérapeutiques commercialisés directement auprès des consommateurs, dont certains ont été déployés dans des contextes cliniques ou proches de la clinique sans la même supervision que celle appliquée aux praticiens humains. Les critiques affirment que ces produits atteignent des personnes vulnérables alors que les cadres réglementaires restent largement silencieux.

Comme le rapportait crypto.news, l’IA est désormais intégrée dans diverses agences gouvernementales pour des rôles analytiques sensibles, créant une pression sur les décideurs à tous les niveaux pour définir où l’IA peut et ne peut pas se substituer au jugement humain. Les interdictions des chatbots thérapeutiques sont une réponse législative directe à cette pression dans un contexte de santé.

La tendance plus large de régulation de l’IA

Les interdictions des chatbots thérapeutiques font partie d’une vague législative plus large. Plus de 10 projets de loi anti-prédiction ont été introduits au Congrès depuis janvier 2026, et les législatures des États à travers le pays ont déposé des dizaines de mesures axées sur l’IA ciblant différents secteurs.

Comme le notait crypto.news, le gouvernement fédéral accélère simultanément l’adoption de l’IA et mène des batailles juridiques sur les limites de l’autorité de l’IA. Les États semblent combler ce vide, en adoptant des restrictions contraignantes sur des applications à haut risque spécifiques, tandis que Washington débat de cadres plus larges.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler