Maxi-amende de 15 millions d'euros pour OpenAI : pourquoi le Garant de la confidentialité a sanctionné ChatGPT

ChatGPT ne pourra-t-il plus donner de conseils médicaux et juridiques ? Comment les choses se passent réellement

  • Sciences et technologies
  • Réseaux sociaux et Web

OpenAI précise : il n'est pas vrai que ChatGPT ne puisse plus fournir de conseils médicaux ou juridiques, mais des limites claires ont été imposées. L’IA peut informer, mais non remplacer les médecins, les avocats ou les professionnels qualifiés.

Des nouvelles circulent en ligne selon lesquelles ChatGPT ne peut plus fournir de conseils médicaux ou juridiques. Une nouvelle qui est pourtant totalement infondée. OpenAI est intervenu pour clarifier la situation et l'a expliquée comme une politique. Les règles, en effet, étaient déjà présentes depuis un certain temps : le chatbot dans les domaines qui nécessitent une licence professionnelle, mais peuvent fournir des informations générales à des fins pédagogiques.

L'affaire a explosé après un post viral – supprimé par la suite – qui parlait d'un « changement de censure » de la part de l'entreprise. Rien ne pourrait être plus éloigné de la réalité. Comme l'explique Karan Singhal, responsable de l'IA dans le domaine de la santé chez OpenAI, ChatGPT continuera d'être «une ressource utile pour comprendre les questions juridiques et de santé« , mais .

Les nouvelles règles : informer oui, prescrire non

Depuis le 29 octobre 2025, OpenAI a simplement unifié ses politiques dans un document plus clair, s'alignant également sur les demandes de la loi européenne sur l'IA. Les règles interdisent l'utilisation de l'intelligence artificielle pour fournir des conseils personnalisés dans des domaines tels que la santé, la justice, la finance, l'emploi et l'éducation, sauf sous la supervision d'un professionnel agréé.

Cela signifie que ChatGPT peut expliquer ce qu'est un contrat ou une bronchite, mais il ne peut pas rédiger de testament sur mesure ni suggérer un antibiotique. L’objectif est de protéger les utilisateurs de risques concrets : ces derniers mois, des cas d’intoxication voire d’épisodes psychotiques liés à des réponses incorrectes des chatbots sont apparus.

OpenAI reconnaît que les chatbots peuvent sembler empathiques et dignes de confiance, mais . L’intelligence artificielle doit soutenir, et non remplacer, ceux qui possèdent des compétences professionnelles certifiées. À une époque où des millions d’utilisateurs confient à ChatGPT des pensées intimes ou des problèmes psychologiques, la distinction entre information et thérapie, entre aide et diagnostic, est plus importante que jamais. La règle est simple mais essentielle : ChatGPT peut vous aider à comprendre, mais il ne peut pas décider à votre place.

Source : OpenAI

A lire également