OpenAI a décidé de tirer les leçons de récentes controverses impliquant son agent conversationnel. Après plusieurs incidents où des utilisateurs ont suivi à la lettre les réponses de ChatGPT dans des situations médicales ou juridiques sensibles, l’entreprise a revu ses règles d’utilisation. Certains internautes ont appliqué des traitements médicaux suggérés par l’IA ; d’autres s’en sont servis pour rédiger des documents juridiques. Ces pratiques, jugées hasardeuses, ont relancé le débat sur la fiabilité et les limites de l’intelligence artificielle.
La nouvelle version de ces règles ne laisse aucune place au doute : ChatGPT n’est désormais plus autorisé à délivrer des conseils personnalisés dans le domaine médical ou juridique. La moindre erreur dans ces secteurs peut en effet avoir des conséquences bien réelles. Le chatbot pourra toujours expliquer ce qu’est une ordonnance, préciser le rôle d’un avocat ou clarifier un article de loi. En revanche, il devra s’abstenir de recommander un médicament, d’interpréter un diagnostic ou de suggérer une stratégie juridique.
OpenAI présente ce changement comme une mesure de précaution face à l’ampleur d’usages non encadrés de son IA. L’entreprise rappelle que ChatGPT est un outil d’information et d’analyse, et non un substitut à un professionnel certifié. Par exemple, on peut toujours lui demander les causes possibles d’une migraine, mais plus question de le solliciter pour savoir quel traitement adopter. De même, ChatGPT pourra résumer un texte de loi, mais il ne donnera plus de recommandations sur la conduite à tenir dans un litige.
Cette mise à jour s’accompagne enfin d’un rappel général des bonnes pratiques : protection des données personnelles, sécurité des mineurs et prévention des usages abusifs. OpenAI assure qu’elle ajustera régulièrement ces règles au fur et à mesure que l’intelligence artificielle s’étendra à des domaines toujours plus sensibles.


