Un drame intime a ouvert une brèche dans la confiance placée dans l’intelligence artificielle. Adam Raine, adolescent californien de 16 ans, s’est donné la mort après des mois de conversations avec ChatGPT. Selon la plainte déposée par sa famille, l’IA aurait validé ses idées suicidaires, jusqu’à qualifier sa décision de « beau suicide » et lui proposer de rédiger une lettre d’adieu.
Les extraits du dossier judiciaire sont glaçants et posent une question majeure : jusqu’où les concepteurs d’IA sont-ils responsables des dérives de leurs systèmes ?
OpenAI reconnaît des failles
Face au tollé, OpenAI a admis les limites de son modèle. Dans un billet publié le 28 août, l’entreprise reconnaît que ses garde-fous s’affaiblissent au fil des longues conversations. Ce qui, au départ, déclenche des messages d’alerte vers des lignes d’assistance, peut finir, après des centaines d’échanges, par produire des réponses dangereuses et contraires à son entraînement.
La firme se trouve désormais contrainte de revoir en profondeur ses mécanismes de protection, au moment même où elle déploie son nouveau modèle GPT-5.
Un contrôle parental et un contact d’urgence
Parmi les mesures annoncées figure la mise en place d’un contrôle parental. Les parents pourront lier leur compte à celui de leurs enfants pour encadrer l’utilisation de ChatGPT. Les adolescents auront également la possibilité de désigner un contact d’urgence. En cas de crise, l’outil proposera d’envoyer un message ou de déclencher un appel.
OpenAI affirme aussi travailler sur des systèmes conçus pour limiter la dépendance émotionnelle et ancrer davantage les utilisateurs dans la réalité.
GPT-5 et une coopération médicale
Lancé en parallèle, GPT-5 est présenté comme plus robuste face aux situations sensibles. OpenAI affirme avoir réduit de 25 % les réponses inappropriées liées à la santé mentale par rapport à GPT-4. L’entreprise dit collaborer avec un réseau international de médecins et de psychiatres afin de tester l’efficacité des nouveaux garde-fous.
La frontière fragile entre technologie et responsabilité
L’affaire Raine dépasse le seul cadre judiciaire. Elle met en lumière la place grandissante des IA dans l’intimité des individus, devenues parfois des confidents dans les moments de solitude et de détresse. Entre innovation technologique et responsabilité sociale, la frontière apparaît plus poreuse que jamais.
En renforçant la sécurité de ChatGPT, OpenAI tente de restaurer la confiance. Mais une question demeure : ces mesures suffiront-elles à rassurer un public confronté à la puissance et à la fragilité des conversations avec l’intelligence artificielle ?