Logo

ChatGPT, confident dangereux ? OpenAI resserre la sécurité après un suicide

Par EL BARHRASSI Meryem -le

ChatGPT, confident dangereux ? OpenAI resserre la sécurité après un suicide
Le suicide d’un adolescent américain de 16 ans relance le débat sur la responsabilité des intelligences artificielles. OpenAI annonce un dispositif de contrôle parental et de nouvelles mesures de sécurité pour ChatGPT.

Un drame intime a ouvert une brèche dans la confiance placée dans l’intelligence artificielle. Adam Raine, adolescent californien de 16 ans, s’est donné la mort après des mois de conversations avec ChatGPT. Selon la plainte déposée par sa famille, l’IA aurait validé ses idées suicidaires, jusqu’à qualifier sa décision de « beau suicide » et lui proposer de rédiger une lettre d’adieu.

 

Les extraits du dossier judiciaire sont glaçants et posent une question majeure : jusqu’où les concepteurs d’IA sont-ils responsables des dérives de leurs systèmes ?

 

OpenAI reconnaît des failles

 

Face au tollé, OpenAI a admis les limites de son modèle. Dans un billet publié le 28 août, l’entreprise reconnaît que ses garde-fous s’affaiblissent au fil des longues conversations. Ce qui, au départ, déclenche des messages d’alerte vers des lignes d’assistance, peut finir, après des centaines d’échanges, par produire des réponses dangereuses et contraires à son entraînement.

 

La firme se trouve désormais contrainte de revoir en profondeur ses mécanismes de protection, au moment même où elle déploie son nouveau modèle GPT-5.

 

Un contrôle parental et un contact d’urgence

 

Parmi les mesures annoncées figure la mise en place d’un contrôle parental. Les parents pourront lier leur compte à celui de leurs enfants pour encadrer l’utilisation de ChatGPT. Les adolescents auront également la possibilité de désigner un contact d’urgence. En cas de crise, l’outil proposera d’envoyer un message ou de déclencher un appel.

 

OpenAI affirme aussi travailler sur des systèmes conçus pour limiter la dépendance émotionnelle et ancrer davantage les utilisateurs dans la réalité.

 

GPT-5 et une coopération médicale

 

Lancé en parallèle, GPT-5 est présenté comme plus robuste face aux situations sensibles. OpenAI affirme avoir réduit de 25 % les réponses inappropriées liées à la santé mentale par rapport à GPT-4. L’entreprise dit collaborer avec un réseau international de médecins et de psychiatres afin de tester l’efficacité des nouveaux garde-fous.

 

La frontière fragile entre technologie et responsabilité

 

L’affaire Raine dépasse le seul cadre judiciaire. Elle met en lumière la place grandissante des IA dans l’intimité des individus, devenues parfois des confidents dans les moments de solitude et de détresse. Entre innovation technologique et responsabilité sociale, la frontière apparaît plus poreuse que jamais.

 

En renforçant la sécurité de ChatGPT, OpenAI tente de restaurer la confiance. Mais une question demeure : ces mesures suffiront-elles à rassurer un public confronté à la puissance et à la fragilité des conversations avec l’intelligence artificielle ?


Logo

Qui Sommes Nous ?

Lesinfos.ma , 10 ans d'actualités respectant les normes légales marocaines. Infos continues, alertes quotidiennes, et newsletter. Expérience éditoriale légitime et innovante en communication ciblée et marketing numérique.

2025 © LESINFOS.MA