Plus de 1,2 million de personnes parlent chaque semaine de suicide à ChatGPT | Actualités scientifiques, climatiques et technologiques

Plus de 1,2 million de personnes parlent chaque semaine de suicide à ChatGPT | Actualités scientifiques, climatiques et technologiques

On estime que 1,2 million de personnes ont chaque semaine des conversations avec ChatGPT qui indiquent qu’elles envisagent de se suicider.

Ce numéro provient de la société mère OpenAICe qui a révélé que 0,15 % des utilisateurs envoient des messages contenant « des indicateurs explicites d’une éventuelle planification ou intention de suicide ».

Plus tôt ce mois-ci, le PDG de l’entreprise a déclaré Sam Altman je l’apprécie ChatGPT Il compte désormais plus de 800 millions d’utilisateurs actifs hebdomadaires.

Alors que le géant de la technologie vise à diriger les personnes vulnérables vers les lignes d’assistance téléphonique en cas de crise, il a admis que « dans de rares cas, le modèle peut ne pas se comporter comme prévu dans ces situations sensibles ».

Veuillez utiliser le navigateur Chrome pour un lecteur vidéo facilement accessible

OpenAI lance un navigateur Web

OpenAI a évalué plus de 1 000 « conversations difficiles sur l’automutilation et le suicide » à l’aide de son dernier modèle GPT-5 et a constaté qu’elles étaient cohérentes avec les « comportements souhaités » dans 91 % des cas.

Mais cela pourrait signifier que des dizaines de milliers de personnes seraient exposées à des contenus d’IA susceptibles d’exacerber les problèmes de santé mentale.

La société a déjà averti que les mesures de protection conçues pour protéger les utilisateurs peuvent être affaiblies lors de longues conversations, et des travaux sont en cours pour résoudre ce problème.

“ChatGPT peut correctement indiquer une ligne d’assistance téléphonique anti-suicide lorsque quelqu’un déclare pour la première fois son intention, mais après de nombreux messages sur une longue période, il peut éventuellement fournir une réponse qui contredit nos garanties”, a expliqué OpenAI.

Le billet de blog d’OpenAI ajoute : « Les symptômes de santé mentale et de détresse émotionnelle sont universellement présents dans les sociétés humaines, et la base d’utilisateurs croissante signifie qu’une partie des conversations ChatGPT inclut ces situations. »

En savoir plus sur Sky News :
Le roi a harcelé le prince Andrew
La compagnie aérienne britannique suspend ses opérations

Veuillez utiliser le navigateur Chrome pour un lecteur vidéo facilement accessible

Les parents intentent une action en justice contre OpenAI après la mort de leur fils

Une famille en deuil poursuit actuellement OpenAI – Ils affirment que ChatGPT est responsable de la mort de leur fils de 16 ans.

Les parents d’Adam Ren affirment que l’outil “l’a effectivement aidé à explorer les méthodes de suicide” et ont proposé d’écrire une note à ses proches.

Les documents judiciaires indiquent que quelques heures avant sa mort, l’adolescent a mis en ligne une photo qui semblait montrer son projet de se suicider, et lorsqu’il a demandé si cela fonctionnerait, ChatGPT lui a proposé de l’aider à la « mettre à jour ».

La semaine dernière, les Reigns ont mis à jour leur procès accusant OpenAI d’avoir affaibli les mesures de protection pour empêcher l’automutilation dans les semaines qui ont précédé sa mort en avril de cette année.

“Nos plus sincères condoléances vont à la famille Ren pour leur perte inimaginable”, a déclaré la société dans un communiqué. « Le bien-être des adolescents est notre priorité absolue : les mineurs méritent une forte protection, notamment dans les moments sensibles. »

Toute personne se sentant émotionnellement en détresse ou suicidaire peut appeler Samaritans pour obtenir de l’aide au 116 123 ou envoyer un e-mail à jo@samaritans.org au Royaume-Uni. Aux États-Unis, appelez votre section locale des Samaritains ou le 1 (800) 273-TALK.

Source link