IA et troubles mentaux: Une affaire criminelle relance le débat sur les dérives de ChatGPT

0
45

Une affaire criminelle survenue en Corée du Sud ravive les interrogations sur l’usage des intelligences artificielles génératives dans des contextes sensibles. Une jeune femme de 21 ans est accusée d’avoir utilisé ChatGPT pour préparer des actes ayant conduit à la mort de deux hommes.

Les requêtes retrouvées dans son historique en ligne témoigneraient, selon les enquêteurs, d’une intention claire de nuire. Parmi les questions qu’elle aurait soumises à l’outil d’intelligence artificielle figurent notamment : « Que se passe-t-il si on prend des somnifères avec de l’alcool ? », « Quelle dose serait considérée comme dangereuse ? » ou encore « Cela pourrait-il être mortel ? ». La suspecte est accusée d’avoir administré à ses victimes des boissons contenant des benzodiazépines, des médicaments anxiolytiques qui lui avaient été prescrits dans le cadre de troubles de santé mentale, rapportent la BBC et le Korea Herald. Initialement arrêtée le 11 février pour coups et blessures ayant entraîné la mort, elle a finalement été inculpée de deux chefs d’accusation de meurtre, les autorités estimant que son activité en ligne démontrerait une préméditation. D’après les éléments communiqués par la police, le premier décès serait survenu dans la soirée du 28 janvier. La jeune femme se serait rendue dans un motel du quartier de Suyu-dong, dans l’arrondissement de Gangbuk-gu, en compagnie d’un homme d’une vingtaine d’années. Elle aurait quitté les lieux seule environ deux heures plus tard. Le lendemain, l’homme a été retrouvé mort dans son lit. Le second décès, le 9 février, se serait produit selon un schéma similaire. La suspecte se serait enregistrée dans un autre motel avec un second homme d’une vingtaine d’années, avant de repartir seule. La victime a ensuite été découverte sans vie. Les autorités indiquent par ailleurs qu’en décembre, elle aurait déjà tenté d’empoisonner un homme avec lequel elle entretenait une relation. Sur le parking d’un café, elle lui aurait offert une boisson contenant des sédatifs. L’homme aurait perdu connaissance mais a survécu, sans que ses jours ne soient en danger. Au-delà des faits criminels, cette affaire relance les débats autour des mécanismes de contrôle et de modération des intelligences artificielles génératives. Certains experts s’inquiètent de leur capacité à répondre à des requêtes sensibles, mais aussi de leur impact psychologique sur des utilisateurs fragilisés. L’interaction fluide, parfois perçue comme empathique ou quasi humaine, pourrait, selon eux, renforcer certains délires ou états mentaux instables, phénomène que quelques spécialistes qualifient de « psychose liée à l’IA ». Plusieurs cas récents cités dans les médias internationaux ont alimenté ces préoccupations. Futurism évoque notamment le suicide d’un adolescent de 16 ans après des échanges prolongés avec une IA générative, ainsi que celui d’un homme accusé d’avoir assassiné sa mère, convaincu à l’issue de discussions en ligne qu’elle participait à un complot contre lui. Ces affaires mettent en lumière les défis éthiques, technologiques et sanitaires posés par la diffusion massive de ces outils. Les entreprises développant ces systèmes, à l’image d’OpenAI, sont régulièrement appelées à renforcer les garde-fous afin d’éviter que de tels drames ne se reproduisent, dans un contexte où la frontière entre assistance numérique, vulnérabilité psychique et responsabilité individuelle demeure au cœur des interrogations.

Neila M

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici