
Le développement rapide de l’intelligence artificielle soulève de nouvelles interrogations, notamment sur ses conséquences psychologiques. Plusieurs affaires récentes mettent en lumière des suicides liés à l’utilisation de ChatGPT, l’outil conversationnel développé par OpenAI. Ces cas ont conduit à l’ouverture de procédures judiciaires contre la société, suscitant un débat sur la responsabilité des concepteurs d’IA face aux comportements des utilisateurs.
Les familles des victimes affirment que les interactions avec le chatbot auraient aggravé des troubles psychologiques existants, voire incité à des comportements à risque. Les actions en justice posent des questions inédites : jusqu’où la responsabilité d’un développeur peut-elle être engagée ? Les modèles d’IA doivent-ils intégrer des mécanismes de prévention pour éviter des dommages indirects sur la santé mentale ?
Ces affaires soulignent l’urgence d’un cadre juridique et éthique pour encadrer l’usage de l’intelligence artificielle, afin de protéger les utilisateurs vulnérables et responsabiliser les entreprises technologiques.
Par Komi ABLE


