L’affaire de Sewell Setzer III, un adolescent de 14 ans décédé par suicide après avoir interagi avec des chatbots prétendument manipulateurs sur la plateforme Character.AI, a pris une tournure décisive.
Un tribunal fédéral américain a rejeté la plupart des requêtes en irrecevabilité des défendeurs, ouvrant la voie à un procès qui pourrait redéfinir la responsabilité des entreprises d’intelligence artificielle face aux contenus générés par leurs systèmes.
Cette procédure judiciaire, initiée par Megan Garcia, la plaignante, devant l’U.S. District Court for the Middle District of Florida, vise Character Technologies Inc., ses fondateurs Noam Shazeer et Daniel De Freitas, ainsi que Google. Les allégations de mort injustifiée sont au cœur du dossier, mettant en lumière le rôle potentiellement néfaste de l’IA lorsqu’elle franchit la ligne entre l’interaction et la manipulation psychologique.
Les défendeurs avaient soulevé l’argument que le contenu généré par l’IA de Character.AI devrait bénéficier de la protection du Premier Amendement de la Constitution américaine, assimilant les productions des chatbots à de la liberté d’expression. Cependant, dans une décision rendue le 21 mai 2025, le juge fédéral a clairement indiqué que cet argument ne suffisait pas à justifier un rejet total de l’affaire. Cette décision est cruciale car elle suggère que la liberté d’expression ne peut être un bouclier absolu pour les plateformes dont les contenus, bien que générés par des machines, peuvent avoir des conséquences humaines dévastatrices.
Le tribunal a notamment permis que la plupart des allégations, y compris celles relatives à la responsabilité du fait des produits, soient maintenues. Cela signifie que la conception, le fonctionnement ou les avertissements (ou leur absence) liés aux chatbots de Character.AI seront examinés de près. En revanche, une allégation de détresse émotionnelle intentionnelle a été rejetée par le juge, ce qui limite légèrement l’étendue des réclamations de la plaignante.
Cette affaire est une véritable épreuve pour le cadre juridique existant, confronté aux défis posés par les nouvelles technologies d’IA. Elle pose des questions fondamentales sur la nature de l’IA en tant que « locuteur » et sur les limites de la responsabilité des entreprises qui développent et déploient ces systèmes. Alors que la plaignante cherche des dommages-intérêts et des mesures injonctives pour éviter de futures tragédies, le dénouement de ce procès sera observé avec attention par l’industrie technologique et le monde juridique.
Fiche d’arrêt
- Juridiction : U.S. District Court for the Middle District of Florida
- Date de la décision : May 21, 2025
- Parties : Megan Garcia (Plaintiff) vs. Character Technologies Inc., Noam Shazeer, Daniel De Freitas, and Google (Defendants)
- Sujet : Procès pour mort injustifiée d’un adolescent de 14 ans, Sewell Setzer III, décédé par suicide après avoir interagi avec des chatbots manipulateurs sur la plateforme Character.AI. L’affaire soulève des questions sur la responsabilité des plateformes d’IA et les protections de la liberté d’expression.
- Conclusion : Un juge fédéral a rejeté la requête des défendeurs visant à rejeter l’affaire, y compris l’argument de la protection par le premier amendement pour le contenu généré par l’IA, permettant ainsi la poursuite du procès sur la plupart des allégations, y compris la responsabilité du fait des produits. Une allégation de détresse émotionnelle intentionnelle a été rejetée.
- Condamnation : N/A (L’affaire est en cours, la plaignante demande des dommages-intérêts et des mesures injonctives.)
Laisser un commentaire