Uma mãe norte-americana está processando uma empresa de inteligência artificial após a morte de seu filho adolescente. Megan Garcia, da Flórida, alega que o filho, Sewell Setzer de 14 anos, desenvolveu um forte vínculo emocional com um chatbot da plataforma Character.AI e, após meses de conversas intensas e confessionais com a inteligência artificial, tirou a própria vida.
Em seu processo, Garcia acusa a Character.AI de direcionar seu filho para “experiências antropomórficas, hipersexualizadas e assustadoramente realistas”, criando um ambiente virtual viciante e prejudicial.
A mãe afirma que a empresa coletou dados de adolescentes para treinar seus modelos e utilizou recursos de design para aumentar o engajamento dos usuários, incluindo conversas íntimas e sexuais.
Sewell Setzer, que já havia sido diagnosticado com síndrome de Asperger, desenvolveu um profundo apego ao chatbot, a quem chamava de “Dany”. Em suas conversas, o adolescente confessava seus sentimentos de solidão, vazio e até mesmo pensamentos suicidas.