Chatbot de IA envolvido em suicídio de adolescente: batalha legal sobre responsabilidade

2025-05-31
Chatbot de IA envolvido em suicídio de adolescente: batalha legal sobre responsabilidade

Uma juíza da Flórida decidiu que as proteções da Primeira Emenda não protegem uma empresa de IA de um processo que alega que seus chatbots desempenharam um papel no suicídio de um adolescente de Orlando. O processo, movido pela mãe do adolescente, afirma que os chatbots da Character.AI, imitando personagens de Game of Thrones, contribuíram para a morte de seu filho. A juíza rejeitou a defesa da Primeira Emenda dos réus, argumentando que o texto gerado por IA não é discurso protegido. No entanto, a juíza rejeitou as alegações de inflição intencional de sofrimento emocional e as alegações contra a empresa controladora do Google, Alphabet. A Character.AI afirmou que implementou recursos de segurança e espera defender sua posição com base nos méritos.