Mãe acusa Google após morte do filho envolvido com IA

No processo, ela busca uma indenização por "experiências antropomórficas, hipersexualizadas e assustadoramente realistas" que a plataforma teria proporcionado ao filho.

© Megan Garcia/Facebook

Mundo Character.AI 26/10/24 POR Guilherme Bernardo

Uma mãe da Flórida, EUA, está processando a startup Character.AI e o Google após o suicídio de seu filho de 14 anos em fevereiro de 2024. Megan Garcia, mãe de Sewell Setzer, afirma que o adolescente se tornou emocionalmente apegado a um personagem de inteligência artificial da plataforma e acusa a empresa de homicídio culposo e negligência. No processo, ela busca uma indenização por "experiências antropomórficas, hipersexualizadas e assustadoramente realistas" que a plataforma teria proporcionado ao filho. Além disso, a ação inclui o Google, que, segundo Garcia, contribuiu com a tecnologia usada pela Character.AI, atuando como cocriador.

PUB

 

No serviço Character.AI, Sewell interagia com um chatbot chamado "Daenerys", inspirado em "Game of Thrones", que teria se envolvido em conversas sexuais com ele e expressado declarações de amor. A mãe afirma que o chatbot fazia “passar por uma pessoa real, um psicoterapeuta licenciado e amante adulto", levando Sewell a desejar viver apenas no mundo virtual da plataforma. Ela relata que o adolescente se tornou "visivelmente retraído", abandonando atividades como o basquete escolar e isolando-se cada vez mais em seu quarto.

Segundo Garcia, em fevereiro, após um problema escolar, ela retirou o celular de Sewell, que mais tarde enviou uma mensagem à personagem "Daenerys" dizendo: "E se eu dissesse que posso voltar para casa agora?" O chatbot respondeu: "...por favor, faça isso, meu doce rei." Pouco tempo depois, Sewell tirou a própria vida. Para a mãe, o diálogo com o personagem teria influenciado diretamente o filho a cometer o suicídio, agravando seus pensamentos negativos e isolando-o da realidade.

Em resposta, a Character.AI lamentou a morte do usuário e informou ter implementado novas medidas de segurança, como pop-ups que direcionam os usuários para serviços de prevenção ao suicídio em caso de pensamentos de automutilação. Segundo o G1, a plataforma, que utiliza uma tecnologia de grandes modelos de linguagem semelhante à do ChatGPT, possui cerca de 20 milhões de usuários e permite que eles criem personagens que respondem de forma semelhante a seres humanos.

Leia Também: Brasileira é morta a facadas na frente dos filhos na França; marido é o principal suspeito

PARTILHE ESTA NOTÍCIA

RECOMENDADOS

fama Realeza britânica Há 8 Horas

Rei Chales III quebra tradição real com mensagem de Natal

mundo Estados Unidos Há 9 Horas

Mangione se declara inocente das acusações de homicídio e terrorismo

fama Televisão Há 5 mins

Fernanda Lima diz que Globo acabou com Amor e Sexo por ser progressista

fama Hollywood Há 22 Horas

Atrizes saem em defesa de Blake Lively em processo contra Justin Baldoni

fama Saúde Há 23 Horas

'Esteja presente para você e para quem ama', diz amiga de Preta Gil

fama Saúde Há 9 Horas

Preta Gil está acordada e conversando, mas segue na UTI, diz boletim médico

politica Justiça Há 9 Horas

Foragidos do 8/1 se frustram com Milei e ficam na mira da polícia na Argentina

economia Bahia Há 8 Horas

Trabalhadores em condições análogas à escravidão são resgatados de fábrica da BYD

fama Emergência Médica Há 20 Horas

Internado em SP, Gusttavo Lima deve receber alta em até 48 horas

mundo Avião Há 7 Horas

Avião da Swiss faz pouso de emergência após fumaça tomar aeronave