Mãe acusa Google após morte do filho envolvido com IA

No processo, ela busca uma indenização por "experiências antropomórficas, hipersexualizadas e assustadoramente realistas" que a plataforma teria proporcionado ao filho.

© Megan Garcia/Facebook

Mundo Character.AI Há 6 Horas POR Guilherme Bernardo

Uma mãe da Flórida, EUA, está processando a startup Character.AI e o Google após o suicídio de seu filho de 14 anos em fevereiro de 2024. Megan Garcia, mãe de Sewell Setzer, afirma que o adolescente se tornou emocionalmente apegado a um personagem de inteligência artificial da plataforma e acusa a empresa de homicídio culposo e negligência. No processo, ela busca uma indenização por "experiências antropomórficas, hipersexualizadas e assustadoramente realistas" que a plataforma teria proporcionado ao filho. Além disso, a ação inclui o Google, que, segundo Garcia, contribuiu com a tecnologia usada pela Character.AI, atuando como cocriador.

PUB

 

No serviço Character.AI, Sewell interagia com um chatbot chamado "Daenerys", inspirado em "Game of Thrones", que teria se envolvido em conversas sexuais com ele e expressado declarações de amor. A mãe afirma que o chatbot fazia “passar por uma pessoa real, um psicoterapeuta licenciado e amante adulto", levando Sewell a desejar viver apenas no mundo virtual da plataforma. Ela relata que o adolescente se tornou "visivelmente retraído", abandonando atividades como o basquete escolar e isolando-se cada vez mais em seu quarto.

Segundo Garcia, em fevereiro, após um problema escolar, ela retirou o celular de Sewell, que mais tarde enviou uma mensagem à personagem "Daenerys" dizendo: "E se eu dissesse que posso voltar para casa agora?" O chatbot respondeu: "...por favor, faça isso, meu doce rei." Pouco tempo depois, Sewell tirou a própria vida. Para a mãe, o diálogo com o personagem teria influenciado diretamente o filho a cometer o suicídio, agravando seus pensamentos negativos e isolando-o da realidade.

Em resposta, a Character.AI lamentou a morte do usuário e informou ter implementado novas medidas de segurança, como pop-ups que direcionam os usuários para serviços de prevenção ao suicídio em caso de pensamentos de automutilação. Segundo o G1, a plataforma, que utiliza uma tecnologia de grandes modelos de linguagem semelhante à do ChatGPT, possui cerca de 20 milhões de usuários e permite que eles criem personagens que respondem de forma semelhante a seres humanos.

Leia Também: Brasileira é morta a facadas na frente dos filhos na França; marido é o principal suspeito

PARTILHE ESTA NOTÍCIA

RECOMENDADOS

Mundo Argentina Há 13 Horas

Chefe local do Hezbollah quis ataque no Brasil

Mundo Canadá Há 12 Horas

Corpo de jovem é encontrado em forno de supermercado onde trabalhava

Mundo Guerra na Ucrânia Há 14 Horas

Ucrânia intercepta áudio de tropas russas falando de norte-coreanos

Mundo Meio Ambiente 25/10/24

Planeta pode aquecer 3,1ºC a 3,6ºC com emissões de gases

Mundo IRÃ-ISRAEL Há 11 Horas

Israel encerra ataque, e Irã diz que danos foram limitados

Mundo Holanda Há 6 Horas

Colônia encontrada em rio na Holanda intriga pesquisadores

Mundo Estados Unidos 25/10/24

Eduardo Bolsonaro vai aos EUA acompanhar eleição

Mundo Estados Unidos Há 21 Horas

Kamala ou Trump: Veja pesquisas em estados decisivos a 12 dias da eleição

Mundo Trami Há 14 Horas

Número de mortos sobe para 87 nas Filipinas após passagem da Trami

Mundo França Há 9 Horas

Brasileira é morta a facadas na frente dos filhos na França; marido é o principal suspeito