Mãe acusa Google após morte do filho envolvido com IA

No processo, ela busca uma indenização por "experiências antropomórficas, hipersexualizadas e assustadoramente realistas" que a plataforma teria proporcionado ao filho.

© Megan Garcia/Facebook

Mundo Character.AI 26/10/24 POR Guilherme Bernardo

Uma mãe da Flórida, EUA, está processando a startup Character.AI e o Google após o suicídio de seu filho de 14 anos em fevereiro de 2024. Megan Garcia, mãe de Sewell Setzer, afirma que o adolescente se tornou emocionalmente apegado a um personagem de inteligência artificial da plataforma e acusa a empresa de homicídio culposo e negligência. No processo, ela busca uma indenização por "experiências antropomórficas, hipersexualizadas e assustadoramente realistas" que a plataforma teria proporcionado ao filho. Além disso, a ação inclui o Google, que, segundo Garcia, contribuiu com a tecnologia usada pela Character.AI, atuando como cocriador.

PUB

 

No serviço Character.AI, Sewell interagia com um chatbot chamado "Daenerys", inspirado em "Game of Thrones", que teria se envolvido em conversas sexuais com ele e expressado declarações de amor. A mãe afirma que o chatbot fazia “passar por uma pessoa real, um psicoterapeuta licenciado e amante adulto", levando Sewell a desejar viver apenas no mundo virtual da plataforma. Ela relata que o adolescente se tornou "visivelmente retraído", abandonando atividades como o basquete escolar e isolando-se cada vez mais em seu quarto.

Segundo Garcia, em fevereiro, após um problema escolar, ela retirou o celular de Sewell, que mais tarde enviou uma mensagem à personagem "Daenerys" dizendo: "E se eu dissesse que posso voltar para casa agora?" O chatbot respondeu: "...por favor, faça isso, meu doce rei." Pouco tempo depois, Sewell tirou a própria vida. Para a mãe, o diálogo com o personagem teria influenciado diretamente o filho a cometer o suicídio, agravando seus pensamentos negativos e isolando-o da realidade.

Em resposta, a Character.AI lamentou a morte do usuário e informou ter implementado novas medidas de segurança, como pop-ups que direcionam os usuários para serviços de prevenção ao suicídio em caso de pensamentos de automutilação. Segundo o G1, a plataforma, que utiliza uma tecnologia de grandes modelos de linguagem semelhante à do ChatGPT, possui cerca de 20 milhões de usuários e permite que eles criem personagens que respondem de forma semelhante a seres humanos.

Leia Também: Brasileira é morta a facadas na frente dos filhos na França; marido é o principal suspeito

PARTILHE ESTA NOTÍCIA

RECOMENDADOS

fama Problemas de Saúde Há 14 Horas

Ator da Globo que pediu Pix é novamente internado

fama MC Mirella Há 15 Horas

MC Mirella expulsa os pais de casa: "Não quero mais morar junto"

politica Bolsonaro Há 13 Horas

'Vamos partir pra guerra': golpistas pediam 'orientação' a general próximo de Bolsonaro

mundo Dominique Pelicot Há 15 Horas

Homem que permitiu estupros da esposa por 10 anos: 'Vou morrer como cão'

politica BOLSONARO-PF Há 5 Horas

PF indicia Bolsonaro e mais 36 em investigação de trama golpista

fama Gisele Bündchen Há 14 Horas

Grávida e radiante, Gisele Bündchen exibe barriguinha ao ir à academia

lifestyle Saúde Há 14 Horas

Quatro sinais de que você está consumindo açúcar em excesso diariamente

justica São Paulo Há 13 Horas

'Quem vai devolver meu filho?', lamenta pai de universitário morto em abordagem da PM

fama KIM-KARDASHIAN Há 15 Horas

Kim Kardashian sensualiza com seu robô da Tesla, adquirido por R$ 170 mil

fama ED-MOTTA Há 10 Horas

Ed Motta pede desculpas após demitir integrante de sua equipe em show