'Coded Bias' discute como preconceitos contaminam até inteligência artificial

Em "Coded Bias", documentário disponível no Netflix, Tay é o fio condutor para pontuar como a IA pode ser contaminada pelo conteúdo racista e machista que circula aleatoriamente pelas redes

© Pixabay

Tech Documentário 25/04/21 POR Folhapress

Em 2016, a Microsoft criou um perfil no Twitter chamado Tay. A chatbot, uma robô que usava IA (inteligência artificial) para interagir com adolescentes, saiu do controle. A ideia era que Tay aprendesse com as redes, mas acabou endossando o Holocausto e teorias da conspiração, além de reproduzir piadas racistas e machistas. A empresa pediu desculpas e tirou-a do ar em menos de 24 horas.

PUB

Em "Coded Bias", documentário disponível no Netflix, Tay é o fio condutor para pontuar como a IA pode ser contaminada pelo conteúdo racista e machista que circula aleatoriamente pelas redes e as possíveis implicações negativas para o uso de bots sem regulação.

Outra protagonista, Joy Buolamwini, estudante de doutorado em ciência da computação no MIT, vai além: mostra como os próprios algoritmos podem carregar preconceitos. No caso, algoritmos de reconhecimento facial.

Buolamwini descobriu que os sistemas identificam erroneamente rostos pretos a uma taxa muito maior do que os brancos. Negra, ela mesma foi vítima dessa falha quando seu próprio rosto não foi identificado em um teste. Quando colocava uma máscara totalmente branca, porém, descobriu que a câmera conseguia captar os seus traços.

Buolamwini passou a estudar os softwares das maiores empresas de tecnologia dos EUA, como IBM, Microsoft, Google e Amazon. Comprovou que os algoritmos desses grandes grupos reconhecem com mais facilidade rostos de homens brancos. Identificou também que o recrutamento da Amazon, feito por um robô, excluía a maioria das mulheres do processo seletivo.

Por que o padrão se repete? Buolamwini conclui que, por trás da criação de cada código, existe, provavelmente, uma equipe de homens brancos, chefiados por homens brancos.E não é por falta de profissionais gabaritadas. Como contraponto para a predominância masculina nas empresas de tecnologia, a diretora Shalini Kantayya usa depoimentos, em sua maioria, de mulheres com currículos dignos de ocupar posições de liderança.

Entre as entrevistas, traz mulheres como Cathy O'Neil, autora de "Algoritmos de Destruição em Massa", Meredith Broussard, professora da NYU (Universidade de Nova York) que escreveu "Artificial Unintelligence: How Computers Misunderstand the World" [desinteligência artificial: como os computadores desentendem o mundo]", e Timnit Gebru, ex-cientista de IA do Google.

Além da discussão do racismo e do machismo institucional, o doc toca em outro ponto. O que é mais danoso: a vigilância estatal ou a corporativa?

Entre os exemplos de controle via Estado, o documentário mostra o sistema de pontuação desenvolvido pela China, onde o governo está ciente de cada passo do cidadão. Há pontuação para desempenho escolar, para pagamento de dívidas, para atividades rotineiras. E essa vigilância não é escondida, é explícita. Cada um tem acesso ao escore do outro. Em um depoimento, uma chinesa diz que escolhe pelo escore se sairá com um pretendente. "Economizo meu tempo."

Em Hong Kong, durante os protestos pró-democracia em 2019, a vigilância teve conotação política. O reconhecimento facial foi usado pelo governo para perseguir manifestantes, que reagiram à tecnologia invasiva usando lasers, quebrando câmera e cobrindo os rostos com máscaras.

Já no Reino Unido, o reconhecimento facial foi adotado de modo experimental pela polícia de Londres. Silkie Carbo, da ONG Big Brother Watch, compara a coleta biométrica ao ato de recolher, sem autorização, digitais ou amostras de DNA. Segundo a ONG, 98% das correspondências pelas câmeras identificaram incorretamente inocentes como se fossem foragidos.

"Isso acontece não só na China mas também no Ocidente -estamos sendo avaliados constantemente, a diferença é que os dados são vendidos comercialmente pelas big techs", diz Broussard.

O estado de vigilância, seja para repressão política seja para ganho econômico, precisa ser igualmente vigiado, alerta o documentário. Para a diretora, o caminho é a regulamentação das empresas. Reino Unido e EUA trazem exemplos, mas cada país terá de encontrar sua solução.

Coded BiasProdução: EUA, 2020Direção: Shalini KantayyaDisponível: na Netflix

PARTILHE ESTA NOTÍCIA

RECOMENDADOS

fama Beto Barbosa Há 19 Horas

Beto Barbosa é criticado por ter se casado com adolescente de 15 anos

politica Investigação 23/11/24

PF põe Bolsonaro como líder de organização e vê viagem aos EUA como parte de plano, diz TV

fama Harry e Meghan Markle Há 23 Horas

Harry e Meghan Markle deram início ao divórcio? O que se sabe até agora

fama Redes Sociais Há 19 Horas

Jojo Todynho vira garota-propaganda da Havan, que ironiza 'cancelamento'

fama Vídeo 23/11/24

DiCaprio é acusado de 'comportamento desrespeitoso' em hotel

fama TV Há 20 Horas

Elizabeth Savala faz 70 anos e negocia volta à TV

lifestyle Culinária de luxo Há 23 Horas

As comidas mais caras do mundo: Você já provou alguma?

fama INFLUENCIADOR-DIGITAL Há 19 Horas

Virgínia, Felipe Neto e outros influenciadores deixaram de pagar R$ 30 mi em tributos com o Perse

fama CARIÚCHA-CANTORA Há 20 Horas

Cariúcha não apresenta 'Fofocalizando', e programa revela cirurgia plástica

fama Presos Há 23 Horas

Famosos que foram presos várias vezes: Quem tem o recorde?