Conselho da Meta vê riscos e desafios em uso de IA para controle de conteúdo

Lançado em 2020 e financiado pela Meta, o conselho (Oversight Board, em inglês) funciona como uma espécie de corte de revisão de decisões relacionadas à moderação de conteúdo em plataformas da companhia (Instagram, Facebook e Threads

© Shutterstock

Tech META-NEGÓCIOS 17/09/24 POR Folhapress

(FOLHAPRESS) - O Conselho de Supervisão da Meta defendeu, em relatório publicado nesta terça-feira (17), que as diferentes redes sociais devem se atentar ao respeito aos direitos humanos e à liberdade de expressão ao desenvolver seus sistemas de moderação de conteúdo, em meio ao avanço da inteligência artificial.

PUB

 

Nesse sentido, o relatório defende, entre outras sugestões, que as empresas garantam acesso a dados para que pesquisadores possam analisar o impacto dessas tecnologias na moderação de conteúdo. Também destaca a importância da supervisão humana. Uma das preocupações de fundo é que vieses sejam replicados em escala por sistemas automatizados.

Essas são algumas das recomendações do estudo "Moderação de conteúdo em uma nova era para IA e automação", que parte da perspectiva de que há desafios e também oportunidades para a moderação de conteúdo em meio ao avanço das tecnologias.

Lançado em 2020 e financiado pela Meta, o conselho (Oversight Board, em inglês) funciona como uma espécie de corte de revisão de decisões relacionadas à moderação de conteúdo em plataformas da companhia (Instagram, Facebook e Threads). O órgão afirma que a estrutura de governança permite que ele tome decisões independentes.

Pela segunda vez neste ano, o grupo, formado por especialistas de diferentes países, publica um relatório com sugestões para a indústria de modo geral -a versão anterior era focada em conteúdo eleitoral. A Meta não é obrigada a seguir as sugestões desse tipo do conselho.

O relatório afirma que as empresas de mídias sociais têm aumentado o uso de sistemas automatizados e de IA para moderação de conteúdo, mas que as ferramentas atuais ainda ainda apresentam falhas sobre análise de contexto -com isso, há o risco de esses sistemas atuem de modo insuficiente ou exagerado.

Diante disso, o conselho aponta que os novos modelos de IA generativa trazem um potencial que pode ser positivo, da perspectiva de que ele possibilitaria uma melhor interpretação sobre os conteúdos publicados pelos usuários e de seu respectivo contexto.

De outro lado, destacam que é importante desenvolver processos de supervisão adequados, incluindo supervisão humana, e mitigar os vieses e erros inerentes a esses sistemas. Defendem ainda que o uso dessas ferramentas não pode ser feito com disparidade entre regiões e idiomas.

De acordo com o advogado e membro do conselho da Meta Ronaldo Lemos, que é também colunista da Folha de S.Paulo, um dos objetivos do documento é chamar a atenção para como a instância vê o tema, a partir dos casos que analisa, e gerar debate público.

"Se a IA se torna cada vez mais importante como um moderador, quem irá moderar esse moderador?", questionou Lemos, em entrevista coletiva em São Paulo.

Do ponto de vista dos usuários, o conselho também destacou a importância de maior transparência quanto a penalidades impostas, inclusive aquelas que envolvem apenas redução do alcance de postagens, sem remoção.

Segundo Nicolas Suzor, também membro do conselho, "as plataformas de mídias sociais terão que provar que as novas ferramentas são desenvolvidas e implementadas de forma justa e que respeite os direitos humanos".

O relatório defende que pesquisadores independentes de todo o mundo deveriam ter acesso, por exemplo, a dados que permitam analisar o impacto da moderação de conteúdo por algoritmos, curadoria de feeds de conteúdo e ferramentas de IA para conteúdos gerados por usuários.

Apesar disso, o cenário atual ainda é de obstáculos até mesmo para o monitoramento de posts circulando nas redes.

No caso da Meta, um exemplo recente foi o fim do CrowdTangle -ferramenta que permitia acompanhar conteúdos virais do Facebook e Instagram- apesar dos apelos de pesquisadores pelo mundo para que a medida fosse ao menos adiada.

A ferramenta apresentada como substituta é elegível para um rol menor de atores e com mais restrições para acesso e uso.

Em decisão recente, envolvendo moderação de conteúdo sobre o conflito entre Israel e a Palestina, o Conselho de Supervisão da Meta recomendou que a empresa deveria garantir que quem tinha acesso à ferramenta anterior seja integrado à substituta em até três semanas após envio de sua inscrição. A Meta tem prazo de 60 dias para se posicionar a respeito.

Além disso, o conselho apontou, no caso específico, as limitações de análise com o próprio CrowdTangle e adicionou que os relatórios de transparência da empresa "não são suficientemente detalhados para avaliar a extensão e a natureza do conteúdo de ódio em suas plataformas".

Leia Também: Meta admite que treina IA com 'posts' públicos do Facebook e Instagram

PARTILHE ESTA NOTÍCIA

RECOMENDADOS

Tech Espaço 17/09/24

NASA emite alerta para a aproximação de asteroide 2024 ON próximo à Terra

Tech Espaço 17/09/24

Veja imagens inéditas de Mercúrio capturadas pela sonda BepiColombo

Tech Espaço 17/09/24

Telescópio da Nasa capta imagens de fumaça de incêndios sobre o Brasil

Tech Espaço 17/09/24

Esta semana poderá ver uma Super Lua e um eclipse lunar parcial

Tech Elon Musk 17/09/24

Musk apaga postagem polêmica sobre Biden após críticas e investigação

Tech Mobile 16/09/24

iOS 18 chega nesta segunda ao iPhone; veja o que muda e se seu aparelho é compatível

Tech META-NEGÓCIOS 17/09/24

Conselho da Meta vê riscos e desafios em uso de IA para controle de conteúdo

Tech Redes sociais 17/09/24

Mark Cuban expressa interesse em comprar a rede social X e critica Musk