Redes sociais adotam medidas para combater fake news nas eleições
Facebook, Google, YouTube, Twitter e WhatsApp estão nesta luta
© Gerd Altmann / Pixabay
Tech Novas medidas
A ascensão das chamadas notícias falsas (fake news, no termo em inglês) a um objeto de preocupação em todo o mundo colocou no centro da discussão o papel de redes sociais como Facebook, Google, YouTube, Twitter e WhatsApp. Se por um lado é reconhecido que o fenômeno da desinformação é antigo, por outro lado é consenso entre pesquisadores, autoridades e empresas que a diferença no cenário atual de divulgação de conteúdos falsos está no alcance e na velocidade permitidos pelo compartilhamento de mensagens nesses ambientes. Para tentar diminuir os questionamentos e o dano à imagem, diversas redes sociais vêm anunciando medidas para tentar combater a circulação das notícias falsas.
As redes sociais são terreno fértil para a difusão de notícias falsas por diferentes motivos. Alguns criadores desses conteúdos buscam divulgar uma ideia ou atacar uma pessoa, partido ou instituição. Outros têm motivação econômica, uma vez que a grande circulação de uma publicação gera interações, o que pode se traduzir em dinheiro a partir da lógica de veiculação de anúncios nessas plataformas. Foi o caso, por exemplo, de jovens da Macedônia que criaram perfis para difundir notícias falsas nas eleições dos Estados Unidos em 2016 como fonte de renda.
+ Como minimizar os efeitos do monitoramento das redes sociais
Essas possibilidades geraram intensos questionamentos. Nos Estados Unidos, o Facebook virou objeto de investigação do Congresso sobre uma possível influência de organizações russas nas eleições de 2016. O presidente da empresa, Mark Zuckerberg, teve de ir ao Congresso prestar explicações também sobre o escândalo de vazamento de dados de 87 milhões de usuários envolvendo a empresa de marketing eleitoral Cambridge Analytica. A companhia foi questionada ainda por autoridades de outros países, inclusive brasileiras, sobre o caso.
Na Índia, o WhatsApp, aplicativo de propriedade do Facebook, virou assunto de preocupação nacional nas últimas semanas depois de uma série de assassinatos e linchamentos a partir de informações falsas divulgadas na rede social.
O Google sofreu críticas por apresentar nos resultados de busca informações falsas, tanto sobre as eleições dos EUA quanto sobre fatos históricos, como o Holocausto.
Rede social mais criticada, o Facebook inicialmente rebateu as acusações relativas ao papel nas eleições dos EUA, mas depois do pleito passou a anunciar um conjunto de medidas para reduzir a circulação dessas mensagens na sua plataforma. A principal delas foi a realização de um acordo com agências de checagem para averiguar a veracidade de publicações. No Brasil, a parceria envolve as agências Lupa, Aos Fatos e France Press. “Esse mecanismo permitiu cortar em até 80% a distribuição orgânica de notícias consideradas falsas por agências de verificação parceiras nos Estados Unidos, onde a ferramenta já está funcionando há algum tempo”, relatou a empresa em nota divulgada em 10 de maio.
Conteúdos são selecionados por meio de sistemas automatizados da plataforma e a partir de denúncias feitas por pessoas. Há ferramentas para que usuários possam indicar um post como fake news. Em seguida, são checados pelas agências – cada uma com metodologia específica. A Lupa, por exemplo, classifica os textos em: (1) verdadeiro; (2) verdadeiro, mas.., quando o leitor merece mais explicações; (3) ainda é cedo pra dizer, quando a informação ainda não é verdadeira; (4) exagerado; (5) contraditório; (6) insustentável; e (7) falso.
Em 2017, o Facebook anunciou que as checagens apareceriam como uma informação adicional. Contudo, em 2018 elas passaram a ter consequências para os autores. Aquelas mensagens consideradas falsas têm o alcance reduzido, e os usuários que as compartilharam recebem uma notificação.
Outra frente de atuação é o combate aos perfis falsos, identificados como um instrumento de difusão de fake news. A empresa anunciou em maio que derrubou neste ano, em média, 6 milhões de contas falsas por dia. A remoção ocorreu baseada nos “parâmetros da comunidade”, regras que, quando violadas, geram a exclusão da publicação. O chamado discurso de ódio, muitas vezes associado a notícias falsas, também é objeto de retirada. “Também removemos 2,5 milhões de conteúdos com discurso de ódio no primeiro trimestre de 2018”, informou o vice-presidente de produto, Guy Rosen, em comunicado publicado em 15 de maio.
Uma das principais críticas de autoridades e organizações da sociedade civil é a falta de transparência no pagamento de anúncios, recurso usados por organizações russas na disputa estadunidense de 2016. No Brasil, também cresceu o receio sobre possíveis abusos nessa ferramenta depois que ela foi legalizada para as eleições deste ano pela minirreforma eleitoral aprovada no ano passado.
O Facebook anunciou ao longo do ano algumas ações sobre o tema, como a identificação de anúncios políticos (no Brasil são aqueles divulgados por candidatos), a disponibilização da informação em cada página de quais anúncios estão ativos ou já foram distribuídos no passado. “Durante a campanha eleitoral, os brasileiros verão quais anúncios foram marcados pelos anunciantes nessa categoria, e todos eles serão adicionados ao arquivo”, explicou a diretora de Marketing de Produto, Emma Rodgers, em nota divulgada em 28 de junho.
O Google evita usar o termo fake news, adotando os conceitos de “conteúdos enganosos, manipulados e fabricados”. A plataforma contribuiu para fundar uma coalizão internacional sobre o tema, chamada First Draft. Neste ano, a rede vai realizar um programa de checagem de informações nas eleições que ganhou o nome de "comprova", contando com a presença de diversos órgãos de mídia do país.
A plataforma criou também um braço voltado ao jornalismo, Google Notícias. Este realiza projetos de estímulo ao jornalismo de qualidade, como financiamento de projetos e cursos. Em março deste ano, a empresa anunciou a destinação de R$ 1,12 bilhão nessa frente.
Para a identificação e verificação de conteúdos falsos disponibilizados na ferramenta de busca, foi criado um selo de checagem de fatos. “O selo de checagem não significa priorização na busca. O resultado em que ele vai aparecer depende da busca pelo conteúdo, e não pelo fato de ele ser checado”, explicou o diretor de Relações Governamentais e Políticas do Google no Brasil, Marcelo Lacerda, em seminário sobre o tema realizado no Tribunal Superior Eleitoral (TSE) no dia 21 de junho.
Além disso, a empresa ajustou os sistemas da ferramenta de busca e inseriu o que chama de “avaliadores de qualidade”, indicadores que são lidos para que a ferramenta de busca não disponibilize o conteúdo enganoso. Como forma de promoção de veículos jornalísticos tradicionais, foi incluído na página do site um carrossel com notícias de parceiros em destaque.
O Twitter não divulgou medidas específicas contra fake news, mas combate o que chama de “contas automatizadas mal-intencionadas e/ou que disseminam spam”, perfis falsos ou os chamados robôs (ou bots, no termo em inglês popularizado). Os robôs são vistos como um dos meios de disseminação de notícias falsas e um dos problemas na rede social, embora estudo recente do Instituto de Tecnologia de Massachussets (MIT, na sigla em inglês) tenha apontado o grau de difusão de fake news por essas contas semelhante ao de humanos
Segundo a assessoria de empresa, também foram realizadas ações como o aprimoramento do processo de abertura de contas, auditorias em contas já existentes e a expansão de detecção de “comportamento mal-intencionado”. O número de contas contestadas mensalmente subiu de 2,5 milhões em setembro de 2017 para 10 milhões em maio de 2018.
“A média de denúncias de spam recebidas por meio de nosso mecanismo de denúncias continuou a diminuir – de uma média de aproximadamente 25 mil por dia em março para cerca de 17 mil por dia em maio”, disse a vice-presidente de Segurança e Confiança, Del Harvey, em comunicado publicado no dia 26 de junho.
Mas as medidas adotadas pelas redes sociais estão longe de ser consenso. O uso de selos de checagem e a diminuição do alcance ou remoção são duas das ações contestadas. Na avaliação da Frente Parlamentar pela Liberdade de Expressão e o Direito à Comunicação (Frentecom), rede que congrega 194 parlamentares de vários partidos, essas medidas esbarram na dificuldade de definir o que é verdade e o que não é (e nas variações entre esses dois extremos) e nos possíveis vieses dos próprios checadores – além de poder induzir a uma leitura de que qualquer conteúdo alvo de checagem é mentiroso.
“Iniciativas das plataformas que absolutizam a referência destes checadores e da mídia tradicional são, portanto, preocupantes”, diz documento da frente sobre o tema, divulgado mês passado. “A atuação das plataformas – no sentido de priorizar ou despriorizar/remover informações e conteúdos nas redes – pode reproduzir, num ambiente de monopólio na internet, a concentração que já vivenciamos nos meios tradicionais, com sérios impactos à diversidade e pluralidade”, acrescenta a rede. O documento foi uma das bases do relatório do Conselho de Comunicação Social sobre o assunto.
Na opinião do diretor-geral da Associação Brasileira de Emissoras de Rádio e TV (Abert), Cristiano Flores, as plataformas deveriam ter mecanismos existentes na mídia tradicional, como a possibilidade de processo por dano moral ou a solicitação de direito de resposta. “As medidas adotadas pelas plataformas são importantes, mas precisa mais. Você tem modelo de responsabilidade dos veículos tradicionais de reparação e direitos de resposta. É importante que estes mecanismos avancem na previsibilidade no ambiente online”, defende.
O pesquisador de direito digital e diretor do Instituto Beta: Internet e Democracia, Paulo Rená, questiona o uso de sistemas automatizados (como algoritmos) para monitorar conteúdos, recurso adotado por todas as plataformas. “ A tecnologia não vai ser suficiente para nos salvar de nós mesmos. Para saber o que é informação e o que é desinformação, nós precisamos do contexto. Não será um robô, não será uma máquina ou mesmo um jeito de fazer, uma 'receita de bolo', que vai saber o que é inverdade”, pondera.
A entidade SaferNet, que participa do conselho consultivo criado pelo TSE para avaliar o impacto das fake news nas eleições, lançou documento em que apresenta uma série de iniciativas que poderiam ser adotadas pelas plataformas. Para além das medidas de transparência já anunciadas pelo Facebook, a ONG cobra que sejam tornados públicos dados dos anunciantes, os valores pagos e o público-alvo definido por eles (para quem a mensagem foi endereçada). A organização defende também a proibição do pagamento de anúncios em moeda estrangeira, para evitar influência externa, e uma isonomia nos preços dos anúncios aos candidatos, evitando privilégios.
Para Francisco Brito Cruz, pesquisador em direito e tecnologia da Universidade de São Paulo (USP) e diretor da organização de pesquisa Internetlab, o alcance das plataformas faz com que as medidas implementadas possam ter grande impacto. Contudo, elas não devem ser pensadas unilateralmente pelas empresas. “ Esse processo deve ser feito com muita discussão com o público, em especial com a sociedade civil organizada e a academia, para que ele não passe por cima de direitos das pessoas”, defende. Com informações da Agência Brasil.