O Ministério Público Federal (MPF) em São Paulo notificou a Meta, controladora das plataformas Facebook e Instagram, para esclarecer se as mudanças nas políticas de moderação de conteúdo anunciadas nos Estados Unidos também serão implementadas no Brasil.
As alterações incluem o encerramento do programa de verificação de fatos e a adoção das chamadas “notas de comunidade”, em que usuários fazem correções colaborativas de informações.
O MPF busca entender como essas mudanças podem impactar os brasileiros, especialmente diante do compromisso assumido anteriormente pela empresa de combater desinformação e promover um ambiente mais seguro nas redes sociais.
Por que o MPF está investigando as políticas da Meta no Brasil?
A exigência para que a Meta forneça informações faz parte de um inquérito civil da Procuradoria Regional dos Direitos do Cidadão, que apura como as plataformas digitais lidam com desinformação e violência no ambiente virtual no Brasil.
De acordo com matéria da Tv Globo / GloboNews, o procurador Yuri da Luz destacou que é necessário avaliar se as novas diretrizes da Meta afetam as políticas já aplicadas no Brasil e se elas seguem compatíveis com as leis nacionais.
A Meta informou ontem (7) que substituirá o programa de verificação de fatos nos EUA por um sistema colaborativo, no qual os próprios usuários poderão adicionar notas explicativas em posts considerados enganosos. Com isso, postagens com informações imprecisas ou descontextualizadas podem continuar disponíveis nas plataformas sem intervenção da empresa.
Esse modelo já foi implementado pelo X e funciona como uma tentativa de reduzir o controle centralizado sobre o que é considerado desinformação.
Os procuradores argumentam que o fim da checagem de fatos pode impactar diretamente o país no enfrentamento de práticas como o disparo de mensagens em massa, o uso de perfis falsos e a disseminação de fake news.
Caso a Meta não forneça as informações solicitadas, o MPF pode tomar medidas adicionais para assegurar que as plataformas operem de acordo com o marco legal brasileiro, que exige transparência e responsabilidade no uso de redes sociais.
Como funcionava a verificação de fatos e como será com as mudanças
O programa de checagem de fatos da Meta iniciou em 2016, após as eleições que elegeram Donald Trump. À época, o Facebook foi acusado de facilitar a disseminação de desinformação, levando a empresa a firmar parcerias com agências independentes, como Reuters e France Presse, para verificar conteúdos suspeitos.
No Brasil, cinco parceiros analisavam postagens no Facebook e Instagram. As agências identificavam materiais enganosos e sugeriam ações à Meta, como reduzir o alcance de publicações ou adicionar alertas sobre possíveis informações falsas.
Agora, a empresa deixará de contar com parceiros externos de verificação de fatos, que auxiliavam na moderação de postagens. A Meta anunciou que a equipe interna de confiança, segurança e moderação de conteúdo será transferida da Califórnia para o Texas, nos Estados Unidos. Com essa realocação, a revisão de conteúdos postados no país ficará centralizada em uma única unidade.
Em vez de buscar violações gerais às políticas das plataformas, os filtros de verificação focarão apenas em infrações legais e de alta gravidade.
Nos casos de menor gravidade, será necessário aguardar denúncias de usuários para que alguma ação seja tomada. Como complemento, os próprios usuários poderão adicionar correções em posts, no formato das “notas da comunidade”.
Outra alteração importante é que Instagram e Facebook voltarão a recomendar mais conteúdos relacionados a política, reduzindo as restrições que foram adotadas em anos anteriores.
LEIA MAIS