Mesmo restritas aos Estados Unidos, as novas políticas de moderação e o fim da parceria com empresas checadoras expõem conflito com autonomia dos países
BOLETIM QUINZENAL #01/2025
Olá, pessoas. Estamos de volta. Antes de mais nada, que 2025 nos abrace com mais afeto.
Neste ano, vamos acompanhar atentamente o cenário em que as big techs passam a dar as cartas no ecossistema de informação. Nossa intenção, aqui na e-Comtextos, é trazer uma leitura crítica sobre como as tecnologias influenciam o consumo de informação qualificada, fonte primária para se tomar decisões em quaisquer circunstâncias, seja na vida ou nos negócios.
E não foi difícil escolher o tema de abertura na jornada de produção que se inicia, agora quinzenalmente. Está dando o que falar o anúncio de Mark Zuckerberg, bem ao gosto do diz-que-me-disse digital nas redes sociais.
As plataformas da Meta vão afrouxar as políticas de moderação e dispensar a verificação especializada de conteúdo em suas redes sociais.
Primeiro, uma distinção.
Moderação de conteúdo não é o mesmo que verificação especializada, na qual o Jornalismo de Checagem ganhou notoriedade.
A moderação diz respeito ao controle interno das plataformas para garantir o cumprimento de suas políticas; já a verificação segue princípios jornalísticos, adicionando contexto, fontes fidedignas e dados qualificados a postagens mentirosas ou deliberadamente tóxicas.
Não há censura na verificação de fatos.
O Jornalismo de Checagem não tira conteúdo do ar, apenas rotula o que traz desinformação e o que tem base em fatos a partir dos critérios de apuração que a profissão desenvolve.
São as plataformas que determinam se tiram postagens de circulação, seja por decisão judicial ou por critérios próprios, de acordo com suas políticas de moderação.
Quando o CEO da Meta terceiriza a “censura” na moderação de conteúdo e transfere a responsabilidade para organizações de checagem, cita “tribunais secretos” que limitam a liberdade de expressão e anuncia que vai se aliar politicamente ao novo governo dos Estados Unidos, a desinformação passa a ser só uma das preocupações.
Aqui é Luciano Bitencourt, com o compromisso de elencar alguns argumentos que escapam à polarização típica do diz-que-me-disse sobre os efeitos do anúncio da Meta. Reduzir as restrições de conteúdo em suas políticas de moderação e encerrar a parceria com organizações de checagem de fatos é só a ponta do iceberg.
Eu e Daniela Germann apontamos no último boletim de 2024 três fatores que nos pareceram relevantes no circuito da desinformação (acesso aqui). Para refrescar a memória:
- O legado deixado pelas iniciativas de coibir a desinformação eleitoral tende a influenciar legislações e decisões judiciais no extremo entre punições excessivas e leniência complacente. A responsabilização das big techs sobre conteúdos tóxicos e violentos em suas plataformas, por conta disso, passa a ser discutida sob o prisma político, exclusivamente.
- As pressões das grandes empresas de tecnologia (que são também de mídia) para evitar regulações pesadas contra seus negócios ameaçam a soberania dos países, tiram a legitimidade de suas decisões para coibir abusos e moldam o debate público de acordo com os interesses empresariais.
- A falta de regulação para a atuação e a responsabilização das big techs em casos de abuso tem favorecido as inclinações para o ódio, a violência, a polarização e o extremismo nas redes, que promovem a ilusão de consensos e fragmenta a realidade conforme as preferências mapeadas por algoritmos.
Esses três fatores estão implícitos no anúncio de Zuckerberg.
1.
Crimes não são tipificados da mesma maneira nas leis existentes em cada país ou região. No Brasil, por exemplo, racismo é crime; nos Estados Unidos, não. Aqui, as leis federais se sobrepõem às regionais; nos Estados Unidos, nem sempre.
A Meta é uma empresa com sede nos Estados Unidos e que atua no mundo inteiro. Portanto, cabe a ela obedecer as leis em cada lugar onde atua. Discursos racistas são ilegais no Brasil e precisam ser moderados nas mídias digitais de acordo com o Código Penal do país. Veículos tradicionais de comunicação estão sujeitos a este ordenamento jurídico. E as grandes empresas de tecnologia já assumem esse tipo de responsabilidade em momentos específicos.
Durante as eleições, as big techs assinam acordos de cooperação com as autoridades brasileiras para ajudar no cumprimento da Lei Eleitoral em suas plataformas. No Brasil, o Legislativo cedeu à Justiça Eleitoral o direito de criar as regras no âmbito das eleições. Os acordos de cooperação com as big techs nem sempre funcionam, mas não se pode negar que há esforços no combate à desinformação e ao discurso político violento.
Com o anúncio de Mark Zuckerberg, no entanto, o cenário está ameaçado. As medidas, garante a empresa, ficarão restritas incialmente aos Estados Unidos. Mas as autoridades brasileiras ainda querem explicações sobre como essa decisão vai impactar por aqui no futuro.
A Advocacia Geral da União considera as mudanças nas regras de moderação para discursos de ódio uma violação às leis brasileiras e uma contradição à defesa da própria empresa nos processos em que o Supremo Tribunal Federal julga o Marco Civil da Internet. Uma audiência pública nos próximos dias está sendo organizada pela AGU para discutir o tema no vácuo legislativo e jurídico do combate à desinformação e a discursos de ódio.
Polarizado, o Congresso Nacional tende a legislar com leniência complacente a responsabilidade das big techs no circuito da desinformação. Já o STF tem se mostrado mais rigoroso e inclinado a reforçar punições que podem ser excessivas em determinados casos.
Esse desajuste favorece a narrativa de que é preciso um “poder” acima da soberania dos países para defender a liberdade de expressão. As big techs e Donald Trump, ao que parece, se alinham para tentar assumir este “posto”.
2.
No finado Twitter, as medidas anunciadas pela Meta estão em vigor há algum tempo e vêm escalando desde que Elon Musk comprou a plataforma, no final de 2022.
Agora, Musk é conselheiro do governo Trump e o poder das big techs tende a aumentar. Se percebe no atual cenário um alinhamento dos executivos do Vale do Silício, berço das big techs, com lideranças políticas extremistas para moldar o debate público a partir de opiniões, negações de evidências e assédio a quem apresenta fatos como contraponto.
Durante a campanha de Trump, Elon Musk foi o maior financiador do presidente eleito e a voz mais proeminente na busca por apoiadores milionários e em acusações contra adversários, muitas delas infundadas. Os executivos das big techs têm em Donald Trump um trunfo para superar as imposições legais às suas plataformas em outros países.
Só a Meta já foi multada pela União Europeia em 1,2 bilhão de euros por transferir irregularmente dados de usuários europeus para os Estados Unidos. Considerada modelo para o debate regulatório no Brasil, a legislação da União Europeia tem se mostrado bastante rígida contra a ideia de liberdades absolutas no uso de mídias digitais.
Embutido no anúncio da Meta e na aproximação das big techs com o governo Trump está o prenúncio de um projeto cujo objetivo é consolidar uma soberania digital imune às regulações autônomas de cada país ou região, nas quais a infraestrutura de redes e a condução das políticas de moderação de conteúdo e do combate à desinformação são chave para o controle político do debate público.
Como enfatizou o ex-assessor e aliado de Donald Trump, Steve Bannon, em entrevista recente,
“Dinheiro e informação são as armas táticas da política moderna — e ele [Trump] pode usar ambas em uma escala sem precedentes”.
No contexto atual, os limites entre informação e desinformação não são mais tão visíveis e o dinheiro financia e monetiza o que circula com mais facilidade e capilaridade. A informação de qualidade está em desvantagem aqui, o que põe em xeque a legitimidade das instituições democráticas.
3.
Ao acusar a checagem de fatos de atividade “tendenciosa”, Zuckerberg distorce o que realmente importa na discussão. A AI Forensics, uma plataforma de tecnologia e empresa de auditoria algorítmica, identificou em relatório mais de três mil anúncios pornográficos sem moderação no Facebook que geraram mais de 8 milhões de impressões só na União Europeia em 2024.
Para a Anistia Internacional, o Facebook é também responsável por promover violência política em regiões de conflito e, como mostra o veículo independente de jornalismo ProPublica, a mesma plataforma contribuiu para a disseminação de desinformação e ameaças de insurreição nos meses que antecederam a invasão do Capitólio, nos Estados Unidos, em 06 de janeiro de 2021.
Essas entidades que estudam, denunciam e cobrem os impactos da desinformação no mundo são sistematicamente acusadas de enviesar a interpretação dos dados e abordar tendenciosamente o tema. Zuckerberg agora reforça o coro, mas foi ele um dos maiores financiadores dos projetos de checagem de fatos.
A Poynter, uma organização composta por diferentes empresas de verificação de fatos, argumenta que o Facebook, em 2022, foi responsável por quase metade do financiamento de um mercado que cresceu ao longo dos últimos 15 anos e, há pelo menos dois, mostra-se estagnado. Sinal de que a descontinuidade do serviço na Meta segue uma tendência.
Com a posse de Donald Trump, as instituições que avaliam a qualidade da informação serão desafiadas a superar o assédio judicial promovido pelo próprio governo. A NewsGuard, organização que avalia e classifica a credibilidade dos veículos de comunicação, tem sido acusada de sufocar discursos de direita e conspirar com a esquerda. São acusações estratégicas para poluir o debate, alimentar polarizações e minar a confiança na Democracia.
Em termos jurídicos, sugere a Ministra do Tribunal Superior Eleitoral, Edilene Lobo, que a responsabilidade das plataformas por informação de qualidade é um “dever”. Como as empresas que as mantêm não são “doadoras de serviço para a humanidade” e voltam seus recursos para a comercialização e a publicidade, obedecer a regras e legislações é um compromisso inerente aos negócios que criaram.
Para ir mais fundo
- [1] Facebook and Instagram get rid of fact checkers (BBC);
- [2] O que o anúncio de Zuckerberg tem a ver com a questão racial? (Alma Preta);
- [3] Entenda as diferenças entre checagem de fatos e moderação de conteúdo (Aos Fatos);
- [4] Como funciona o programa de checagem que a Meta vai encerrar (Núcleo Jornalismo);
- [5] Let’s fact-check Mark Zuckerberg’s fact-checking announcement (NiemanLab);
- [6] Mudanças feitas pela Meta Plataforms geram convergência inesperada entre jornalismo e poder público no Brasil (The Conversation Brasil);
- [7] “A hard hit for the fact-checking community and journalism”: Meta eliminates fact-checking in the U.S. (NiemanLab);
- [8] Autor do PL das Fake News critica mudanças na Meta e defende regulamentação de redes sociais (Estadão);
- [9] Dever de cuidado e responsabilidade das redes sociais pela checagem de conteúdo (Jota);
- [10] Carlos Affonso: ‘Meta inicia novo capítulo entre a política e a tecnologia’ (Nexo);
- [11] Como os políticos reagiram ao anúncio de Zuckerberg sobre nova política da Meta (Jota);
- [12] 1 big thing: Meta’s new speech rules open hate’s gates (Axios);
- [13] Steve Bannon: Musk’s money will help us make Europe a populist haven (Politico);
- [14] Facebook Censors Stories About Facebook Censorship (404Media);
- [15] Myanmar: Facebook’s systems promoted violence against Rohingya; Meta owes reparations (Amnesty International);
- [16] Opinion: Trump’s Nominees Falsely Say I’m Censoring Conservatives — So They Want to Censor Me (Politico);
- [17] Tudo sobre as novas políticas de checagem e moderação da Meta (Aos Fatos);
- [18] Tai Nalon: “É urgente deixar claro que checagem de fatos não tem nada a ver com censura” (Revista Gama);
- [19] Três fatores que desafiam a Democracia no circuito da desinformação em 2025 (Boletim e-Comtextos).
- [20] AGU: ‘Aspectos constantes no documento da Meta causam grave preocupação’ (Jota);
- [21] Os novos amigos do presidente: as razões que uniram as big techs a Trump (exame.);
- [22] Nota: AGU recebe manifestação da Meta (Advocacia Geral da União);
- [23] Resposta da Meta à notificação extrajudicial da AGU (Meta);
- [24] AGU: Meta segue com fact-checking no Brasil, mas flexibiliza políticas de discurso de ódio (MobileTime);
- [25] Conduta de ódio (Centro de Transparência da Meta);
- [26] Anúncio de Mark Zuckerberg sobre medidas de moderação na Meta (Facebook).
Os links que aprofundam a leitura crítica apresentada aqui e oferecem mais informações podem estar em língua estrangeira ou serem exclusivos para assinantes, dependendo da fonte acessada.
Para ler boletins anteriores, clique aqui.
Em nosso site tem mais informações a respeito do trabalho que fazemos para pautar decisões e orientar ações futuras.