LEITURA CRÍTICA

BOLETINS SEMANAIS

Enquanto o STF avalia se plataformas devem ser responsabilizadas por conteúdos ilegais sem decisão judicial prévia, o Senado pode aprovar nesta semana o projeto de lei que regula o uso de inteligências artificiais no Brasil. o Judiciário tende a apertar o cerco às plataformas e o Legislativo ameniza a responsabilização das empresas desenvolvimento de tecnologias que impactam na liberdade de expressão e na integridade da informação em meios digitais. Nesse cenário, as 'big techs' investem cada vez mais na presença direta em decisões de Estado e determinados governos promovem a judicialização de liberdades, a estigmatização da imprensa e o uso de tecnologias de vigilância como forma de controle.

EDIÇÕES ANTERIORES

O super ciclo eleitoral deste ano revela como conteúdos de desinformação produzidos com Inteligência Artificial intensificam a corrosão do senso de realidade, mais do que influenciam o voto. Os indícios são de que a IA tem contribuído até agora para gerar um "vácuo de confiança" que políticos extremistas estão explorando para desacreditar o sistema democrático. A campanha eleitoral no Brasil mostrou que "comportamentos inautênticos coordenados", típicos do mundo digital, ganharam as ruas com atores interpretando perfis falsos para espalhar desinformação. As ferramentas de IA tendem a se somar a práticas nocivas já bem conhecidas de desinformação, com potencial para as eleições de 2026.

Como já apresentamos nas nossas leituras críticas, o uso de IA para gerar conteúdo sintético de desinformação não se concretizou nas eleições municipais deste ano. Mas o terreno onde irregularidades com esse tipo de tecnologia pode florescer foi semeado, especialmente na corrida pela prefeitura de São Paulo. A Justiça Eleitoral tem se antecipado ao impacto das tecnologias em eleições porque está avalizada pelo Legislativo, que se vem se eximindo de regular nesse campo. Os limites estabelecidos no âmbito das eleições têm ajudado a entender os riscos enfrentados pela Democracia diante dos avanços tecnológicos. A questão é saber se as resoluções normativas estão moldando as decisões fora da esfera eleitoral ou não.

Desordem informacional teve nome e sobrenome nas estratégias de campanha para as eleições que fecharam o primeiro turno no domingo (06/10). Fraude, discurso violento e mentiras marcaram um processo eleitoral pautado em velhas práticas de desinformação, subvertendo as preocupações da Justiça com o uso de Inteligência Artificial. Os principais desafios foram controlar as tensões provocadas por candidatos, especialmente Pablo Marçal, que usaram as brechas nas normas eleitorais para ganhar visibilidade. Marçal é visto como um fenômeno por ter alcançado um número de votos expressivo na maior cidade do país ao explorar os recursos oferecidos pelas 'big techs' para lucrar no âmbito político com a economia da atenção e superou a IA como ameaça à integridade das eleições.

A desinformação política, especialmente em períodos eleitorais, é reciclada com pequenas alterações e volta a circular mesmo depois de amplamente desmentidas suas mentiras e tentativas de manipulação. Um estudo da Newtral, na Espanha, revela que 25% das verificações refutam conteúdo reciclado com estratégias que envolvem a criação de dados, mudanças de contexto e a combinação de múltiplas afirmações para dificultar o trabalho de checagem. A imprensa, por seu lado, muitas vezes recorre a declarações oficiais para refutar alegações falsas ou enganosas, em uma postura pouco crítica e investigativa. Na democracia veloz das mídias digitais, o combate à desinformação precisa ir além de desmentir boatos. Requer uma imprensa mais crítica e a implementação de mecanismos de controle social que pressionem as instituições democráticas a práticas mais transparentes.