BOLETIM SEMANAL #10
Olá, pessoas.
Acontecimentos recentes nos dão uma ideia de quão intensa vai ser a campanha eleitoral no Brasil.
Enquanto o Supremo Tribunal Federal anuncia empresas de tecnologia como parceiras no combate à desinformação, em um acordo assinado na semana passada, o Governo Federal lamenta os resultados pouco práticos da participação delas no esforço de evitar fake news sobre as enchentes no Rio Grande do Sul.
A ideia de coparticipação das plataformas é apontada por especialistas como necessária. Mas, o país vive um momento de extrema polarização na pré-campanha. A ajuda aos gaúchos tem elevado a temperatura na disputa política, inflamada por mentiras e distorções dos fatos.
Na Câmara dos Deputados, o presidente Arthur Lira anunciou o Grupo de Trabalho responsável pelo novo texto do chamado Projeto de Lei das fake news, incluindo parlamentares investigados por desinformação.
Cármen Lúcia assume a presidência do Tribunal Superior Eleitoral de olho no uso de Inteligência Artificial para a produção de conteúdo antidemocrático. Já temos casos no Brasil e a Europa vive o impacto dessa estratégia nas eleições para o parlamento.
Aqui é Luciano Bitencourt com mais um boletim Desinformação em Pauta.
Eu e Daniela Germann intensificamos os trabalhos para nosso relato exploratório sobre os impactos da desinformação em processos eleitorais, em fase de refinamento. E sempre que mergulhamos em acontecimentos recentes, nos damos conta de como é difícil fazer recortes sobre este tema.
Então, começamos a análise semanal com uma declaração do ministro do TSE, Floriano Azevedo Marques, em um evento promovido pelo JOTA [texto aberto para inscritos], um veículo de Jornalismo independente.
“A Justiça Eleitoral não tem a pretensão de ser a precursora e resolver o marco de regulação das redes. Esta é uma questão para o Congresso. Alguém dizer que tem a solução para regular as redes está chutando. A Justiça Eleitoral não tem a pretensão de resolver. Ela só tem uma responsabilidade: de a cada dois anos fazer o necessário para termos eleições confiáveis. E ponto”.
Dá o tom do debate no momento político-eleitoral. O recado é o seguinte: em casos especiais como as eleições, a justiça precisa agir rápido para evitar rupturas no processo democrático. Ou, segundo o ministro, não vai adiantar nada.
Bom ponto para refletir.
Acordos paliativos
É bem provável que a atuação do Tribunal Superior Eleitoral neste ano se notabilize apenas pela organização das eleições. O trabalho espinhoso de aplicar a lei e seguir as resoluções para o pleito, especificamente a de propaganda eleitoral, será dos juízes eleitorais de primeiro grau.
Ao assumir a responsabilidade de coordenar as eleições municipais, a ministra Cármen Lúcia tem na mira o combate às fake news para “romper o cativeiro digital”, como disse no discurso de posse. Com a popularização das ferramentas de Inteligência Artificial, o desafio será ainda maior.
Estrategicamente, a Justiça Eleitoral vem fazendo capacitações para que os magistrados, na ponta, tenham condições de compreender o tamanho do problema. Além de um banco de dados com as decisões de processos envolvendo desinformação e propaganda política ilegal, uma ampla estrutura de apoio e de parcerias com diferentes instituições, incluindo as big tech, converge neste esforço.
O que preocupa as autoridades são, em essência, a escala e a velocidade com que as mentiras, as teorias conspiratórias e as distorções se propagam. Um recente relatório do Freedom House, por exemplo, constatou o uso de IA para a criação de anúncios políticos com o objetivo de enganar eleitores em 16 países.
No Brasil, a Justiça Eleitoral de Mato Grosso do Sul multou um pré-candidato à prefeitura do município de Costa Rica por usar um vídeo manipulado por opositores do atual prefeito com o uso de IA. Outras ações estão sendo julgadas pela mesma irregularidade, em um quadro inteiramente novo para os padrões brasileiros de desinformação.
Há outros aspectos preocupantes. Uma reportagem do Intercept Brasil, em parceria com o Núcleo Jornalismo, mostra o desprezo das big tech pela integridade da informação que circula pelas plataformas. A Meta, dona do Facebook, do Instagram e do WhatsApp paga a moderadores de conteúdo R$ 0,45 por postagem checada.
Além da baixa remuneração, não há condições de trabalho adequadas nem suporte para a saúde mental, uma vez que cada moderador acessa diariamente um volume considerável de conteúdo hostil. Como solução, a empresa adota algoritmos para automatizar o processo, otimizar os resultados e reduzir ainda mais os custos.
Esse tipo de negligência também é motivo de denúncias e críticas contundentes à forma como as big tech estão conduzindo os negócios de Inteligência Artificial [texto em inglês]. Desconfiança nos dados de treinamento, constatação de vieses de programação que reforçam distorções e preconceitos, opacidade nos critérios usados pelos algoritmos para gerar respostas são alguns dos graves problemas com a tecnologia.
Os críticos agora vão além. Eles alertam que os investimentos na criação de uma Inteligência Artificial Geral não estão seguindo criteriosamente a avaliação dos riscos, nem respeitando valores éticos nas decisões empresariais. Mesmo que ainda estejamos distantes de uma IA com autonomia para tomar decisões, os equívocos para alcançá-la já estão bem presentes [texto em inglês].
Há alguns dias, a OpenAI, empresa que desenvolveu o ChatGPT e desencadeou a popularização global dos algoritmos de Inteligência Artificial, fez uma revelação preocupante, mas não surpreendente. Os modelos de IA mantidos pela empresa foram usados para gerar conteúdo político ilegal [texto em inglês] nas mídias sociais com tradução para diferentes línguas.
Dá para perceber, nessas circunstâncias, que é uma medida paliativa fazer acordos com as empresas de tecnologia sem uma regulação que estabeleça freios e contrapesos no controle da desinformação e no avanço da IA.
Deslegitimação do Estado
Legislar sobre a forma como as big tech modelam seus negócios tem se mostrado urgente. Arthur Lira, presidente da Câmara dos Deputados, anunciou o Grupo de Trabalho para regular o uso das redes sociais. Dos 20 deputados escolhidos para elaborar uma proposta em 90 dias, 14 votaram contra a criminalização das fake news e dois são investigados por propagar desinformação.
Não se sabe ainda em que bases a discussão do GT vai se dar, mas dificilmente o “novo” projeto vai englobar temas mais amplos, como a transparência e as responsabilidades na internet, objeto do projeto de lei que o próprio Arthur Lira derrubou sob a alegação de falta de consenso para votá-lo.
Outros grupos de parlamentares também se movimentam no intuito de reforçar a urgência de uma regulamentação mínima para o combate à desinformação. Érika Kokay, deputada do PT, apresentou projeto para alterar o Código Penal e o Marco Civil da Internet, visando criminalizar “a produção, divulgação ou compartilhamento de notícia falsa (fake news)” com objetivos de “alterar, distorcer ou corromper gravemente a verdade” sobre temas de interesse público.
No Senado, Teresa Leitão, também do PT, apresentou requerimento para uma audiência pública com autoridades e as empresas de tecnologia para compreender as medidas em implementação contra as fake news e a desinformação gerada por IA. A Comissão de Defesa da Democracia ainda não definiu se aprova a solicitação.
Tem um aspecto, no entanto, que merece mais atenção. A legislação brasileira não está alheia aos crimes de ódio, violência e até de manipulação para prejudicar outras pessoas. Muito do que se propõe como punição no caso das chamadas fake news já está previsto no Código Penal. É de se questionar se a criminalização é o ponto-chave deste imbróglio.
Peter Krekó, pesquisador húngaro, psicólogo e diretor do Instituto de Capital Político, traz um ponto de vista muito mais profundo sobre esse debate. Para ele, o poder está cada vez mais nas mãos de grandes empresas e as nações estão perdendo força em questões que dificilmente serão resolvidas por decisões locais.
“Por isso pergunto-me, não se os Estados terão o poder, mas [se terão] a legitimidade para regular o que acontece na internet”.
As preocupações de Krekó fazem todo o sentido.
Legitimidade é o que o Estado brasileiro tem perdido aos poucos em todas as instâncias de gestão. No caso da regulação no uso das redes sociais e da responsabilização das empresas de tecnologia pelos modelos de negócio que estimulam a incivilidade, esses interesses fragmentados e polarizados ideologicamente que dividem os poderes da República só reforçam a deslegitimação.
Por outro lado, as grandes empresas de tecnologia mantém um discurso de cooperação bonito na retórica, mas pouco efetivo na prática.
Lições pragmáticas
De caráter preventivo, as recomendações da Comissão Europeia para as eleições do parlamento, encerradas no domingo (09 de junho), dão ao processo eleitoral uma certa segurança jurídica e imputam às empresas de tecnologia responsabilidades no combate à desinformação. O peso político do documento está na vinculação das recomendações à Lei de Serviços Digitais, que pune as plataformas no caso de descumprimento.
Para dar conta da lei, que não diz respeito apenas a processos eleitorais, as empresas justificam uma série de medidas internas e são obrigadas a emitir relatórios periódicos dos resultados. As justificativas para atender à regulação são muito similares e dependem do modelo de negócio de cada empresa.
Vão da contratação de moderadores para monitorar conteúdo nocivo (como o “serviço” da Meta, que paga R$ 0,45 por postagem checada) a investimentos em projetos mais complexos, envolvendo centrais de monitoramento e parcerias com organizações de verificação de fatos.
Apenas para lembrar, no Brasil o Google resolveu proibir o impulsionamento de anúncios políticos por considerar arriscado demais moderar a circulação desse tipo de conteúdo nos moldes como o TSE determinou. Além disso, reduções nos custos com estruturas de checagem foram anunciadas com uma certa frequência ao longo deste ano.
Vazamento recente de mais de 14 mil critérios usados pelos algoritmos do mecanismo de busca mais popular do mundo evidencia como o Google utiliza informações de usuários para classificar e ordenar conteúdo, com alertas sobre violações de privacidade. Os documentos vazados não mostram se há uso de Inteligência Artificial, mas fornece pistas sobre como o modelo de negócio privilegia certos tipos de publicação.
O ciclo eleitoral europeu, cujo regramento tem sido apontado como o mais atualizado para lidar com os desafios da desinformação, não ficou imune à interferência de campanhas orquestradas para gerar confusão e enganar eleitores. Ao enquadrar as big tech como responsáveis por parte do ecossistema de desinformação, abriu caminho para formalizar uma certa resistência ao poder das empresas.
Para o Brasil, a lição é bem pragmática. Enquanto não houver maneiras legais de estabelecer quem responde pelo que no uso inapropriado de ferramentas, plataformas e infraestrutura de comunicação para gerar desordem informacional, a saída vai ser agir com rigor primeiro, de acordo com os argumentos jurídicos disponíveis, e perguntar depois.
E esta é uma relação perigosa entre a censura e a moderação necessária da liberdade de expressão que oprime e inviabiliza a diversidade de opiniões e de manifestações.
No radar
- Uma rede de mídia partidária chamada Metric Media publicou falsamente listas de supostas “mortes por vacina COVID-19” em 49 estados dos EUA. Esses sites, conhecidos como “pink slime”, se disfarçam de veículos de notícias locais independentes, mas na verdade são usados por grupos políticos de esquerda e de direita para influenciar os eleitores, minando a confiança geral na imprensa. Paralelamente, um empreendedor egípcio está vendendo sites de notícias gerados por inteligência artificial que imitam publicações confiáveis dos EUA, aparentemente para gerar receita por meio de publicidade programática. Essas atividades fazem parte de um esforço mais amplo para espalhar desinformação.
- Os órgãos reguladores dos EUA estão investigando os papéis que a Microsoft, a OpenAI e a Nvidia desempenham na indústria de Inteligência Artificial, o que mostra uma crescente preocupação com a concentração dessa tecnologia em algumas das maiores empresas do mundo. O Departamento de Justiça investiga se a conduta da Nvidia, fabricante de chips de IA, violou leis antitruste no país. A Fundação para a Ciência e a Tecnologia (FTC na sigla em inglês) examina a conduta da OpenAI e da Microsoft em relação à sua parceria de IA e se a Microsoft propôs investimentos para evitar uma revisão antitruste do governo. Essa nova fase de ações antitruste das agências federais dos Estados Unidos visa dissuadir a concentração de poder econômico na produção de tecnologia.
Ainda vale: para quem deseja ajudar as vítimas das enchentes no Rio Grande do Sul, Meio, Nexo e Núcleo Jornalismo são ótimas alternativas.
Até semana que vem.