Judicialização do uso de IA na campanha eleitoral desafia tribunais [#20]

Cenário põe em confronto limitações jurídicas e táticas extremistas (Imagem criada com IA – Freepik)

Olá, pessoas.

Começou oficialmente a campanha para as eleições municipais deste ano e a atenção se volta para o uso de Inteligência Artificial na produção de anúncios políticos. Não existem precedentes para avaliar os riscos que a criação de conteúdo falso com esse tipo de tecnologia pode representar para o processo eleitoral.

Exemplos vindos de outros países que também passam por eleições não faltam. Além do rápido avanço das ferramentas disponíveis e da popularização de recursos baratos e fáceis de usar, as estratégias de aplicação estão também mais sofisticadas.

Recentemente, nos Estados Unidos, uma voz produzida artificialmente para imitar a do ex-presidente Barack Obama foi usada como estopim de uma série de conteúdos falsos alegando que Joe Biden e os democratas estão por trás do atentado contra Donald Trump. Uma conversa fabricada entre Obama e um ex-assessor soa como confissão de incompetência do Partido Democrata e de Biden por não conseguirem “eliminar” o adversário.

O próprio Trump tem sido alertado, inclusive por investidores da campanha, a diminuir o tom das mentiras e alegações falsas a respeito de Kamala Harris. Seus assessores temem que os ataques pessoais à candidata adversária acabe tirando do ex-presidente boa parte do apoio que conseguiu até aqui.

Pelo que temos analisado, eu e Daniela Germann aqui na e-Comtextos, o volume de mentiras impulsionadas por IA não é o que mais preocupa. A questão central, nos parece, está na facilidade com que se pode hoje minar a verdade. E isso não tem a ver só com a tecnologia.

Aqui é Luciano Bitencourt, atento a uma tendência que vem se confirmando: a ameaça do uso de Inteligência Artificial nestas eleições está mais na possível sobrecarga de juízes e juízas eleitorais com decisões difíceis de tomar e não tanto na quantidade de mentiras que venham a ser produzidas pelos candidatos.

As eleições no Brasil estão protegidas por uma série de resoluções que a Justiça Eleitoral vem aprimorando ao longo dos últimos anos. Uma dessas resoluções restringe o uso de IA na produção de conteúdos de campanha. Como este é um universo inteiramente novo, a ausência de regulação e o desconhecimento sobre a tecnologia expõem uma fragilidade pouco debatida até o momento.

Tainá Aguiar, professora de Direito, Tecnologia e Inovação no Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP), enfatiza que, nesse cenário, vai ser difícil padronizar as primeiras sentenças judiciais envolvendo o uso de IA na campanha eleitoral.

“A avaliação do contexto é fundamental, vai ser provavelmente caso a caso, e isso pode confundir”.

Fragilidade dos argumentos

Durante a pré-campanha, nos primeiros seis meses deste ano, um terço das denúncias sobre o uso irregular de Inteligência Artificial em anúncios políticos foram confirmados pela Justiça Eleitoral. O levantamento é do Aos Fatos, em parceria com o ICL Notícias e o Centro Latinoamericano de Investigación Periodística (CLIP).

O dado relevante, contudo, está na dificuldade de interpretação e na fragilidade de argumentos jurídicos que confundem, por exemplo, deepfakes com outros métodos de manipulação de narrativas, os quais também distorcem os fatos, mas não se enquadram no uso indevido de IA estabelecido pelas resoluções do Tribunal Superior Eleitoral (TSE).

Há registros de sentenças contraditórias, uma vez que faltam subsídios claros para embasar as decisões de juízes e juízas eleitorais. A análise dos casos judicializados até agora evidencia também a falta de perícia para identificar o uso de IA em propaganda política.

Tatiana Dourado, diretora de Formação e Literacia Digital do Instituto Democracia em Xeque, sintetiza o conceito que, segundo ela, é consenso nos estudos acadêmicos e sugere que os danos potenciais dos conteúdos sintéticos, artificialmente elaborados com a ajuda de IA, são relativos.

“Por padrão, entende-se deepfake como imagens sintéticas que são criadas a partir de tecnologias de IA e aprendizado de máquina que permitem a reprodução de padrões de imagens combinadas, fundidas e trocadas com uma aparente autenticidade”.

Para a pesquisadora, esse tipo de conteúdo está relacionado também com mensagens mais caricatas, baseadas na sátira e na ridicularização de figuras políticas como forma de crítica. Nem sempre a disseminação de mensagens com essa característica tem a intenção de enganar ou causar danos. Pode também ser uma forma de expressar humor.

Por isso, dizem os especialistas, os principais riscos no uso desses recursos para o processo eleitoral estão na propagação de conteúdos para levantar dúvidas sobre o sistema de votação e disseminar discursos de ódio contra mulheres e grupos minoritários com protagonismo no cenário político.

Em síntese, estamos falando da aplicação de recursos tecnológicos bastante sofisticados, mas cada vez mais simples de usar, para alterar registros obtidos em situações “reais” e criar fatos que nunca ocorreram. Como estratégia, não é necessariamente uma novidade. Novo agora é a facilidade de produção e propagação de conteúdo inventado sem a necessidade de conhecimento técnico aprofundado. As máquinas põem ao alcance de qualquer pessoa o potencial de desinformar.

Extremistas têm adotado recursos de Inteligência Artificial para incentivar comportamentos violentos, com mensagens agressivas que desafiam as autoridades e as fugazes políticas de moderação de conteúdo adotadas pelas empresas de tecnologia. Pela internet, grupos radicais ensinam, a quem quiser, como produzir memes e deepfakes com o intuito de atrair e recrutar os mais jovens.

Analistas consideram que as eleições deste ano no Brasil não devem ser tão polarizadas porque não haverá grandes mobilizações em torno de figuras políticas que canalizam a atenção do eleitorado em escala nacional. Também por este motivo, a Justiça Eleitoral terá uma atuação mais discreta e menos centralizada.

Na avaliação da pesquisadora Nara Pavão, da Universidade Federal de Pernambuco, as chances de a desinformação persuadir o voto aumentam onde há menos polarização política. Dito de outra forma, em eleições menos polarizadas o eleitorado depende mais de informações qualificadas para tomar decisões e está mais suscetível a conteúdos enganosos.

Seja como for, a ausência de regulação no uso de IA e a falta de conhecimento especializado de grande parte dos juristas com a responsabilidade de bater o martelo sobre os efeitos dessa tecnologia no processo eleitoral abrem uma fissura na, até aqui, sólida estrutura de proteção à integridade do sistema de votação no Brasil.

A tendência de judicializar todo e qualquer tipo de conteúdo político produzido com o auxílio de programas de Inteligência Artificial, mesmo os que obedecerem aos critérios estabelecidos pelo Tribunal Superior Eleitoral, pode sobrecarregar a Justiça Eleitoral com processos voltados para confundir e provocar respostas jurídicas contraditórias.

É uma forma bem mais sutil de pôr o judiciário em destaque e minar a jurisprudência que vem embasando as atualizações das regras eleitorais.

Causin, Juliana. Memes e “workshop” de tecnologia: Extremistas criam táticas para usar IA e disseminar discursos de ódio. O Globo, 12 de agosto de 2024, https://oglobo.globo.com/mundo/noticia/2024/08/12/grupos-usam-memes-e-manuais-para-espalhar-extremismo-nas-redes-sociais.ghtml.

Feifel, Bianca. ”Não regulamentação da mídia beneficia desinformação como negócio político”, diz pró-reitora da UFRJ”. Brasil de Fato, 12 de agosto de 2024, https://www.brasildefatodf.com.br/2024/08/12/nao-regulamentacao-da-midia-beneficia-desinformacao-como-negocio-politico-diz-pro-reitora-da-ufrj.

Fried, Ina. 1 big thing: Trump speeds AI-driven truth decay. Newsletter Axios, 13 de agosto de 2024, https://www.axios.com/newsletters/axios-ai-plus-29d193d0-58cf-11ef-854d-23ee47e0d64b.html.

Lawler, Dave. Former President Trump’s alternative reality campaign. Axios, 13 de agosto de 2024, https://www.axios.com/2024/08/13/trump-election-ai-harris-biden-campaign.

Prado, Amanda, et al. Uso de IA na pré-campanha foi considerado irregular em 32% dos processos na Justiça Eleitoral. Aos Fatos, 12 de agosto de 2024, https://www.aosfatos.org/noticias/inteligencia-artificial-pre-campanha-justica-eleitoral/.

Queiroz, Gustavo. IA pode ser uma ameaça no Brasil às vésperas da eleição. Deutsche Welle, 12 de agosto de 2024, https://www.dw.com/pt-br/uso-de-ia-pode-ser-uma-amea%C3%A7a-no-brasil-%C3%A0s-v%C3%A9speras-da-elei%C3%A7%C3%A3o/a-69891136.

Sadeghi, Mckenzie. Russian Deep Fake: “Obama” Admits Dems Planned Trump Shooting. NewsGuard’s Reality Check, 12 de agosto de 2024, https://www.newsguardrealitycheck.com/p/russian-deep-fake-obama-admits-dems.

Santana, Ivone. É assim que a IA pode estar sendo usada contra você. Valor Econômico, 14 de agosto de 2024, https://valor.globo.com/empresas/inteligencia-artificial/noticia/2024/08/14/e-assim-que-a-ia-pode-estar-sendo-usada-contra-voce.ghtml.

Soares, Matheus. ELEIÇÕES 2024: Falta da regulação de IA dificulta decisões da Justiça sobre deepfakes. desinformante, 8 de agosto de 2024, https://desinformante.com.br/eleicoes-deepfake-justica/.

  • Durante o debate da Band com candidatos à Prefeitura de São Paulo, realizado em 8 de agosto de 2024, foram registrados mais de 385 comentários pagos via Super Chat no YouTube, totalizando aproximadamente R$ 3.882,28. Embora essa ferramenta seja destinada à monetização do canal, muitos comentários promoviam candidatos e suas redes sociais. Pelas regras eleitorais, o impulsionamento de conteúdo político por eleitores não é permitido. Para evitar problemas judiciais, o Google resolveu suspender o impulsionamento de anúncios políticos em todas as suas plataformas, mas justifica que o Super Chat não se enquadra nessa decisão.
  • O novo gerador de imagens financiado por Elon Musk, o Grok, permite a criação de conteúdos controversos e ofensivos a partir de prompts de texto, gerando imagens de figuras públicas em situações comprometedoras, como Donald Trump e Barack Obama em cenários violentos ou sexuais. Usuários descobriram formas de contornar os recursos que limitam o uso de linguagens ofensivas, expondo a plataforma a riscos de desinformação e abuso. O lançamento do Grok ocorre em um momento crítico, com a Comissão Europeia e reguladores do Reino Unido investigando a plataforma por potenciais violações em suas práticas de moderação de conteúdo, especialmente em meio à eleição presidencial dos EUA. A propósito, o ex-Twitter de Musk anunciou o encerramento imediato de suas operações físicas no Brasil. A justificativa é a decisão do ministro do STF, Alexandre de Moraes, que determinou o bloqueio de contas na plataforma. Em um comunicado, a empresa acusou Moraes de impor uma “ordem de censura”, ameaçando prender sua representante no Brasil e aplicar multas por descumprimento da decisão judicial. Apesar do fechamento físico, a empresa afirmou que a plataforma continuará a operar no Brasil.

Ainda vale: para quem deseja ajudar as vítimas das enchentes no Rio Grande do Sul, Meio, Nexo e Núcleo Jornalismo são ótimas alternativas.

Até semana que vem.

Deixe um comentário