Diálogos entre eleitor, IA e conteúdo enganoso pedem mediação humana [#16]

Imagem gerada por Inteligência Artificial (Freepik)

Olá, pessoas.

Na semana passada, o Tribunal Regional Eleitoral de Santa Catarina – TRE/SC promoveu a nona edição do Congresso Catarinense de Direito Eleitoral. O evento está disponível para acesso público. Para nós, na e-Comtextos, a programação da quarta-feira, 17 de julho, à tarde teve tudo a ver com o que recorrentemente levantamos aqui.

Eu sou Luciano Bitencourt e venho reunindo, com Daniela Germann, dados, fatos e análises que nos ajudam a compreender o impacto da desinformação em processos eleitorais. É esse esforço de compilação, entre outras coisas, que nos traz semanalmente aqui.

Como jornalistas, eu e Daniela temos acompanhado mudanças estruturais significativas no campo da Comunicação. Uma delas, muito impactante para nossa profissão, é a ideia de que não são mais necessários mediadores no debate público porque as tecnologias atuais dão conta de conectar as pessoas e as esferas de poder diretamente.

Isso tem lá suas vantagens. Mas, assistindo a conferência da professora e pesquisadora em Direito Eleitoral, Marilda Silveira, no evento do TRE-SC, surgiram questões para acompanhar de perto quanto ao compromisso com a integridade da informação e, por consequência, eleitoral.

“Até pouco tempo, a gente só teve oportunidade de formar nossas convicções a partir da convivência com outro ser humano. Aquilo que o [outro] ser humano falava e pensava da vida é que definia nosso fator de confiança e como a gente tomava as decisões. Isso não é mais uma verdade. A gente define nosso fator de confiança e toma nossas decisões a partir do diálogo com a máquina”.

A jurista procura deslocar a preocupação jurídica com a desinformação nas eleições também para o impacto das ferramentas de Inteligência Artificial e não só para o foco em conteúdos enganosos. Quando a tecnologia forma a consciência de alguém sem que se saiba o que está acontecendo é que os riscos são maiores, ela sugere.

Um alerta bem pertinente.

Omissão deliberada

Três dias depois do atentado ao candidato à presidência dos Estados Unidos, Donald Trump, o NewsGuard fez um levantamento nas dez principais plataformas [texto em inglês] de Inteligência Artificial Generativa e descobriu que todas “falharam” em fornecer informações precisas a respeito. Talvez mais grave do que repetir as mentiras disseminadas em teorias da conspiração tenha sido que as ferramentas se recusaram, com muito mais frequência, a oferecer quaisquer respostas sobre o assunto.

Essa omissão diz muito sobre como as grandes empresas de tecnologia vêm reagindo às imposições restritivas das autoridades em vários lugares do mundo para preservar limites no uso de liberdades que ferem direitos. No Brasil, por exemplo, o Google decidiu proibir o impulsionamento de anúncios políticos em suas plataformas para não ter o trabalho de regular esse tipo de conteúdo como determinado pela Justiça Eleitoral.

Reportagem do Aos Fatos mostra que Meta e TikTok também se omitiram de moderar conteúdos que levaram à invasão e ao quebra-quebra na Praça dos Três Poderes em Brasília, em 8 de janeiro. As políticas de orientação das empresas aos moderadores revelam permissividade e um claro direcionamento para a preservação do modelo de negócios em detrimento dos efeitos previsíveis da mobilização extremista nas redes sociais.

Mais recentemente, a Meta também suspendeu recursos de Inteligência Artificial em suas plataformas, como resposta à determinação da Autoridade Nacional de Proteção de Dados no Brasil. Para quem não lembra, a ANPD proibiu a empresa de incorporar dados pessoais de usuários no treinamento das ferramentas de IA por não atender à Lei Geral de Proteção de Dados. Posição semelhante deve ser tomada pela Meta na União Europeia [texto em inglês], onde as imposições são ainda mais rígidas.

Seja no desenvolvimento de Inteligência Artificial ou na moderação de conteúdo em suas mídias digitais, as grandes empresas de tecnologia escondem o quanto possível seus critérios e métodos. Mesmo na União Europeia, onde são obrigadas a fornecer relatórios periódicos às autoridades, há dificuldade para monitorar os impactos das políticas internas adotadas pelas big techs.

Para treinamento de IA, por exemplo, não se tem ideia de quais conteúdos são usados, com quais critérios e com que intenções [texto em inglês]. Ainda mais complicado, as ferramentas de IA treinadas dessa forma estão substituindo paulatinamente moderadores de conteúdo humanos, cuja responsabilidade é mediar o que fere ou não as políticas internas e a liberdade de expressão.

Voltando ao atentado a Donald Trump, as organizações que acompanham os circuitos de desinformação estão percebendo uma crescente onda de teorias conspiratórias produzidas em escala [texto em inglês] também por pessoas mais à esquerda no espectro político. Não chega a ser um fenômeno novo e surpreendente, mas se verifica que a polarização política ganha ainda mais força a partir desses eventos.

Em espaços hiperpartidários [texto em inglês] de direita, incluindo perfis de políticos brasileiros, dominaram as falsas atribuições ao atirador, as alegações de que o Estado e suas instituições estariam por trás do atentado, a demonização da esquerda personificada no partido adversário e a glorificação de Trump como alguém protegido por Deus e difícil de eliminar.

No extremo oposto, as alegações buscam desacreditar o trágico tiroteio, imputando a Trump e seus aliados uma encenação para sensibilizar eleitores e mobilizar apoiadores. Já vivenciamos isso no Brasil [texto em inglês], depois que o então candidato Jair Bolsonaro também foi vítima de tentativa de assassinato e, dizem ainda opositores mais radicais, eleito em função do apelo emocional em torno de um incidente inventado.

Colocar o ex-presidente e atual candidato à presidência dos Estados Unidos no centro dessa discussão não é por acaso. Foi Donald Trump quem popularizou o termo fake news [texto em inglês] e o associou ao trabalho da imprensa, fornecendo um paiol de falsos argumentos sobre a incapacidade da mídia de retratar os fatos de forma fidedigna.

Ao ser atingido de raspão por um tiro enquanto discursava, Trump se transformou em personagem de um drama que demorou para se revelar como credível. As imagens vistas ao vivo pela TV e reproduzidas em “tempo real” pelas mídias digitais renderam rapidamente muitas teorias conspiratórias que concorrem com o levantamento criterioso e muito mais lento da imprensa sobre o que se sabe até agora. E ainda não se sabe muito.

No cenário da Comunicação em geral, mas especialmente no campo da política, há muito mais perguntas do que respostas quando se fala em desinformação. Os estudos apontam uma variedade de hipóteses [texto em inglês], grande o suficiente para nos levar a mais incertezas sobre as soluções que fariam conter as fake news e seus efeitos.

Temos insistido em nossas análises na e-Comtextos que criminalizar a disseminação de conteúdos apenas por serem falsos ou mentirosos pode, inadvertidamente, estigmatizar grupos e pessoas que ingenuamente desejam manifestar pontos de vista para reforçar suas crenças. Tem um limite aí a ser respeitado quanto à opinião e ao direito de manifestá-la.

Para o jurista Diogo Rais, professor de Direito Eleitoral e membro da Academia Brasileira de Direito Eleitoral e Político, a desinformação só deveria ser objeto de processos judiciais quando o conteúdo “enganoso” tem “potencial lesivo”. Nesse sentido, o Direito se ocuparia mais em combater fraudes do que propriamente a mentira.

No caso do atentado a Donald Trump, por exemplo, não são necessariamente as teorias da conspiração e as falsas alegações um problema para a Justiça. A questão está mais em como e com que recursos os conteúdos enganosos que reforçam essas teorias e falsidades são produzidos e propagados. Usinas de fake news, como descreve o jurista, é que devem estar no foco da repressão judicial por massificarem deliberadamente e com fins monetários a “enganosidade como elemento de dolo”.

“O problema não é a mentira. O problema é a lesão, é a enganação. O problema é fazer com que você ou eu tomemos uma decisão completamente oposta, ou diferente da que tomaríamos em um ambiente de liberdade. Isso fere [justamente] a liberdade, fere a autonomia”.

Como pilares para o combate à desinformação, além da repressão pela via do Direito, Diogo Rais defende a prevenção, com a circulação de informações qualificadas para tirar dúvidas e dar às pessoas ferramentas adequadas para tomar decisões, e a educação, fornecendo princípios e orientações para ajudar na compreensão do fenômeno e seus efeitos.

Se levarmos em conta que a formação da consciência na atualidade é fortemente influenciada pela nossa relação com as máquinas, como sugere a professora Marilda Silveira, os modelos de negócio das grandes empresas de tecnologia levam uma enorme vantagem sobre as tentativas de repressão pela via do Direito e têm motivos de sobra para se opor à prevenção e à educação que as incluam como responsáveis pela desinformação.

Afinal, usinas de fake news não existem fora desse circuito de desinformação lucrativo para as grandes empresas de tecnologia, determinado muito mais pelas ferramentas de produção e propagação do que pelos conteúdos que disseminam. E a versão de “notícias falsas” popularizada por Donald Trump, em última análise, mobiliza parte significativa de eleitores contra os fatos e as evidências.

  • No contexto atual de intensa polarização política nos Estados Unidos, muitos estadunidenses estão deliberadamente evitando o noticiário para “preservar a saúde mental”, conforme análise do Poynter. O fenômeno de evitar notícias tem sido impulsionado por eventos recentes, como casos judiciais envolvendo Donald Trump e o trágico atentado na Pensilvânia. Essa diminuição no consumo de notícias é motivada principalmente pela sensação de sobrecarga de informações e pelo impacto emocional negativo das notícias, considerada um desafio para a mídia.
  • O Ministério Público Federal (MPF) e o Instituto de Defesa do Consumidor (Idec) entraram com uma ação civil pública contra o WhatsApp, buscando uma indenização de R$ 1,73 bilhão por danos morais coletivos. O MPF acusa o WhatsApp de não informar adequadamente os usuários sobre as mudanças na política de privacidade, forçando-os a aceitar a coleta e o compartilhamento de dados pessoais com outras plataformas da Meta. Além disso, o MPF critica a atuação da ANPD, alegando que a agência mudou sua posição sobre o caso, impondo sigilo e deixando de prestar informações à sociedade. A ação também visa responsabilizar a ANPD por sua suposta inação e forçá-la a agir de forma mais efetiva na proteção dos dados dos usuários de redes sociais e plataformas digitais.

Ainda vale: para quem deseja ajudar as vítimas das enchentes no Rio Grande do Sul, Meio, Nexo e Núcleo Jornalismo são ótimas alternativas.

Até semana que vem.

Deixe um comentário