BOLETIM SEMANAL #13
Olá, pessoas.
Estudo recente da DeepMind, uma divisão de Inteligência Artificial do Google, apresentou dados que põem em alerta as autoridades eleitorais. A criação de imagens, vídeos e áudios falsos imitando políticos e celebridades é quase duas vezes mais comum do que o uso de IA em ataques cibernéticos.
Pouco menos de um terço dos casos investigados tinha a intenção de manipular a opinião pública, usando um recurso muito difícil de ser percebido por quem não tem treinamento e extremamente trabalhoso para quem lida com checagem de informações falsas.
Facilmente acessíveis, as ferramentas usadas para a produção de deepfakes com a ajuda de IA não requerem conhecimento técnico aprofundado, aumentando o potencial uso para a produção de conteúdo fraudulento.
Aqui é Luciano Bitencourt, tentando entender a proporção dos efeitos provocados por este tipo de produção em processos eleitorais, especialmente no Brasil. Eu e Daniela Germann procuramos algumas respostas para compartilhar nesta semana.
Estamos entrando em um universo desconhecido de “influenciadores sintéticos”, criados com ferramentas de Inteligência Artificial em diferentes circunstâncias e para finalidades diversas.
Desde que começamos a levantar informações sobre desinformação em processos eleitorais, descobrimos que não existe consenso sobre o grau de persuasão de conteúdo enganoso em eleitores. Os pesquisadores dizem que é difícil estabelecer uma relação de causa e efeito entre desinformação e voto.
Mas a eficácia da persuasão política nesse cenário, apontam os estudos, está em fazer as pessoas se comportarem de acordo com suas crenças e não em fazê-las mudar de ideia. Como argumenta o cientista político da Universidade de Copenhague, Gregory Eady [texto em inglês], basta que a desinformação afete um pequeno número de pessoas para causar impacto.
“Podemos não esperar efeitos generalizados em toda a população, mas pode ter alguns efeitos de radicalização em pequenos grupos de pessoas que podem causar muitos danos”.
Vamos a alguns elementos para pensar sobre o tema.
Limbo jurídico e lobby econômico
Influenciadores sintéticos estão no que técnicos do Tribunal Superior Eleitoral chamam de “limbo jurídico”. Não são pessoas naturais nem jurídicas e isso dificulta a responsabilização por quaisquer danos que provoquem por disseminar desinformação. Membros do Comitê de Cibersegurança ligado ao Gabinete de Segurança Institucional do governo alertaram ao TSE que é preciso incluir esses atores fictícios nas regras eleitorais para este ano.
Na Bielorrússia, por exemplo, um candidato foi criado com Inteligência Artificial para denunciar fraudes eleitorais. A líder da oposição, Sviatlana Tsikhanouskaya, chegou a ironizar que a melhor parte dessa estratégia era que o governo, há décadas no poder, não teria como prender o “político sintético” por suas críticas.
Mesmo em defesa de ambientes mais democráticos, como na Bielorrússia, esse tipo de argumento favorece a falsa ideia de que a liberdade de expressão é um direito absoluto. Juridicamente, não há clareza sobre quem deve responder por eventuais irregularidades dos influenciadores sintéticos. Em resolução aprovada no início do ano, a Justiça Eleitoral determinou que anúncios e conteúdos de campanha produzidos com IA sejam identificados com rótulo específico para não enganar o eleitor. Será suficiente?
Para os produtores de conteúdo político, a Inteligência Artificial é uma poderosa ferramenta de marketing. Além de constituir e analisar rapidamente uma ampla base de dados, oferece também a possibilidade de uma campanha hiper segmentada e orientada a nichos de público bem específicos, com linguagem direcionada e mapeamento de fatores psicológicos do eleitorado. A influência sintética vai muito além, portanto, da mera criação de personagens fictícios para persuadir eleitores.
Apesar da urgência na regulação no uso de IA, o Legislativo brasileiro vem postergando a votação do projeto de lei que trata do tema. Neste caso, o lobby para atrasar o andamento do processo vem de parlamentares ligados a um movimento dos Estados Unidos para evitar que leis aprovadas em outros países imponham limitações à sua liderança tecnológica.
Um grupo de senadores que esteve em missão nos EUA em março apresentou diversas emendas ao projeto no limite do prazo regimental, ação apontada como manobra para adiar a votação e alinhar o relatório aos interesses das big tech, incluídas na agenda oficial de visitas durante a viagem de cinco dias. As proposições ao texto, que ainda continuam chegando, estressam a conclusão do relatório pelo excesso de volume e pela baixa qualidade.
Tida como prioridade para o Congresso Nacional neste ano, a regulamentação de IA também está incluída estrategicamente nas discussões da cúpula do G20 no Brasil em novembro. As autoridades brasileiras querem protagonizar o debate sobre o tema a partir do Sul Global, onde estão os países com baixo poder de decisão sobre os rumos da tecnologia. Como se percebe, o lobby tem vieses geopolíticos e econômicos.
Instinto e emoções negativas
Informações falsas, incluindo as produzidas por IA, podem não ter um impacto tão contundente quanto se imagina na escolha de candidatos. Dizem especialistas que as razões para o voto estão no instinto, nos valores e nas crenças [texto em inglês]. A informação, sendo ou não verdadeira, não é o que motiva o eleitor em suas escolhas.
Os riscos ao processo eleitoral estariam mais associados ao comportamento e às ações diante da desinformação. É mais fácil, por exemplo, persuadir alguém a não votar do que trocar de candidato. Saber que a desinformação existe e acreditar na sua influência é o bastante para a perda de confiança em instituições consolidadas, como a Ciência, o Jornalismo e a Democracia.
Em termos psicológicos, a narrativa dos fatos oferece um apelo emocional que os fatos em si não carregam. Emoções catalisadoras de repressão e divisão social, dizem os estudos, impulsionam ações antidemocráticas. O medo, por exemplo, justifica a restrição de direitos enquanto a raiva mobiliza a política autoritária. No cenário atual, os algoritmos de Inteligência Artificial são usados para potencializar a incivilidade e a hostilidade nas redes sociais em busca de apoio eleitoral pela aniquilação de adversários transformados em inimigos, estratégia típica dos populismos.
É consenso entre especialistas que as “notícias falsas” são mais virais que as verdadeiras. Mas estudos desenvolvidos na China descobriram algo curioso. Examinando com mais atenção o componente emocional nas fake news, os pesquisadores chegaram à conclusão de que quanto mais forte o teor da raiva no conteúdo, mais potencial de viralização ele tem. Isso também ajuda a explicar porque, mesmo com a proliferação cada vez mais intensa de algorítimos, são os humanos que mais disseminam desinformação.
No campo político-eleitoral, a desinformação ganha mais força com a dúvida sobre a lisura dos processos e a idoneidade das instituições democráticas do que com a persuasão de eleitores nas urnas. Pelo menos é o que um conjunto abrangente de estudos em diferentes áreas vem mostrando. A influência sintética, produzida artificialmente com algoritmos, tende a reforçar ainda mais as dúvidas no que acreditar e a instigar comportamentos instintivos, emocionalmente negativos no contexto em que estamos.
Incentivos industriais e consumo de opiniões
No relatório anual do Instituto Reuters deste ano, dois aspectos são importantes para complementar os argumentos que levantamos aqui. Primeiro, a queda no consumo de notícias está associada ao uso das plataformas como principal veículo de informação, o que impulsiona os veículos tradicionais de comunicação a relegar a importância de chegar às pessoas menos informadas. Segundo, influenciadores com grande volume de audiência, em parte homens hiper partidários, estão substituindo o Jornalismo na distribuição de “notícias”.
Rasmus Nielsen, diretor do instituto e professor nas universidades de Oxford e Copenhague, tem estudado a desigualdade de informação e sugere que o cenário precisa considerar [texto em espanhol] uma certa homogeneidade de vozes na produção de notícias e os incentivos industriais que fortalecem a preferência do público por conteúdo menos informativo.
“Aqueles que consomem ativamente notícias são cada vez mais uma parte relativamente pequena do público, que tende a ser rico, altamente educado, mais velho e politicamente comprometido. E com a mudança para modelos pagos, os editores têm cada vez mais incentivos para servir [exclusivamente a] esse grupo demográfico”.
Outro professor, também de comunicação, tem interpretação semelhante. Jacob Nelson, da Universidade de Utah, considera que o ceticismo em relação às notícias e a desconfiança sobre o trabalho de jornalistas [texto em inglês] resulta de fatores mais econômicos do que ideológicos. Com base em estudos produzidos por sua equipe, Nelson avalia que, na concepção do público, os jornalistas querem mais o dinheiro decorrente da atenção por notícias do que propriamente convencer ideologicamente as pessoas em tomar partido por alguma causa.
“Talvez uma demonstração mais eficaz de transparência se centrasse menos na forma como os jornalistas realizam o seu trabalho e mais na forma como as preocupações financeiras das organizações noticiosas são mantidas separadas das avaliações do trabalho dos jornalistas”.
Diante de um quadro tão complexo, não dá para limitar a influência sintética como recurso político ao uso de ferramentas sofisticadas para produzir desinformação. O avanço da produção de agentes fictícios, sabe-se bem, é fruto de decisões muito mais influentes no campo da indústria do que no da própria política.
Opiniões e preferências ideológicas de influenciadores [texto em inglês], os bem humanos inclusive, são parte lucrativa de levar conteúdo a um público “mimado” por algoritmos para acessar o que quer, o que gosta, do jeito que gosta, como pontua o pesquisador do ObjETHOS, Marcos Britto.
A criação sintética de atores políticos fictícios é resultado dos incentivos que as big tech têm estimulado no desenvolvimento de negócios ainda não regulados por políticas públicas capazes de desafiar a desigualdade de informação.
No radar
- A partir de 2020, o assédio judicial a jornalistas no Brasil cresceu significativamente, atingindo um novo patamar, segundo levantamento da Associação Brasileira de Jornalismo Investigativo, a ABRAJI. A prática, conhecida como lawfare, envolve o uso do sistema judicial para intimidar e silenciar profissionais da imprensa por meio de processos judiciais excessivos e infundados contra reportagens fundamentadas em fontes fidedignas e apuração jornalística. Tem sido adotada, ao longo dos últimos anos, por figuras públicas e autoridades para tentar cercear a liberdade de imprensa, representando uma ameaça à democracia e ao direito à informação, segundo a entidade.
- A ONU lançou um Pacto Global com cinco princípios para combater a desinformação. A iniciativa busca promover a verificação de fatos, a transparência nas plataformas digitais, a alfabetização midiática, a cooperação internacional e a responsabilização das empresas de tecnologia para criar um ambiente digital mais seguro e confiável, fortalecendo a integridade das informações e protegendo a sociedade dos impactos negativos das fake news. O pacto reúne governos, empresas e organizações da sociedade civil em esforço conjunto na luta contra a desinformação global.
- A Suprema Corte dos Estados Unidos decidiu permitir que o governo Joe Biden solicite às empresas responsáveis pelas redes sociais a remoção de conteúdos considerados desinformação. A decisão reverte uma liminar anterior que restringia esse tipo de pedido. Diante da crescente preocupação com a influência de informações falsas e enganosas na opinião pública e na integridade das eleições, a medida gerou debates sobre a liberdade de expressão e o papel das plataformas digitais na moderação de conteúdo.
Ainda vale: para quem deseja ajudar as vítimas das enchentes no Rio Grande do Sul, Meio, Nexo e Núcleo Jornalismo são ótimas alternativas.
Até semana que vem.