IA “desonesta” na “economia da intenção”, a nova fronteira da manipulação de dados

Intenções humanas e controle digital (Imagem com IA – Freepik)

Olá, pessoas.

Em nosso trabalho de pautar decisões e orientar ações futuras aqui na e-Comtextos, nos deparamos, eu e Daniela Germann, com o conceito intrigante de “economia da intenção”.

Basicamente, tecnologias persuasivas de inteligência artificial começam a antecipar nossas decisões para vendê-las antes que as tomemos.

Estudos mais recentes dão conta de que a “economia da intenção” insere indicadores comportamentais e psicológicos aos dados que já oferecemos em troca de nossa atenção no mundo digital.

Sabe aquela propaganda que nos aparece nos dispositivos digitais, como se o anunciante adivinhasse o que procuramos? É coisa do passado. A próxima fronteira são soluções com base em escolhas que ainda não fizemos, mas que os algoritmos “inteligentes” sabem que vamos fazer.

Falamos de uma espécie de persuasão automatizada que se propõe a intervir no que se “quer querer”, como dizem os pesquisadores Yaqub Chaudhary e Jonnie Penn em trabalho publicado no Harvard Data Science Review.

“Tais ferramentas já estão sendo exploradas para obter, inferir, coletar, registrar, entender, prever e, finalmente, manipular, modular e mercantilizar planos e propósitos humanos, tanto triviais (por exemplo, selecionar um hotel) quanto profundos (por exemplo, escolher um candidato político)” – a tradução e os grifos são nossos.

Manipulação da opinião pública, aliás, é um dos riscos graves associados ao uso de inteligências artificiais, segundo o International AI Safety Report, um relatório de 300 páginas produzido por especialistas de mais de 30 países com apoio de organizações multilaterais.

Esse mercado de dados comportamentais e psicológicos que sinalizam a intencionalidade humana é ainda um terreno desconhecido, mas bastante fértil para nos persuadir a tomar decisões como se fossem nossas intenções mais íntimas.

Aqui é Luciano Bitencourt, sitiado na esperança de compreender para onde essas tecnologias estão nos levando e, ao mesmo tempo, disposto a compartilhar percepções sobre como elas impactam o consumo de informação de qualidade.

Desde 2018, a internet é a principal fonte para a construção de conjuntos de dados em todas as mídias. E, de lá para cá, a necessidade de escala no treinamento de inteligências artificiais elevou exponencialmente a geração de dados sintéticos, produzidos por máquinas sem mediação com experiências humanas.

Pode parecer irrelevante, mas vamos analisar juntos.

Cinquenta pesquisadores da Iniciativa Providência de Dados, entre acadêmicos e especialistas em tecnologia, ao fim de um exaustivo estudo, concluíram que as práticas na geração de dados expressam um alto risco de concentração de poder.

Para se ter uma ideia (os números aqui são importantes), três décadas de quase 4 mil conjuntos de dados públicos em mais de 600 idiomas de 67 países, extraídos de cerca de 800 fontes únicas em 700 organizações, representam a amostra do estudo. Não é pouca coisa.

Especialmente porque revela que países da América do Norte e da Europa e grandes empresas de tecnologia concentram a absoluta maioria dos dados usados no treinamento de inteligências artificiais.

É de se perguntar o peso da representatividade das respostas dadas por chatbots financiados pelo Vale do Silício, quando cerca de 90% das bases para treinar os algoritmos estão concentrados nos Estados Unidos e em alguns países europeus.

Como ensina o filósofo sul-coreano Byung-Chul Ham, os dados reconfiguram o mundo ao refletirem valores, interesses e estruturas de poder.

Dados não são só números. Mesmo quando distribuídos em imensas tabelas, ilegíveis para quaisquer mortais sem conhecimento adequado nem auxílio de ferramentas estatísticas e tecnológicas.

Existe um processo de mediação que atua sobre a coleta, a organização e a interpretação dos registros que usamos para atribuir padrões na leitura da realidade. Os dados estão sujeitos a muitos vieses, muitos vícios de percepção sobre o que representam.

Na concepção do pesquisador Ricardo Cappra, usamos dados para compor “pedaços do mundo” em narrativas sobre o que escolhemos ver. Tudo envolve escolhas. O que e como coletar, onde e como organizar, com que bases e metodologias, nada é por acaso.

É um mito, portanto, considerar dados “brutos” como se sempre estivessem onde os encontramos e representassem um todo, uma realidade única e escondida na desordem dos números e registros.

Pelo estudo da Iniciativa Providência de Dados (onde todos os requisitos de coleta, organização e interpretação estão descritos), os chatbots de inteligência artificial não alcançam um mundo infinitamente maior do que seus modelos são capazes de representar.

Parte relevante das críticas feitas a esses modelos de inteligência artificial disponíveis no mercado diz respeito à falta de transparência na composição dos códigos-fonte que sustentam seus algoritmos e na forma como “raciocinam”.

Até a chegada da startup DeepSeek nesse cenário, os chatbots populares mantinham escondidos os dados sobre o funcionamento da tecnologia e a maneira como chegavam aos resultados.

A “IA chinesa” ainda reverbera no mercado como um marco para algumas mudanças em andamento. Além de mais acessível e menos dependente de grande infraestrutura, abriu o código-fonte na origem, mostra por padrão o passo a passo de como chega a cada resposta e adota um método de aprendizagem de máquina mais focado nas interações, não só nos dados de treinamento.

Como efeito imediato, as big techs passaram a repensar suas estratégias e investimentos, estão mudando a interface de seus chatbots e incrementando as versões gratuitas com modelos mais robustos e antes restritos a assinaturas pagas.

Sam Altman, CEO da OpenAI, chegou a sugerir um “orçamento de computação” global para democratizar o acesso à inteligência artificial e distribuir recursos aos desenvolvedores para evitar concentração de poder. Políticas de requalificação e apoio governamental são, no argumento dele, essenciais para diminuir o “abismo entre capital e trabalho”.

Nesse quesito, também a DeepSeek revelou-se fora da curva projetada pelo Vale do Silício. A startup chinesa não baseia suas estratégias em políticas de investimento do governo. Ao invés disso, a empresa investe em pesquisadores e desenvolvedores destacados em universidades e promove inovação, não a criação de aplicativos.

A imagem disruptiva no campo tecnológico contrasta, no entanto, com a visão geopolítica de países ocidentais sobre os riscos de que a “IA chinesa” sirva de suporte para espionagem e ameaças de segurança.

Quando o presidente da França, Emmanuel Macron, usou deepfakes de si mesmo para promover o AI Action Summit, evento realizado em Paris nos dias 10 e 11 de fevereiro, estava claro que o tom dos debates na cúpula de lideranças políticas, empresariais e filantrópicas seria mais otimista do que em versões anteriores.

Os críticos perceberam na iniciativa de Macron uma certa banalização dos efeitos perversos das tecnologias usadas para distorcer a realidade e enganar as pessoas. Mas a questão é mais profunda.

Jornalistas e analistas saíram do evento com a sensação de que as restrições das leis recém-criadas pela União Europeia e consideradas uma referência importante na regulação global do uso de IA já estão sendo vistas, inclusive por lideranças de países-chave do bloco, como severas demais.

Para sinalizar compromissos mais “produtivos“ no desenvolvimento de inteligências artificiais, o governo francês lançou no AI Summit uma iniciativa de parceria público-privada com investimentos iniciais de 400 milhões de dólares.

O objetivo é ampliar o acesso, incentivar o desenvolvimento de ferramentas de código aberto, garantir mais transparência e segurança, além de medir impactos sociais e ambientais no desenvolvimento da tecnologia.

Governos, representantes da indústria e instituições filantrópicas pretendem arrecadar 2,5 bilhões de dólares em cinco anos para levar adiante o propósito de apoiar iniciativas de interesse público.

Algo que depende essencialmente de governança, não só de dinheiro.

Ainda não é um estudo revisado por pares, mas os resultados ampliaram os alertas quanto aos cuidados no desenvolvimento e no uso de inteligências artificiais. Pesquisadores chineses descobriram em testes com dois modelos de linguagem que seus algoritmos são capazes de se replicar sem intervenção humana.

Os sistemas analisados foram programados para se clonar no caso de serem desligados. Além de criarem réplicas de si mesmos, também conseguiram reprogramar as cópias para todas as funções a que estavam destinados.

Nesse processo, os pesquisadores notaram “comportamentos inesperados”. Quando percebiam a falta de arquivos necessários ou conflitos de software nos sistemas em que operavam, as inteligências artificiais executavam sozinhas comandos de correção. Uma forma de superar obstáculos não previstos nos códigos de comando.

O alerta está na descoberta de que a IA já pode ser capaz de se tornar “desonesta”. No jargão tecnológico, isso significa que as ferramentas analisadas podem já ter “desenvolvido autonomia e autoconsciência” suficientes para “trabalhar contra interesses humanos”.

Exemplos de como os chatbots que conhecemos hoje distorcem os fatos, inventam respostas e contribuem para manipular opiniões são bastante fartos. A qualidade dos dados de treinamento e a transparência na governança fazem diferença no “aprendizado” dos algoritmos.

Em debates mais recentes, se tem a noção de que ainda não existe uma filosofia de código aberto para modelos de inteligência artificial. Mesmo a DeepSeek não revela todas as limitações e discrepâncias de funcionalidade e operação de sua IA.

Ainda não existem modelos que expõem completamente o modo como são criados, compartilhados e governados. As referências de código aberto que temos se restringem aos modelos de software, tratam da disponibilidade para uso, estudo, modificação e distribuição sem restrições.

Para inteligências artificiais, os especialistas sugerem que a liberdade de licença exige ainda o acesso irrestrito a detalhes sobre dados de treinamento, ao código completo usado na criação e na execução da IA, aos critérios e às configurações que ajudam a entender de onde vêm os resultados.

Se levarmos em conta os indícios de “autorreplicabilidade algoritmica” e a antecipação da intencionalidade humana a partir de dados comportamentais e psicológicos em uma “economia da intenção”, não é difícil perceber quão importantes são as decisões em andamento.

Talvez seja prudente atentar para aspectos não visíveis no debate público explorado pela mídia.

Cleber Zanchettin, pesquisador da Universidade Federal de Pernambuco, chama a atenção para um detalhe: no cenário geopolítico, os países estão mais focados nas aplicações de inteligência artificial para uso militar, em robótica, nos veículos independentes e em sistemas de comunicação e de saúde.

A disputa sobre qual chatbot é melhor, mais completo e menos manipulador é quase uma distração, uma forma de nos fazer escolher o que já foi decidido.


  • [1] Coming AI-driven economy will sell your decisions before you take them, researchers warn (University of Cambridge Research)
  • [2] Beware the Intention Economy: Collection and Commodification of Intent via Large Language Models (Harvard Data Science Review)
  • [3] A Origem dos Dados da IA ​​(MIT Technology Review)
  • [4] O mito do dado (MIT Technology Review)
  • [5] Cúpula de inteligência artificial em Paris anuncia IA de interesse público (Fast Company Brasil)
  • [6] 1 big thing: Optimism dominates Paris AI summit (Axios)
  • [7] 5 Notes From the Big A.I. Summit in Paris (NY Times)
  • [8] #86: Four Freedoms of truly open AI (Hugging Face)
  • [9] Quais devem ser as liberdades da IA ​​Aberta? (The Shift)
  • [10] AI can now replicate itself — a milestone that has experts terrified (Space.com)
  • [11] Ataques biológicos e campanhas de manipulação são riscos da IA, diz relatório (Núcleo Jornalismo)
  • [12] Sam Altman afirma que IA pode ampliar desigualdade e propõe “orçamento de computação” (IT Forum)
  • [13] Three Observations (Blog Sam Altman)
  • [14] How ChatGPT Search (Mis)represents Publisher Content (Columbia Journalism Review)
  • [15] How DeepSeek stacks up when citing news publishers (NiemanLab)
  • [16] DeepSeek: pesquisador brasileiro explica por que IA chinesa impressionou, com solução ‘totalmente diferente’ (BBC News Brasil)
  • [17] DeepSeek: O modelo que desafia o ChatGPT (MIT Technology Review)
  • [18] AI chatbots unable to accurately summarise news, BBC finds (BBC)
  • [19] AI chatbots distort and mislead when asked about current affairs, BBC finds (The Guardian)
  • [20] Por trás do sucesso do DeepSeek (The Shift)
  • [21] ENTREVISTA | DeepSeek: 8 perguntas sobre o futuro da IA ​​- e da política (Projeto Brief)

Os links que aprofundam a leitura crítica apresentada aqui e oferecem mais informações podem estar em língua estrangeira ou serem exclusivos para assinantes, dependendo da fonte acessada.

Para ler boletins anteriores, clique aqui.

Em nosso site tem mais informações a respeito do trabalho que fazemos para pautar decisões e orientar ações futuras.

Deixe um comentário