BOLETIM SEMANAL #15
Olá, pessoas.
Poderíamos dedicar o boletim desta semana à desinformação que impulsiona a violência política por conta do atentado ao candidato à presidência Donald Trump em um comício na Pensilvânia, nos Estados Unidos. Diante das incertezas a respeito das motivações políticas do atirador, não vão faltar especulações e teorias da conspiração.
Mais tentador, poderíamos tratar da estrutura de espionagem inconstitucional e autoritária montada na Agência Brasileira de Inteligência, a Abin, no governo Bolsonaro. Desafetos políticos, agentes públicos e jornalistas foram alvo de mentiras deliberadamente elaboradas para desacreditá-los.
O atentado a Trump e a arapongagem na Abin de Bolsonaro são, claro, fatos relevantes no cenário da desinformação em processos eleitorais. Mas os vemos, aqui na e-Comtextos, como reflexo de um quadro mais amplo em que a desinformação promove tensões violentas e arbitrárias, amparadas por pressões econômicas e forças políticas.
Decidimos, então, eu e Daniela Germann, abordar como as grandes empresas de tecnologia estão buscando apoio no extremismo para adiar no Brasil a consolidação de leis que visam estabelecer papéis bem definidos para agências reguladoras, empresas de tecnologia e agentes públicos na proteção de direitos e na garantia de liberdades.
Aqui é Luciano Bitencourt, iniciando a semana nada surpreso com outro adiamento da votação do projeto de lei que regula a Inteligência Artificial, o PL 2.338/2023. É mais uma legislação importante influenciada por pressões econômicas e ideológicas dentro do Congresso Nacional.
Paula Guedes, pesquisadora do Núcleo Legalite da PUC-RJ e ponto focal do Grupo de Trabalho sobre IA da Coalizão Direitos na Rede, faz uma ponderação que sintetiza o quanto essa influência movimenta o debate parlamentar.
“Agora que eles [setor empresarial] estão vendo que o projeto está caminhando, eles estão se filiando com o pessoal da extrema-direita, tentando emplacar o argumento de que o projeto de lei vai censurar discursos e empreendimentos no Brasil, e associar problematizações de ter uma autoridade fiscalizadora”.
A afirmação pode aparentar preferências políticas, mas tem respaldo em fatos.
Desinformação e artimanhas
Parlamentares alinhados aos interesses das grandes empresas de tecnologia fundamentam no Senado Federal a oposição ao texto do projeto de lei que regulamenta o desenvolvimento e o uso de Inteligência Artificial com desinformação e artimanhas para brecar o avanço das propostas.
Antes da votação adiada mais uma vez na semana passada, as redes sociais foram inundadas com afirmações distorcidas e descontextualizadas sobre o relatório, que permanece na Comissão Temporária de Inteligência Artificial do Senado, a CTIA. Políticos opositores têm alardeado nas mídias sociais que o projeto traz ameaças de censura e controle estatal.
Recentemente, lobistas de grandes empresas de tecnologia participaram dos debates da comissão, omitindo nos crachás de identificação o vínculo como representantes de uma parte diretamente interessada na regulação. O senador Marcos Pontes fez os convites e escondeu o lobby. Pontes e outros parlamentares têm atuado ostensivamente para segurar o andamento do projeto, apresentando emendas de última hora.
Alegam os opositores que as proposições põem excessivamente em primeiro plano a proteção de direitos e exigem medidas que desagradam as grandes empresas de tecnologia e setores da indústria brasileira. O argumento é o de que uma normatização muito restritiva colocaria em risco o desenvolvimento do país por frear a inovação tecnológica.
Há também a ideia de que o debate ainda não está suficientemente “maduro” por tratar de uma abordagem muito nova e que exige atenção para não engessar as oportunidades de negócio. Mas não se pode esquecer que os estudos de IA são alimentados por pelo menos oito décadas de pesquisa científica.
A Associação Brasileira de Ciências, a propósito, fez recomendações para o debate parlamentar, chamando a atenção, entre outros aspectos, para a importância da proteção de direitos, do envolvimento da sociedade nas decisões, de políticas públicas e investimentos do Estado, de uma regulação dinâmica e capaz de acompanhar o avanço tecnológico.
Outras entidades, como a Coalização Direitos da Rede, também enfatizam que priorizar a avaliação dos riscos dessas tecnologias não é um empecilho porque impulsiona a inovação responsável e o desenvolvimento econômico inclusivo, objetivos que o texto do projeto ainda preservam, apesar das constantes mudanças diante das pressões. Os qualitativos “responsável” e “inclusivo” são essenciais nesse debate.
Prevenção e mitigação de riscos
Em linhas gerais, o projeto de lei estabelece critérios de prevenção e mitigação de riscos para enquadrar o desenvolvimento de IA em proposições que ofereçam segurança, transparência e explicabilidade, com supervisão humana em todos os processos. Quaisquer iniciativas no setor devem, segundo o texto, considerar a defesa de direitos, uma ampla avaliação dos impactos, das decisões e dos resultados, além da condução responsável dos processos.
Para entidades que representam a indústria e empresários do setor de tecnologia, o projeto expressa uma “carga de governança excessiva” e intervenções desnecessárias em processos internos das empresas. As regras previstas no projeto de lei, conforme a Confederação Nacional da Indústria e a Mobilização Empresarial pela Inovação, podem deixar o Brasil “isolado e atrasado tecnologicamente”.
Walter Wolf, diretor da Associação Brasileira de Inteligência Artificial, é um dos que defendem a imaturidade do texto em função de aspectos que privilegiam excessivamente o “controle” dos riscos no desenvolvimento da Inteligência Artificial no país.
“Alguns pontos específicos do PL geram preocupações em relação à possível interferência no desenvolvimento da IA no Brasil, principalmente por não conversarem com o lado técnico-científico”.
Mas é no âmbito da integridade da informação que as pressões contrárias ao projeto são maiores. Como no PL das Fake News, igualmente postergado ao máximo e por fim engavetado pelo presidente da Câmara, Arthur Lira, os argumentos contrários ao texto que propõe a regulação de IA sustentam a existência de forças políticas ligadas ao governo interessadas em cercear liberdades.
As preocupações com a governança dos processos e dos dados, a segurança no uso de tecnologias e a transparência nas decisões e avaliações de impacto, na verdade, elevam os riscos de procedimentos muito lucrativos para as grandes empresas de tecnologia. Comentamos aqui na semana passada sobre a suspensão do uso de dados dos usuários das plataformas da Meta para treinamento de IA.
Três questões principais estão na pauta das big tech nesse debate: o pagamento de direitos autorais na apropriação de dados para treinamento de modelos de IA em casos específicos, o cumprimento de obrigações para dar transparência a seus métodos e processos e a classificação de alto risco para os sistemas de recomendação de informações. Além dos custos para cumprir as determinações do projeto, as empresas alegam também ingerência sobre segredos comerciais e industriais.
Em ano de eleição, contudo, outros aspectos preocupam mais.
Duas vezes lucrativo
Ao adiar a aprovação de leis que regulam o uso das tecnologias, as responsabilidades por eventuais violações e a moderação de conteúdo, o parlamento brasileiro vem favorecendo as plataformas, cada vez mais despreocupadas com a integridade da informação e a segurança nas redes. Um dos pontos centrais nesse cenário é a redução de moderadores humanos na avaliação de conteúdos nocivos ao convívio democrático.
As grandes empresas de tecnologia estão reduzindo esforços na moderação de conteúdo em língua portuguesa e pressionando por aumento de produtividade nos contratos com empresas terceirizadas. Com o avanço da Inteligência Artificial, os investimentos são transferidos para que a verificação e a moderação nas redes sejam feitas por algoritmos, aumentando os riscos de desinformação.
Fazendas de conteúdo, criadas para produção e propagação em massa de informações falsas, já ocupam o cenário político, conduzidas integralmente por IA [texto em inglês]. Versões “zumbi” de veículos de informação vendidos para investidores [texto em inglês] interessados em monetizar todo o tipo de conteúdo simulam a produção com textos de algoritmos se fazendo passar por jornalistas que realmente existem (perdão pelo eufemismo, mas é necessário).
No campo jornalístico, as gigantes da tecnologia também são responsáveis pela vulnerabilidade estrutural da produção, dependente das plataformas, dos critérios de apoio financeiro pouco claros e da preferência por parcerias com grandes empresas de mídia. Os investimentos crescentes das big tech na produção independente de informação qualificada são avaliados como fatores que favorecem o domínio do mercado da informação.
Para os negócios globalizados, quanto mais uniformes as regulamentações em mercados onde atuam e menos restritivas as leis, melhor. As pressões ao legislativo brasileiro levam em conta essa premissa. Por isso, discursos mais radicalizados em defesa da liberdade de expressão como direito absoluto ganham apoio das grandes empresas de tecnologia.
Como enfatiza o relatório da Coalizão Direitos da Rede, a falta de regramento no uso de Inteligência Artificial potencializa o acirramento de riscos já conhecidos e, por isso mesmo, evitáveis. Além disso, crescem os mitos em torno de dilemas que não se opõem ao desenvolvimento.
“Atores contrários à regulação abrangente de IA no Brasil, ou com obrigações quase que inexistentes, são aqueles que justamente se beneficiam deste cenário sem regras harmonizadas e previsibilidade jurídica, em detrimento da proteção de direitos humanos, a partir da criação de argumentos e narrativas que não se sustentam na prática”.
Em períodos eleitorais, as polarizações tendem a se acirrar e as empresas que detém as plataformas digitais ganham duas vezes. Ao mesmo tempo em que faturam economicamente com o extremismo nas redes, mobilizam apoio político para enfraquecer propostas de regramento mais restritivas ao permissivo e lucrativo modelo de negócios.
Até o final das eleições municipais, tudo permanece como está.
No radar
- Pesquisa da Organização para o Desenvolvimento e a Cooperação Econômica, a OCDE, revela que os brasileiros têm maior dificuldade em identificar notícias falsas em comparação a entrevistados de outros 20 países analisados. O estudo, realizado com mais de 40 mil pessoas, mostrou que apenas 54% dos brasileiros conseguiram distinguir informações verdadeiras de falsas, ficando abaixo da média geral de 60% entre os participantes. Outro dado relevante é que as redes sociais são o ambiente onde há maior dificuldade em diferenciar o que é verdadeiro do que é falso, com menos de 10% de acertos na média global.
- Pesquisadores da Universidade Federal Fluminense (UFF) desenvolveram uma ferramenta de Inteligência Artificial capaz de detectar notícias falsas nas redes sociais com 94% de precisão. A ferramenta analisa a estrutura textual e padrões de escrita característicos de fake news. Após treinar o algoritmo com milhares de mensagens verdadeiras e falsas, o algoritmo consegue identificar novos conteúdos enganosos com relativa eficácia, tornando-se uma importante ferramenta no combate à disseminação de informações falsas online.
Ainda vale: para quem deseja ajudar as vítimas das enchentes no Rio Grande do Sul, Meio, Nexo e Núcleo Jornalismo são ótimas alternativas.
Até semana que vem.