Intimidade entre ‘big techs’ e poderes de Estado ameaça defesa de direitos [#36]

Tecnologias de vigilância são capital político das empresas (Freepik)

Olá, pessoas.

Organizações da sociedade civil de países latino americanos apresentaram na Comissão Interamericana de Direitos Humanos um relatório que chamou nossa atenção aqui na e-Comtextos [1] [2] [3].

Três estratégias centrais, segundo a análise, reforçam tendências de censura indireta na região:

  1. a construção de narrativas oficiais estigmatizando o trabalho da imprensa;
  2. a adoção de novas tecnologias de vigilância para controle social; e
  3. a judicialização da liberdade de expressão.

Esses três fatores estão igualmente em jogo nos debates produzidos pelo Judiciário e o Legislativo brasileiros a respeito de marcos legais na regulação do uso da internet e de inteligências artificiais.

Na semana passada, eu e Daniela Germann abordamos os riscos no julgamento de constitucionalidade do Marco Civil da Internet em andamento no Supremo Tribunal Federal [4]. Dizíamos que parte da disseminação de conteúdo nocivo nas redes é mesmo responsabilidade das big techs e, por isso, precisa haver alguma regulação.

Os riscos à liberdade de expressão e à integridade da informação permeiam também discussões no Senado Federal, que deve votar nesta semana o Projeto de Lei 2.338/2003, o Marco da Inteligência Artificial [5].

Os impactos sociais são muito amplos para relegar a importância das decisões jurídicas e legislativas em pauta.

Aqui é Luciano Bitencourt com a leitura crítica semanal sobre os efeitos da desinformação em nosso cotidiano e uma suspeita que pode até soar alarmista: a íntima relação entre as big techs e os poderes políticos traz riscos tão contundentes quanto a censura de Estado.

Incitações contra o Estado Democrático de Direito, à violência física, sexual, ou contra mulheres, crianças e adolescentes; incitações ao terrorismo, ao suicídio, ao racismo ou que impulsionem “infração sanitária”; divulgação de fatos inverídicos ou descontextualizados ou de “fatos notoriamente inverídicos” sobre o processo eleitoral, todas essas “ilegalidades” devem ser coibidas previamente pelas big techs em suas plataformas.

Ilegalidades entre aspas porque, por enquanto, este é o entendimento apenas do ministro Dias Toffoli ao julgar inconstitucional o dispositivo do Marco Civil da Internet que isenta as plataformas de punição por permitir a disseminação desse tipo de conteúdo [6]. Primeiro a votar nos processos relacionados à moderação de redes sociais em julgamento no STF, Toffoli considera que as empresas não dependem de decisões judiciais para agir imediatamente nesses casos [7].

Existe a expectativa de que o STF mantenha a constitucionalidade do Marco Civil sancionado há uma década, com atualizações sobre critérios do que deve ser considerado ilegal [8]. O primeiro voto, entretanto, foi mais adiante. Entre outras considerações, Toffoli estabelece que o Congresso Nacional teria 18 meses para criar uma lei de enfrentamento à violência digital e à desinformação.

Delimitar um tempo para que o Legislativo cumpra a “tarefa” pode ser uma armadilha. Além do embate institucional entre poderes, acirrado pelo extremismo político nos últimos anos, não se pode esquecer que a Câmara e o Senado fogem seguidamente so compromisso compulsório no regramento do uso de tecnologias digitais. Do contrário, o Marco Civil da Internet não estaria em análise no Judiciário.

As plataformas têm pressionado o Legislativo a tomar decisões mais brandas nas medidas de regulação, com o objetivo de evitar mudanças muito drásticas nos modelos de negócio [9]. As empresas de tecnologia sustentam no STF que já fazem um trabalho de moderação suficiente para conter abusos e miram a votação do Marco da Inteligência Artificial no Senado com o mesmo propósito.

O texto preliminar aprovado em comissão especificamente criada para propor o Marco da Inteligência Artificial isenta as big techs de dar transparência aos critérios que usam em seus algoritmos para moderar e recomendar conteúdo online [10] [11] [12] [13]. Sob o pretexto de defender a liberdade de expressão, o Congresso vai na contramão do que o STF tem sinalizado.

Em regime de urgência na pauta desta semana do Senado, a votação confirma a difícil tarefa de defender direitos constitucionais diante de interesses econômicos e políticos beneficiados pelos adiamentos estratégicos e constantes das decisões legislativas.

Outro capítulo se anuncia na judicialização da liberdade de expressão.

Executivos das big techs estão entranhados nas estruturas de poder. O financiamento de lobbies em favor dos próprios negócios é só um dispositivo a mais na busca por “apoio” no Estado. As eleições deste ano nos Estados Unidos escancararam a influência das grandes empresas em projetos políticos de liderança corporativa na corrida tecnológica.

O Vale do Silício, oásis californiano das big techs, investiu 394,1 milhões de dólares nas campanhas dos candidatos à presidência nos Estados Unidos este ano [14]. Elon Musk, sozinho, doou a Trump 61,5% desse valor. Em troca, vai ocupar o Departamento de Eficiência Governamental sem se desligar de suas empresas [15].

Mais discreto, o proprietário da Meta, Mark Zuckerberg, também tem buscado aproximação com Trump para participar das decisões governamentais no campo da tecnologia [16] [17]. Durante a campanha eleitoral, chegou a manifestar aos congressistas estadunidenses arrependimento por ter aceitado a “pressão” do governo Joe Biden para tirar de circulação informações sobre a Covid-19, grande parte efetivamente falsas.

Não por acaso, a Meta revelou recentemente por meio de um de seus executivos que tem errado com frequência no processo de moderação de conteúdo em função da rigidez de suas próprias políticas [18]. A promessa é afrouxar medidas de restrição para garantir mais liberdade de expressão, na mesma linha do que defende o governo Trump e já é adotado pelo finado Twitter de Musk.

Em relatórios recentes, a Meta fez um balanço de sua participação na contenção de danos a processos eleitorais [19]. No Brasil, por exemplo, 65,5% dos 2,9 milhões de conteúdos nocivos retirados de circulação pela própria empresa em suas plataformas neste ano eram discurso de ódio ou incitação à violência.

Os números trazidos pela Meta mostram também que os conteúdos nocivosa processos eleitorais e produzidos com auxílio de inteligências artificiais representaram apenas 1% das informações incorretas verificadas pela empresa [20]. Temores de que o uso de IA acarretaria riscos ao super ciclo eleitoral não se confirmaram de fato. As eleições municipais por aqui, entretanto, serviram de teste para a legislação contra deepfakes e outras ilegalidades esperadas para 2026, na eleição presidencial [21] [22].

É provável que o afrouxamento nas regras que balizam a liberdade de expressão como um direito relativo e sujeito a sanções também dilua as fronteiras políticas que separam governos das big techs. A influência contra leis regionalizadas que impedem a padronização nos modelos de negócio e as obrigam a atender especificidades locais tende a aumentar.

Tecnologias de vigilância para controle social são o capital político dessas empresas.

Estamos falando do “gerenciamento algorítmico” das plataformas que molda comportamentos. Sem transparência nos critérios dos sistemas de moderação e recomendação nas redes sociais, por exemplo, não há como compreender o grau de persuasão que os algoritmos exercem sobre usuários de internet.

O consumo exagerado e superficial de conteúdo rápido e raso, de baixa qualidade nas mídias digitais, levou o Dicionário Oxford a reconhecer brain rot, “cérebro apodrecido” em tradução simples, como termo do ano [23] [24]. Não existem evidências do “apodrecimento” do cérebro. O reconhecimento do termo expressa, na realidade, a ansiedade que desenvolvemos na relação com dispositivos online e o desperdício desmedido de tempo com futilidades.

Para o jornalista e professor Carlos Castilho, estamos perdendo a capacidade de perceber a realidade com o avanço desse tipo de alienação [25]. Como há muitas opiniões e percepções compartilhadas, visões de mundo pessimistas e estratégias políticas de viés autoritário, esse cenário é fértil para a produção de formas alternativas de fantasiar os fatos.

Viver em um universo ideal, uma realidade paralela, tem se tornado um fenômeno psicológico que ganha adeptos especialmente entre jovens [26]. Evitar notícias também é outro fenômeno que reflete, entre outras coisas, cansaço pelo consumo de informações consideradas excessivamente negativas por mostrar exclusivamente as mazelas sociais e nossa impotência diante dos desafios que enfrentamos [27].

Essas questões comportamentais têm relação com decisões a respeito de como regular a liberdade de expressão e manter parâmetros de integridade para informações que consumimos. Como tendemos a confirmar nossas crenças com “evidências” alternativas, o “gerenciamento algoritmo” das plataformas é persuasivo em não recomendar o que pode refutá-las [28].

A qualidade do discernimento entre o engano e a veracidade tem um certo grau de correspondência com o nível de enraizamento de nossas crenças. Quanto mais enraizada a percepção de uma realidade imaginada, menor a capacidade de reconhecer o que é equivocadamente visto como verdade [29] [30].

Narrativas oficiais estigmatizando o trabalho de quem se propõe a produzir informação verificada, baseada em fatos e sustentada na diversidade de versões em que se pode confiar promovem a dispersão de um quadro comum no qual podemos confrontar interpretações sobre a realidade [31].

Judicializar a liberdade de expressão, vigiar e controlar comportamentos sociais e estigmatizar a veracidade são riscos que a intimidade entre as big techs e os poderes políticos não esconde mais.


Os links que aprofundam a leitura crítica apresentada aqui e oferecem mais informações podem estar em língua estrangeira ou serem exclusivos para assinantes, dependendo da fonte acessada.

Para ler boletins anteriores, clique aqui.

Em nosso site tem mais informações a respeito do trabalho que fazemos para pautar decisões e orientar ações futuras.

Deixe um comentário