BOLETIM SEMANAL #36
Olá, pessoas.
Organizações da sociedade civil de países latino americanos apresentaram na Comissão Interamericana de Direitos Humanos um relatório que chamou nossa atenção aqui na e-Comtextos [1] [2] [3].
Três estratégias centrais, segundo a análise, reforçam tendências de censura indireta na região:
- a construção de narrativas oficiais estigmatizando o trabalho da imprensa;
- a adoção de novas tecnologias de vigilância para controle social; e
- a judicialização da liberdade de expressão.
Esses três fatores estão igualmente em jogo nos debates produzidos pelo Judiciário e o Legislativo brasileiros a respeito de marcos legais na regulação do uso da internet e de inteligências artificiais.
Na semana passada, eu e Daniela Germann abordamos os riscos no julgamento de constitucionalidade do Marco Civil da Internet em andamento no Supremo Tribunal Federal [4]. Dizíamos que parte da disseminação de conteúdo nocivo nas redes é mesmo responsabilidade das big techs e, por isso, precisa haver alguma regulação.
Os riscos à liberdade de expressão e à integridade da informação permeiam também discussões no Senado Federal, que deve votar nesta semana o Projeto de Lei 2.338/2003, o Marco da Inteligência Artificial [5].
Os impactos sociais são muito amplos para relegar a importância das decisões jurídicas e legislativas em pauta.
Aqui é Luciano Bitencourt com a leitura crítica semanal sobre os efeitos da desinformação em nosso cotidiano e uma suspeita que pode até soar alarmista: a íntima relação entre as big techs e os poderes políticos traz riscos tão contundentes quanto a censura de Estado.
Você percebe?
Incitações contra o Estado Democrático de Direito, à violência física, sexual, ou contra mulheres, crianças e adolescentes; incitações ao terrorismo, ao suicídio, ao racismo ou que impulsionem “infração sanitária”; divulgação de fatos inverídicos ou descontextualizados ou de “fatos notoriamente inverídicos” sobre o processo eleitoral, todas essas “ilegalidades” devem ser coibidas previamente pelas big techs em suas plataformas.
Ilegalidades entre aspas porque, por enquanto, este é o entendimento apenas do ministro Dias Toffoli ao julgar inconstitucional o dispositivo do Marco Civil da Internet que isenta as plataformas de punição por permitir a disseminação desse tipo de conteúdo [6]. Primeiro a votar nos processos relacionados à moderação de redes sociais em julgamento no STF, Toffoli considera que as empresas não dependem de decisões judiciais para agir imediatamente nesses casos [7].
Existe a expectativa de que o STF mantenha a constitucionalidade do Marco Civil sancionado há uma década, com atualizações sobre critérios do que deve ser considerado ilegal [8]. O primeiro voto, entretanto, foi mais adiante. Entre outras considerações, Toffoli estabelece que o Congresso Nacional teria 18 meses para criar uma lei de enfrentamento à violência digital e à desinformação.
Delimitar um tempo para que o Legislativo cumpra a “tarefa” pode ser uma armadilha. Além do embate institucional entre poderes, acirrado pelo extremismo político nos últimos anos, não se pode esquecer que a Câmara e o Senado fogem seguidamente so compromisso compulsório no regramento do uso de tecnologias digitais. Do contrário, o Marco Civil da Internet não estaria em análise no Judiciário.
As plataformas têm pressionado o Legislativo a tomar decisões mais brandas nas medidas de regulação, com o objetivo de evitar mudanças muito drásticas nos modelos de negócio [9]. As empresas de tecnologia sustentam no STF que já fazem um trabalho de moderação suficiente para conter abusos e miram a votação do Marco da Inteligência Artificial no Senado com o mesmo propósito.
O texto preliminar aprovado em comissão especificamente criada para propor o Marco da Inteligência Artificial isenta as big techs de dar transparência aos critérios que usam em seus algoritmos para moderar e recomendar conteúdo online [10] [11] [12] [13]. Sob o pretexto de defender a liberdade de expressão, o Congresso vai na contramão do que o STF tem sinalizado.
Em regime de urgência na pauta desta semana do Senado, a votação confirma a difícil tarefa de defender direitos constitucionais diante de interesses econômicos e políticos beneficiados pelos adiamentos estratégicos e constantes das decisões legislativas.
Outro capítulo se anuncia na judicialização da liberdade de expressão.
É bem provável!
Executivos das big techs estão entranhados nas estruturas de poder. O financiamento de lobbies em favor dos próprios negócios é só um dispositivo a mais na busca por “apoio” no Estado. As eleições deste ano nos Estados Unidos escancararam a influência das grandes empresas em projetos políticos de liderança corporativa na corrida tecnológica.
O Vale do Silício, oásis californiano das big techs, investiu 394,1 milhões de dólares nas campanhas dos candidatos à presidência nos Estados Unidos este ano [14]. Elon Musk, sozinho, doou a Trump 61,5% desse valor. Em troca, vai ocupar o Departamento de Eficiência Governamental sem se desligar de suas empresas [15].
Mais discreto, o proprietário da Meta, Mark Zuckerberg, também tem buscado aproximação com Trump para participar das decisões governamentais no campo da tecnologia [16] [17]. Durante a campanha eleitoral, chegou a manifestar aos congressistas estadunidenses arrependimento por ter aceitado a “pressão” do governo Joe Biden para tirar de circulação informações sobre a Covid-19, grande parte efetivamente falsas.
Não por acaso, a Meta revelou recentemente por meio de um de seus executivos que tem errado com frequência no processo de moderação de conteúdo em função da rigidez de suas próprias políticas [18]. A promessa é afrouxar medidas de restrição para garantir mais liberdade de expressão, na mesma linha do que defende o governo Trump e já é adotado pelo finado Twitter de Musk.
Em relatórios recentes, a Meta fez um balanço de sua participação na contenção de danos a processos eleitorais [19]. No Brasil, por exemplo, 65,5% dos 2,9 milhões de conteúdos nocivos retirados de circulação pela própria empresa em suas plataformas neste ano eram discurso de ódio ou incitação à violência.
Os números trazidos pela Meta mostram também que os conteúdos nocivosa processos eleitorais e produzidos com auxílio de inteligências artificiais representaram apenas 1% das informações incorretas verificadas pela empresa [20]. Temores de que o uso de IA acarretaria riscos ao super ciclo eleitoral não se confirmaram de fato. As eleições municipais por aqui, entretanto, serviram de teste para a legislação contra deepfakes e outras ilegalidades esperadas para 2026, na eleição presidencial [21] [22].
É provável que o afrouxamento nas regras que balizam a liberdade de expressão como um direito relativo e sujeito a sanções também dilua as fronteiras políticas que separam governos das big techs. A influência contra leis regionalizadas que impedem a padronização nos modelos de negócio e as obrigam a atender especificidades locais tende a aumentar.
Tecnologias de vigilância para controle social são o capital político dessas empresas.
Rastreando…
Estamos falando do “gerenciamento algorítmico” das plataformas que molda comportamentos. Sem transparência nos critérios dos sistemas de moderação e recomendação nas redes sociais, por exemplo, não há como compreender o grau de persuasão que os algoritmos exercem sobre usuários de internet.
O consumo exagerado e superficial de conteúdo rápido e raso, de baixa qualidade nas mídias digitais, levou o Dicionário Oxford a reconhecer brain rot, “cérebro apodrecido” em tradução simples, como termo do ano [23] [24]. Não existem evidências do “apodrecimento” do cérebro. O reconhecimento do termo expressa, na realidade, a ansiedade que desenvolvemos na relação com dispositivos online e o desperdício desmedido de tempo com futilidades.
Para o jornalista e professor Carlos Castilho, estamos perdendo a capacidade de perceber a realidade com o avanço desse tipo de alienação [25]. Como há muitas opiniões e percepções compartilhadas, visões de mundo pessimistas e estratégias políticas de viés autoritário, esse cenário é fértil para a produção de formas alternativas de fantasiar os fatos.
Viver em um universo ideal, uma realidade paralela, tem se tornado um fenômeno psicológico que ganha adeptos especialmente entre jovens [26]. Evitar notícias também é outro fenômeno que reflete, entre outras coisas, cansaço pelo consumo de informações consideradas excessivamente negativas por mostrar exclusivamente as mazelas sociais e nossa impotência diante dos desafios que enfrentamos [27].
Essas questões comportamentais têm relação com decisões a respeito de como regular a liberdade de expressão e manter parâmetros de integridade para informações que consumimos. Como tendemos a confirmar nossas crenças com “evidências” alternativas, o “gerenciamento algoritmo” das plataformas é persuasivo em não recomendar o que pode refutá-las [28].
A qualidade do discernimento entre o engano e a veracidade tem um certo grau de correspondência com o nível de enraizamento de nossas crenças. Quanto mais enraizada a percepção de uma realidade imaginada, menor a capacidade de reconhecer o que é equivocadamente visto como verdade [29] [30].
Narrativas oficiais estigmatizando o trabalho de quem se propõe a produzir informação verificada, baseada em fatos e sustentada na diversidade de versões em que se pode confiar promovem a dispersão de um quadro comum no qual podemos confrontar interpretações sobre a realidade [31].
Judicializar a liberdade de expressão, vigiar e controlar comportamentos sociais e estigmatizar a veracidade são riscos que a intimidade entre as big techs e os poderes políticos não esconde mais.
Os links que aprofundam a leitura crítica apresentada aqui e oferecem mais informações podem estar em língua estrangeira ou serem exclusivos para assinantes, dependendo da fonte acessada.
Para ler boletins anteriores, clique aqui.
Em nosso site tem mais informações a respeito do trabalho que fazemos para pautar decisões e orientar ações futuras.