LEITURA CRÍTICA

BOLETINS SEMANAIS

Já expusemos em um de nossos boletins que orientar os algoritmos de recomendação para valorizar a civilidade nas redes e desmonetizar conteúdos ofensivos poderiam garantir a liberdade de expressão e, ao mesmo tempo, limitar o alcance digital de mentiras e falsidades criadas para gerar danos. Enfatizamos agora que ampliar o alcance da veracidade no fragmentado cenário de produção de narrativas e de meios pelos quais a informação circula é tão necessário quanto reduzir o impacto da desinformação e de discursos ofensivos pela regulação. Este é um exercício de atenção, lento e analógico, onde as escolhas dependem cada vez mais de fiadores humanos. Os veículos tradicionais de imprensa, que poderiam ocupar este espaço, estão cedendo à velocidade da produção digital.

EDIÇÕES ANTERIORES

Guilherme Boulos, candidato à prefeitura de São Paulo, se reuniu com a presidente do TSE, ministra Cármen Lúcia, para discutir a urgência da agilidade nas respostas da Justiça Eleitoral em coibir 'fake news' durante a campanha. Para ele, o repositório de jurisprudências criado pela Justiça Eleitoral para ajudar nas decisões pode ajudar nessa missão. No entanto, o "senso de urgência" enfatizado pelo candidato está deslocado. A grande oportunidade nestas eleições é a de consolidar uma jurisprudência sólida no enfrentamento à desinformação, especialmente porque o processo regionalizado deve permitir diversidade de casos concretos a serem analisados de forma descentralizada por juízes de primeira instância. Os desafios estão na dificuldade de definir objetivamente o que é desinformação, distinguindo o que expressa má-fé, e a quem cabe este papel.

Em evento no Tribunal Regional Eleitoral de Santa Catarina, juristas especializados em Direito Eleitoral levantaram vários desafios para as eleições municipais deste ano. Dois deles nos parecem essenciais para a compreensão do fenômeno da desinformação em processos eleitorais. Primeiro, para avaliar os riscos a serem enfrentados seria necessário encontrar maneiras de verificar o peso das ferramentas de Inteligência Artificial na formação de consciência do eleitorado, visto que a mediação humana vem diminuindo. Além disso, estaria no potencial lesivo dos conteúdos enganosos a possibilidade jurídica de enfrentar as 'fake news' sem estigmatizar grupos e pessoas que, mesmo ingenuamente, defendem suas opiniões e crenças. Trazemos esses desafios para o debate levando em conta as teorias da conspiração e falsidades propagadas depois do atentado ao ex-presidente e candidato à presidência dos Estados Unidos, Donald Trump.

O Projeto de Lei que regula o desenvolvimento e o uso de Inteligência Artificial no Brasil foi mais uma vez adiado, vítima da desinformação e do 'lobby' das grandes empresas de tecnologia e representantes da indústria. Políticos extremistas e alinhados aos interesses das grandes empresas de tecnologia alegam que o texto abre possibilidades para a censura e o controle estatal. Entidades que representam a indústria e o setor empresarial condenam o que chamam de "carga excessiva de governança" sobre os processos de inovação. Nenhum dos dois argumentos procede. Mesmo com críticas, o texto do PL contempla os alertas feitos por especialistas para a necessidade de prevenir e mitigar os riscos no uso de IA adotando medidas de proteção aos direitos humanos. O que se percebe é uma aproximação entre as pressões econômicas e os discursos políticos extremistas para evitar o avanço das propostas legislativas.

Na semana passada, a Autoridade Nacional de Proteção de Dados determinou à Meta a suspensão do uso de dados pessoais de usuários para treinamento de sua ferramenta de Inteligência Artificial. A medida inédita tem caráter preventivo e dá um recado contundente às grandes empresas de tecnologia. Levanta-se agora um debate mais amplo sobre o equilíbrio entre os avanços dos modelos de IA e a proteção de dados, não só os pessoais. É praxe entre as empresas que detêm os serviços mais populares de tecnologia a ideia de que dados públicos estão disponíveis para uso privado. Em sua justificativa, a Meta alega que a medida da ANPD representa um atraso para os usuários brasileiros e justifica que os benefícios de IA compensam o fato de não ter avisado amplamente sobre as mudanças em suas políticas de privacidade nem ter oferecido um jeito rápido e simplificado de dizer "não" às atualizações, como manda a Lei Geral de Proteção de Dados.