BOLETIM SEMANAL #14
Olá, pessoas.
Um componente novo no cenário de combate à desinformação surgiu na semana passada.
Sem muito alarde, a Meta, empresa dona do Facebook, Instagram, Threads e WhatsApp, anunciou no final de maio que incluiria os dados pessoais de seus usuários no treinamento de ferramentas de Inteligência Artificial em todo o mundo.
Vários foram os pontos controversos na adoção das novas políticas de conteúdo adotadas pela empresa no Brasil, especialmente porque violam princípios da Lei Geral de Proteção de Dados, a LGPD, em vigor desde 2021.
O Instituto de Defesa dos Consumidores reagiu, com um pedido formal para que entidades governamentais tomassem medidas de proteção aos usuários. Como desfecho, a Meta teve de retroceder.
Em uma ação inédita, a Autoridade Nacional de Proteção de Dados, a ANPD, determinou a suspensão do “treinamento” e cria um precedente [texto para inscritos] para a aplicação dos mesmos critérios em casos semelhantes, comuns em serviços prestados pelas big tech.
Para a Meta, esta é uma decisão que “atrasa a chegada de benefícios da IA para as pessoas no Brasil”, como diz a nota publicada em resposta à medida preventiva adotada pelas autoridades nacionais. Será mesmo?
Aqui é Luciano Bitencourt, trazendo argumentos que sustentamos semanalmente, eu e Daniela Germann, aqui na e-Comtextos. Não é de agora que discutimos a necessidade de uma legislação que responsabilize minimamente as empresas de tecnologia, seja pela permissividade excessiva na moderação de conteúdo ou pelo uso indevido de dados para treinamento de IA.
Ferramentas de Inteligência Artificial, nesse cenário, não são apenas um recurso tecnológico de ponta. Os riscos que carregam são muitos, com evidências de sobra para mostrar. Miriam Wimmer, diretora da ANPD, foi contundente na justificativa de frear a Meta:
“É importante ressaltar que, no ordenamento jurídico brasileiro, a gente quer sim a inovação, o desenvolvimento tecnológico, mas não é a qualquer custo”.
Os argumentos são válidos.
Privacidade em primeiro lugar
Vamos a um breve contexto. A ANPD foi provocada a se posicionar em função de uma série de eventos que começaram em 22 de maio, quando a Meta alterou em todo o mundo sua política de proteção de dados e privacidade. Esta alteração permitia o uso de conteúdo gerado pelos usuários em suas plataformas, exceto mensagens privadas, para treinar seu modelo de Inteligência Artificial Generativa, o Llama 3.
A Meta havia notificado os usuários na Europa sobre essas alterações por e-mail e em seus aplicativos, como possibilidade de se oporem ao uso dos dados pessoais. Contudo, a Comissão de Proteção de Dados da Irlanda forçou a Meta a suspender o treinamento porque a prática não atendia aos requisitos estabelecidos pelo Regulamento Geral de Proteção de Dados da União Europeia.
No Brasil, as circunstâncias foram outras. A Meta não notificou os usuários diretamente e houve omissão deliberada da empresa em fornecer um jeito rápido e simplificado de dizer “não” às novas políticas. A falta de transparência e a dificuldade de oposição foram duas fortes razões para a medida inédita tomada pelas autoridades brasileiras.
A Lei Geral de Proteção de Dados exige que as empresas adotem uma base legal para justificar suas políticas quanto ao uso de informações sobre seus usuários. A Meta alegou “legítimo interesse”. Em síntese, a big tech sustenta que os benefícios da IA são suficientes para compensar a ausência de uma ampla comunicação para quem usa seus serviços no Brasil e a dificuldade de acesso a recursos para se opor às novas diretrizes.
Para a ANPD, a justificativa apresentada pela Meta foi “vaga e inadequada”, especialmente por não ter o consentimento explícito dos titulares no uso de dados sensíveis, como origem racial ou étnica, convicção religiosa, opinião política, dados referentes à saúde ou à vida sexual, dados genéticos ou biométricos. O legítimo interesse, segundo a legislação brasileira, não deve prevalecer sobre o direito à privacidade e à proteção dos dados pessoais.
Além disso, a lei define que o tratamento de dados de crianças e adolescentes exige medidas de mitigação de risco, o que não foi adotado pela Meta. Para se ter uma ideia da dimensão do problema, um relatório recente da Human Rights Watch identificou 170 imagens de menores brasileiros em geradores alimentados por IA com dados usados indevidamente.
Rigor na fundamentação
Carlos Affonso, professor da UERJ e diretor do Instituto de Tecnologia do Rio de Janeiro, levanta uma questão relevante no desafio de regular a Inteligência Artificial e preservar a proteção de dados pessoais. Mesmo que as autoridades exijam a “suspensão imediata” desse recurso, os resultados obtidos com o treinamento já estarão incorporados às diferentes aplicações das ferramentas de IA.
É preciso levar em conta que o avanço das tecnologias generativas é infinitamente mais rápido do que a adoção de regras e normatizações capazes de mitigar seus riscos. Outro aspecto é que a regulação de práticas envolvendo treinamento de Inteligência Artificial não se restringe ao uso de dados pessoais. Há inúmeros outros fatores.
No Senado Federal, a Comissão Temporária sobre Inteligência Artificial recebeu há alguns dias o relatório atualizado que analisa os riscos dessa tecnologia e propõe diminuir seus impactos a partir de medidas protetivas contra a violação de direitos. E, pela proposta, é a ANPD que deve coordenar um sistema de fiscalização composto por outras instituições, responsáveis por avaliações complementares.
Talvez por isso a Autoridade Nacional de Proteção de Dados tenha optado por uma postura mais firme e proativa em relação à Meta. Além de mostrar capacidade para assumir a coordenação no combate a eventuais violações e dar um recado mais contundente às empresas de tecnologia, a entidade também contribui para fortalecer uma agenda propositiva do Brasil como liderança do G20 neste ano.
A preocupação das autoridades brasileiras é legítima e as medidas recém-tomadas se aproximam do rigor com que a União Europeia vem conduzindo seus processos de regulação. Lento e travado pelo lobby das big tech, o debate sobre os limites da inovação no desenvolvimento de Inteligência Artificial no Brasil estava até agora restrito à retórica de embates éticos e jurídicos, sem ações práticas.
Com a atuação contundente da ANPD, entra em pauta o desafio de se encontrar um equilíbrio entre o fomento à inovação e aos avanços tecnológicos sem comprometer os direitos e a privacidade das pessoas. Mas, como enfatiza Carlos Affonso, o futuro das premissas levantadas nas medidas contra a Meta é promissor e igualmente arriscado por tratar de questões consideradas chave para o desenvolvimento econômico brasileiro.
Limites necessários de segurança
Dentro das próprias empresas de tecnologia soam sinais de alerta. Em um relatório também recente, o Google evidencia que os modelos de Inteligência Artificial podem mesmo distorcer a realidade a causar danos sociais [texto em inglês] bastante graves. O que chama a atenção no documento é a noção de que nem todo o conteúdo criado artificialmente é “malicioso” ou fere as políticas de moderação das plataformas.
Ao contrário, se avalia que muito desse conteúdo é nocivo por atender justamente ao modelo de negócios ou responder exatamente ao que os serviços propõem. À medida que a IA Generativa avança, dizem os técnicos responsáveis pelo estudo, é prioritário garantir que os passos estejam nos limites de segurança para proteger direitos individuais e coletivos.
Entre os riscos mais substantivos levantados pelo Google estão as imagens de manipulação política, bastante comuns nas regiões que passam pelo ciclo eleitoral deste ano, e a produção do dissenso científico sobre questões consagradas por evidências de pesquisa e estudos metodologicamente confiáveis.
A Akamai Technologies, por sua vez, explicita que 42% do tráfego gerado na Internet é hoje proveniente de algoritmos. No campo da produção de conteúdo, a criação de sites falsos está entre as aplicações mais nocivas dessas ferramentas. Com a IA Generativa o cenário é ainda mais grave, uma vez que seis em cada dez desses robôs que movimentam a rede são criados para causar danos.
Não por acaso, o NewsGuard, organização internacional sem fins lucrativos que monitora processos de desinformação, já encontrou quase 1,3 mil sites partidários que se parecem com veículos de mídia regionalizados [texto em inglês] e são financiados por partidos políticos sem que o público que os acessa tenha ciência disso. O baixo custo na produção de informações falsas e na criação da infraestrutura de hospedagem e divulgação projetada com IA já é considerado uma ameaça bastante real às eleições.
A questão do uso indevido de dados para treinamento dos modelos de Inteligência Artificial é muito mais ampla, como se pode perceber. Quando a ANPD se posiciona em favor da proteção de dados pessoais, abre-se uma janela de oportunidade para o enfrentamento de outros dilemas inerentes às escolhas feitas até aqui pelas empresas de tecnologia.
É bom que as autoridades comecem a se posicionar em favor do direito e da privacidade. Quando a Meta justifica que restringir o treinamento de Inteligência Artificial é um retrocesso, por trás está uma lógica que vem dominando o mercado: os baixos custos são atribuídos à premissa de que os avanços tecnológicos com dados “públicos” justificam a privatização dos lucros para financiar a dependência cada vez maior das ferramentas e dos modelos de IA em benefício da sociedade.
No radar
- Pesquisa realizada pelo instituto Data Favela revelou que 89% dos moradores da periferia no Brasil, totalizando 94 milhões de pessoas, já foram vítimas de fake news. As consequências desse fenômeno são preocupantes: 25% dos entrevistados acreditam que as notícias falsas podem eleger políticos ruins, 23% consideram que elas podem prejudicar a reputação de alguém e 15% identificam a criação de pânico sobre segurança como um dos principais riscos. Além de afetar o desenvolvimento econômico das favelas, as fake news também podem dificultar o acesso aos serviços públicos de saúde e educação, reduzir a confiança em programas sociais e distorcer a percepção sobre leis e direitos dos moradores da periferia.
- A Suprema Corte dos Estados Unidos decidiu não se pronunciar definitivamente sobre os direitos de liberdade de expressão das plataformas de tecnologia em dois casos envolvendo leis estaduais da Flórida e do Texas. As leis, promulgadas em 2021, visavam restringir o poder das redes sociais de moderar conteúdo. A Suprema Corte devolveu os casos aos tribunais inferiores para análise mais detalhada, adiando uma resolução definitiva sobre o assunto. A decisão mantém as liminares que interrompem a aplicação das leis. Apesar da devolução, a Corte destacou a complexidade da moderação de conteúdo pelas plataformas e a necessidade de análise à luz da Primeira Emenda sobre liberdade de expressão.
Ainda vale: para quem deseja ajudar as vítimas das enchentes no Rio Grande do Sul, Meio, Nexo e Núcleo Jornalismo são ótimas alternativas.
Até semana que vem.