Limites do Marco Civil da Internet à liberdade de expressão em debate no STF [#35]

Responsabilidade das plataformas em discussão (Foto: Antonio Augusto/STF)

Olá, pessoas.

É comum a gente ler ou responder a diálogos em mídias sociais com um “kkk”, não é? Sinal de que estamos rindo online sobre alguma coisa. A gente, aqui no Brasil, entende bem esse código. Mas, para quem faz moderação de conteúdo, não é tão simples.

O uso dessas três letrinhas é também associado ao grupo supremacista Ku Klux Klan, ainda em atividade nos Estados Unidos. Um problemão para plataformas que tentam levar a sério o trabalho de manter a sanidade no diálogo digital [1].

A falta de moderação que separa minimamente o contato saudável das conexões “plataformizadas” e os discursos que agridem e desinformam foi justamente o que motivou a migração em “massa” de usuários do falecido Twitter para o Bluesky.

Para dar conta de aceitar a rizada digital em língua portuguesa e evitar, ao mesmo tempo, apologias racistas, misóginas e xenofóbicas com o uso do “kkk”, o Bluesky precisou atualizar protocolos de aprendizado de máquina [2].

Essa historinha, quase anedótica, dá a dimensão do desafio de moderar perfis, fraudes e discursos violentos nas mídias digitais.

Na semana passada, o Supremo Tribunal Federal começou a julgar processos que impactam o Marco Civil da Internet, especialmente no que diz respeito à responsabilidade das plataformas sobre o conteúdo que circula em suas redes [3].

Aqui é Luciano Bitencourt com a leitura crítica da semana. Eu e Daniela Germann nos debruçamos sobre os dilemas de uma decisão judicial que pode estreitar demais os limites entre a liberdade de expressão e a censura prévia.

No Artigo 19 do Marco Civil da Internet, lei sancionada no Brasil há dez anos [4], está dito que as empresas que detém plataformas de mídias digitais só serão responsáveis “por danos decorrentes de conteúdo gerado por terceiros” se não cumprirem ordens judiciais.

Fica a critério da Justiça, segundo a lei, determinar o que é conteúdo danoso e passível de restrições. As empresas são incumbidas de impedir previamente apenas a violação de direitos autorais e a divulgação de imagens íntimas sem consentimento. Incitação à violência e desinformação não estavam no escopo da legislação.

Como não houve resposta dos legisladores brasileiros às rápidas e profundas mudanças no ambiente digital em uma década, cabe ao judiciário agora discutir a constitucionalidade do marco legal e tomar decisões sensíveis à liberdade de expressão, à proteção de direitos nas redes digitais e à inovação tecnológica [5] [6] [7].

Parte do problema é atribuído com razão às empresas de tecnologia.

Os negócios que sustentam a “plataformização” de conteúdo monetizam e privilegiam a fraude, o sensacionalismo e todo o tipo de discurso que agride e desinforma, sob o pretexto de atender à liberdade de expressão [8] [9].

Em nosso relato exploratório sobre desinformação em eleições, trouxemos evidências de que algum tipo de regulação é imprescindível no cenário atual [10]. A questão é como estabelecer a melhor forma de preservar liberdades, garantir direitos e respeitar a autonomia das empresas [11] [12].

Quem defende a constitucionalidade da legislação em vigor argumenta que restringir conteúdo na internet pode levar à censura prévia como método de moderação, criar insegurança jurídica pela dificuldade de se definir critérios para a remoção de conteúdo, além de inibir o desenvolvimento tecnológico ao impor às empresas regras muito rígidas e de impacto econômico.

De outro lado, os críticos associam a incitação crescente de ódio e violência ao desamparo jurídico para frear abusos contra a Democracia. A invasão de prédios públicos e os contínuos atentados a instituições no Brasil mostram a força e a articulação de grupos extremistas nas redes digitais, sem qualquer moderação [13] [14].

É preciso levar em conta que a Constituição brasileira privilegia a liberdade em primeiro plano, mas não a considera um direito absoluto. E o dilema, por isso mesmo, não se restringe ao papel das grandes empresas de tecnologia no bloqueio espontâneo de conteúdos nocivos em suas plataformas.

O fosso é bem mais profundo.

“Agora vocês são a mídia”, diz Elon Musk em uma de suas postagens no finado Twitter. O propósito por trás do slogan é enfatizar que a plataforma dele é o “futuro” para quem deseja estar “verdadeiramente” informado [15].

Concomitantemente, Musk visa desacreditar a imprensa como fonte de informação e confirmar a concepção de que oferece os fins para quem deseja ser um meio [16]. Decisões sobre a constitucionalidade do Marco Civil da Internet têm muito a dizer sobre isso.

As plataformas, afinal, são empresas de mídia ou de tecnologia?

Enquadrar as grandes da tecnologia como empresas de mídia significa reconhecer a responsabilidade pelo que permitem publicar em suas plataformas, como acontece tradicionalmente na indústria da comunicação.

Se não quiser enfrentar a justiça em casos de violação de direitos, a mídia “tradicional” precisa avaliar criteriosamente seus conteúdos em uma espécie de moderação prévia conduzida por grupos de editores e filtros de relevância. Nas mídias sociais, contudo, cada usuário faz as vezes de produtor, editor e filtro em suas próprias postagens.

Levantamento da UNESCO com 500 criadores de conteúdo digital de 45 países e regiões econômicas aponta que 62% deles não verificam as informações que compartilham com os seguidores [17]. Além disso, a maioria usa as próprias experiências pessoais como fonte de argumentação e parte significativa avalia a credibilidade de alguém pela popularidade e o número de curtidas.

Relatórios produzidos pelas big techs dão conta de que suas políticas de moderação de conteúdo retiram de circulação perfis falsos e discursos violentos em proporções significativas [18]. As iniciativas levam em conta princípios jurídicos acordados internacionalmente, leis específicas de cada região, denúncias dos usuários e critérios baseados no próprio modelo de negócios.

Estimular criadores de conteúdo a chamar a atenção da audiência e conseguir o maior número de seguidores, entretanto, é o que impulsiona os negócios das empresas de tecnologia donas de plataformas.

É muito provável que as decisões da Suprema Corte brasileira não mudem a interpretação de como as big techs são enquadradas no país. Independente disso, os critérios de moderação a que precisarão se submeter vão ampliar, sejam elas empresas de tecnologia ou de mídia.

Especialistas sinalizam que a ampliação dos critérios de moderação impostos juridicamente às empresas traz nuances que podem reforçar a censura prévia. Para que as plataformas cumpram adequadamente as determinações do judiciário não pode haver incertezas quanto ao que cabe a elas coibir por conta própria [19] [20].

Expressar uma opinião não é o mesmo que incitar violência; criticar figuras públicas não significa atentar contra a honra de alguém; compartilhar mentiras não é crime, ainda que seja moralmente condenável [21]. Ao mesmo tempo, coibir discursos de ódio pode não ser considerado censura quando, nitidamente, a intenção é incitar a violência e a intolerância.

É quase consenso que a saída para o STF seja manter a constitucionalidade do Marco Civil da Internet, estabelecendo critérios mais rígidos contra abusos que escapam à lei e surgiram nos últimos dez anos, depois que foi sancionada [22] [23].

O fosso profundo na relação entre as políticas de moderação das big techs e a garantia de direitos, contudo, esconde formas sutis de manipular opiniões e direcionar comportamentos. As empresas têm o controle de dados de bilhões de pessoas, o que confere a elas (as empresas) um poder sobre as inclinações políticas e ideológicas de cada usuário [24].

Recentemente, o falecido Twitter entrou em uma disputa judicial que põe em xeque a ideia de que somos “donos” de nossas contas nas plataformas que usamos. As “licenças” concedidas a nós não envolvem direitos sobre o perfil, o conteúdo ou os seguidores, segundo o argumento. Em última instância, reclama a empresa de Elon Musk, a plataforma é dona de tudo e pode fazer o que bem quiser [25].

Na Austrália, o parlamento aprovou uma lei inédita que proíbe o uso de redes sociais para menores de 16 anos. As penalidades recaem exclusivamente sobre as empresas de tecnologia no caso de descumprimento das determinações. As big techs devem tomar “medidas razoáveis” para impedir o acesso de menores às mídias sociais ou terão de pagar multas pesadas [26].

Já o Bluesky estuda uma forma descentralizada de certificar a veracidade de perfis, na contramão do que as plataformas que dominam o mercado têm feito. Ao invés de adotar o modelo de pagamento para verificação, a proposta é fazer com que os próprios usuários atestem a autenticidade de uma conta conforme suas próprias políticas e critérios [27].

Diante desse cenário, preservar os princípios de liberdade exige que o judiciário brasileiro atribua a si mesmo a moderação sobre o que é de interesse público e delegue às empresas a responsabilidade sobre interesses privados.



Os links que aprofundam a leitura crítica apresentada aqui e oferecem mais informações podem estar em língua estrangeira ou serem exclusivos para assinantes, dependendo da fonte acessada.

Para ler boletins anteriores, clique aqui.

Em nosso site tem mais informações a respeito do trabalho que fazemos para pautar decisões e orientar ações futuras.

Deixe um comentário