02/05/2022
Em evento realizado pelo Insper em parceria com o centro de pesquisa InternetLab, mesa-redonda debateu transparência e moderação de conteúdo nas plataformas sociais
Tiago Cordeiro
Quando o assunto é regulação da manifestação de opiniões e posições na internet e nas redes sociais, ainda há muito mais perguntas do que respostas. Como punir argumentos preconceituosos, fake news ou discursos de ódio? Como evitar que a liberdade de expressão seja prejudicada? Quem regulamenta, ou deveria regulamentar? São necessárias leis específicas? A moderação exercida pelas empresas proprietárias das redes sociais é criteriosa — e transparente — o suficiente?
Em ano eleitoral, essas questões são ainda mais relevantes. Num cenário em que 99% dos smartphones brasileiros têm instalado o aplicativo WhatsApp e o país tem 148 milhões de usuários do Facebook, 105 milhões no YouTube, 99 milhões no Instagram e 19 milhões no Twitter, o acesso às redes sociais é um dado que não pode ser ignorado em qualquer avaliação do espaço público de debates.
Para apresentar reflexões sobre esses temas e contribuir ativamente para a construção de uma dogmática do direito da liberdade de expressão no Brasil, o Insper e o InternetLab, centro independente de pesquisa em direito e tecnologia, realizaram a primeira conferência sobre Liberdade de Expressão na Era Digital. Em dois dias, 27 e 28 de abril, o evento reuniu especialistas em painéis, palestras e mesas-redondas, a maioria mediados por professores do Insper.
Um dos encontros, em especial, expôs diferentes pontos de vista sobre o tema. Foi a mesa-redonda multissetorial “Entre leis e termos de uso – Propostas de regulação de plataformas no Brasil”. O conteúdo está disponível na página do Insper no YouTube (a partir de 4h40 de gravação).
“Em 2020 e 2021, em meio e uma série de crises políticas, institucionais e sanitárias, o Brasil tem discutido propostas que buscam modificar consideravelmente a regulação para plataformas e de aplicativos de mensageria”, disse Francisco Brito Cruz, diretor do InternetLab e mediador do encontro.
Ele mediou o diálogo entre Bia Barbosa, jornalista e integrante da Coalizão Direitos na Rede & CGI.br, e Clara Iglesias Keller, vinculada, na Alemanha, ao WZB & Leibniz Institute. Também participaram Guilherme Cardoso Sanchez, advogado sênior do Google, e Natalia Paiva, do setor de políticas públicas do Instagram, que pertence à Meta, também proprietária do Facebook. “É um tema cheio de disputas, cheio de tensões”, comentou Cruz.
Numa primeira fase, iniciada nos anos 90, a legislação era focada nos deveres dos usuários, especialmente na desobediência às normas aplicadas aos direitos autorais, explicou Clara Iglesias Keller. Mais recentemente, especialmente na Europa, têm surgido novas leis, que responsabilizam as plataformas pelo conteúdo ali veiculado.
“Temos visto, na Alemanha e na França, por exemplo, uma transição de ‘liability’ para ‘responsability’”, comentou ela. “É um giro da responsabilização civil, no sentido de reparação financeira por dano, para a responsabilidade na prática de negócios.” Ou seja, da punição posterior, geralmente com o pagamento de indenizações monetárias, a jurisprudência tem caminhado no sentido de exigir das empresas ações preventivas.
No Brasil, segundo ela, o Projeto de Lei 2630/2020, que ficou conhecido como “PL das Fake News”, aproxima o Brasil dessa abordagem. “O texto tem muitos pontos falhos, mas segue essa tendência iniciada na Europa”, avaliou.
Por sua vez, Natalia Paiva, do Instagram, apresentou a posição das empresas privadas que gerenciam plataformas privadas. “Como pensamos a necessidade de transparência, quando são empresas privadas que gerenciam conteúdo no ambiente digital? É importante reconhecer a complexidade dessa questão e entender que não há respostas prontas de partida.” Ela afirmou que a Meta produz relatórios e mantém um comitê de supervisão, que foi financiado pela companhia se se tornou um órgão independente. “Muitas das recomendações que o comitê tem feito são relacionados a transparência”, disse.
Natália também citou que todo usuário do Instagram pode consultar o “status da conta”, que relata possíveis violações cometidas e abre espaço para o usuário questionar cada uma delas. “Nos próximos meses, também vamos indicar se a conta está ou não elegível para recomendação”, disse.
Guilherme Cardoso Sanchez, de seu lado, lembrou que, de fato, são necessárias regras mais claras para a moderação de plataformas. “Temos eixos conflitantes: a liberdade de expressão, de um lado, e os valores, do outro. Existe uma série de forças que apontam para a necessidade de estabelecer um equilíbrio que faça sentido, tanto do ponto de vista da liberdade quanto da reponsabilidade”, afirmou. “Esse diálogo não é estanque. As empresas têm se posicionado para discutir com os governos e o terceiro setor. O mais importante é alcançar segurança jurídica.”
Para Bia Barbosa, à parte o avanço das plataformas na direção de apresentar ações de monitoramento de regras pré-estabelecidas, a regulamentação precisa avançar. “O debate avançou sobre ‘se’ é preciso regular plataformas para ‘como’ regular. Em diferentes países, as plataformas foram objeto de investigação e preocupação. O desafio é como constituir uma regulação democrática, que preserve os direitos dos usuários e preserve a inovação tecnológica.”
Ela questiona o PL 2630/2020, que, em sua avaliação, impede a plataforma de moderar conteúdo. “Nesse caso, o dano às empresas, e aos usuários, seria muito significativo. A internet é um espaço de colaboração, e qualquer regulação deve ser realizada de forma setorial.” Nesse sentido, Bia avalia que o PL acerta, na medida em que permite a criação de códigos de conduta próprios, para cada plataforma. “Esse arranjo é um caminho correto. O Estado precisa estar ali, porque não temos apenas plataformas dispostas a dialogar com a sociedade.”
O cenário ainda não está cristalizado, afirma ela, nem do ponto de vista da regulação, nem das empresas. “Neste momento, estamos discutindo o que representa a compra do Twitter pelo Elon Musk, já que a empresa é conhecida pela transparência com que lida com as interações e as autoridades. Todos precisamos estar envolvidos nessa discussão. As plataformas fazem um esforço, mas está claro que não é suficiente.”