Desde 2020, o Comitê de Supervisão do gigante de tecnologia julgou a moderação de 86 conteúdos controversos publicados em suas redes sociais
Bernardo Vianna
Em 2020, a Meta, que então ainda se chamava Facebook, criou o seu Comitê de Supervisão, um conselho composto por 20 membros de diversos países e de diferentes formações. Esse comitê independente tem a função de revisar uma seleção das decisões da Meta sobre a moderação dos conteúdos publicados nas plataformas mantidas pela empresa, que, além do Facebook, também é dona do Instagram e do Threads. Após essa revisão, o comitê pode manter a decisão da moderação sobre se uma postagem deve ou não permanecer online, ou pode revertê-la.
O comitê, assim como a própria Meta, publica suas decisões online, mas nenhum deles fornece um link para download. O site de visualização de dados Information Is Beautiful compilou, então, uma planilha com as decisões do conselho até o início de fevereiro de 2024, facilitando, dessa forma, a análises dos assuntos e dos resultados dos casos ao longo do tempo.
Entre os 78 casos compilados pelo Information is Beautiful, o Conselho de Supervisão anulou 63 das decisões de moderação da Meta (80%), confirmou 13 casos (16%), e entregou vereditos mistos em 2 casos (3%). Essas decisões destacam a complexidade e os desafios enfrentados pelas plataformas de mídia social na moderação de conteúdo, especialmente em contextos sensíveis como desinformação médica e políticas eleitorais.
Há quatro casos brasileiros entre os compilados pelo Information is Beautiful. Em um deles, o Comitê de Supervisão confirmou a decisão do Facebook de manter uma postagem de um conselho médico estadual que afirmava que os lockdowns seriam ineficazes para o enfrentamento da pandemia da covid-19 e que teriam sido condenados pela Organização Mundial da Saúde. Embora tenha reconhecido que o conteúdo continha informações imprecisas, o Comitê de Supervisão considerou que ele não representava um risco iminente e que a remoção não seria a melhor solução para combater a desinformação sobre a covid-19.
Em outro caso, o Comitê anulou a decisão original da Meta de manter publicado no Facebook um vídeo no qual um general brasileiro convocava as pessoas a “ir para as ruas” e “ir ao Congresso Nacional e ao Supremo Tribunal Federal”. O conselho considerou que o vídeo representava um risco potencial de incitação à violência em um contexto eleitoral tenso e recomendou que a Meta desenvolvesse um framework para avaliar seus esforços de combate à desinformação em período eleitoral.
Outra controvérsia com conteúdos brasileiros envolvia o uso medicinal da ayahuasca, uma bebida feita a partir de plantas com propriedades psicoativas e utilizada em algumas religiões brasileiras. O Comitê de Supervisão considerou que a postagem não violava as diretrizes da comunidade do Instagram e recomendou que a Meta revisasse suas regras para permitir a discussão sobre o uso tradicional ou religioso de drogas não medicinais de maneira positiva.
Já diante do caso de uma postagem no Instagram destinada à conscientização sobre o câncer de mama, o Comitê de Supervisão se posicionou contra a remoção desse conteúdo pela moderação da rede social. A postagem havia sido inicialmente removida devido à política de nudez, mas o Comitê considerou que a exceção para “conscientização sobre o câncer de mama” deveria ser aplicada e declarou sua preocupação diante da moderação automatizada de conteúdos relacionados a direitos humanos.