[{"jcr:title":"Como funciona a “Suprema Corte” da moderação da Meta"},{"targetId":"id-share-1","text":"Confira mais em:","tooltipText":"Link copiado com sucesso."},{"jcr:title":"Como funciona a “Suprema Corte” da moderação da Meta","jcr:description":"Desde 2020, o Comitê de Supervisão do gigante de tecnologia julgou a moderação de 86 conteúdos controversos publicados em suas redes sociais"},{"subtitle":"Desde 2020, o Comitê de Supervisão do gigante de tecnologia julgou a moderação de 86 conteúdos controversos publicados em suas redes sociais","author":"Ernesto Yoshida","title":"Como funciona a “Suprema Corte” da moderação da Meta","content":"Desde 2020, o Comitê de Supervisão do gigante de tecnologia julgou a moderação de 86 conteúdos controversos publicados em suas redes sociais   Bernardo Vianna   Em 2020, a Meta, que então ainda se chamava Facebook, criou o seu [Comitê de Supervisão](https://oversightboard.com/decision/) , um conselho composto por 20 membros de diversos países e de diferentes formações. Esse comitê independente tem a função de revisar uma seleção das decisões da Meta sobre a moderação dos conteúdos publicados nas plataformas mantidas pela empresa, que, além do Facebook, também é dona do Instagram e do Threads. Após essa revisão, o comitê pode manter a decisão da moderação sobre se uma postagem deve ou não permanecer online, ou pode revertê-la.     O comitê, assim como a própria Meta, [publica suas decisões online](https://transparency.fb.com/oversight/oversight-board-cases/) , mas nenhum deles fornece um link para download. O site de visualização de dados [Information Is Beautiful](https://informationisbeautiful.net/visualizations/facebook-meta-oversight-board-decisions-major-rulings/) compilou, então, uma [planilha com as decisões do conselho até o início de fevereiro de 2024](https://docs.google.com/spreadsheets/d/1kz7nYnfTM3al6dIJgqYwR4DMPal5d37vKPOBAqD3mRY/edit#gid=655704690) , facilitando, dessa forma, a análises dos assuntos e dos resultados dos casos ao longo do tempo. Entre os 78 casos compilados pelo Information is Beautiful, o Conselho de Supervisão anulou 63 das decisões de moderação da Meta (80%), confirmou 13 casos (16%), e entregou vereditos mistos em 2 casos (3%). Essas decisões destacam a complexidade e os desafios enfrentados pelas plataformas de mídia social na moderação de conteúdo, especialmente em contextos sensíveis como desinformação médica e políticas eleitorais.         Há quatro casos brasileiros entre os compilados pelo Information is Beautiful. Em um deles, o Comitê de Supervisão confirmou a decisão do Facebook de manter uma postagem de um conselho médico estadual que afirmava que os lockdowns seriam ineficazes para o enfrentamento da pandemia da covid-19 e que teriam sido condenados pela Organização Mundial da Saúde. Embora tenha reconhecido que o conteúdo continha informações imprecisas, o Comitê de Supervisão considerou que ele não representava um risco iminente e que a remoção não seria a melhor solução para combater a desinformação sobre a covid-19. Em outro caso, o Comitê anulou a decisão original da Meta de manter publicado no Facebook um vídeo no qual um general brasileiro convocava as pessoas a “ir para as ruas” e “ir ao Congresso Nacional e ao Supremo Tribunal Federal”. O conselho considerou que o vídeo representava um risco potencial de incitação à violência em um contexto eleitoral tenso e recomendou que a Meta desenvolvesse um framework para avaliar seus esforços de combate à desinformação em período eleitoral. Outra controvérsia com conteúdos brasileiros envolvia o uso medicinal da ayahuasca, uma bebida feita a partir de plantas com propriedades psicoativas e utilizada em algumas religiões brasileiras. O Comitê de Supervisão considerou que a postagem não violava as diretrizes da comunidade do Instagram e recomendou que a Meta revisasse suas regras para permitir a discussão sobre o uso tradicional ou religioso de drogas não medicinais de maneira positiva. Já diante do caso de uma postagem no Instagram destinada à conscientização sobre o câncer de mama, o Comitê de Supervisão se posicionou contra a remoção desse conteúdo pela moderação da rede social. A postagem havia sido inicialmente removida devido à política de nudez, mas o Comitê considerou que a exceção para “conscientização sobre o câncer de mama” deveria ser aplicada e declarou sua preocupação diante da moderação automatizada de conteúdos relacionados a direitos humanos."}]