Moderação de conteúdo em redes sociais é opaca e, quando o assunto é política, parece ter lado

por Fabricio Solagna em 16 de outubro de 2024, Comentários desativados em Moderação de conteúdo em redes sociais é opaca e, quando o assunto é política, parece ter lado

Sheikh Jarrah é um bairro da Jerusalém Oriental simbolicamente importante para os palestinos. Abriga a Mesquita de Al-Aqsa, local sagrado para o islamismo, além de outros monumentos importantes para o cristianismo e o judaísmo. Em maio de 2021, houve conflitos entre os judeus assentados e os residentes palestinos, que catalisaram protestos e atenção internacional sobre o assentamento. Plataformas de redes sociais foram utilizadas para reverberar o descontentamento palestino por meio de textos, fotos e vídeos. Foi quando as suspeitas de censura política surgiram.

Imagem gerada por inteligência artificial generativa utilizando palavras-chave: palestina, redes sociais, vigilância, política, censura

A controvérsia local não era meramente imobiliária. Sheikh Jarrah é uma das áreas mais empobrecidas de Jerusalém e há um conflito constante desde 1967, em virtude da Guerra dos Seis Dias e do controle militar de Israel nos territórios ocupados da Palestina. E a cobertura sobre o conflito de 2021, feita por jornalistas, ativistas, influenciadores e usuários, por meio de redes como Facebook, Twitter, YouTube, Instagram e TikTok, serviu para disseminar imagens e narrativas que retratavam o conflito.

No entanto, os usuários perceberam indícios de censura a partir de mecanismos tecnológicos opacos de moderação de conteúdo. A utilização de certos termos e hashtags levava, de forma aparentemente automática, à suspensão ou limitação de contas ou perfis.

É o que conta o artigo de Norah Abokhodair, pesquisadora independente, com formação na área da computação, em coautoria com Yarden Skop, Sarah Rüller, Konstantin Aal, ambos da Universidade de Siegen, e Houda Elmimouni, da Universidade de Indiana Bloomington. A pesquisa compreendeu entrevistas estruturadas e questionários com 201 usuários que enfrentaram algum tipo de moderação de conteúdo com o objetivo de compreender como eles perceberam esses sistemas durante seu uso cotidiano. O trabalho contou com recrutamento entre usuários das próprias redes, mas também se valeu de técnicas como bola de neve para mapear atores-chave, principalmente entre ativistas e influenciadores.

O artigo foi publicado na First Monday, importante revista acadêmica que publica artigos revisados por pares desde 1996. Os autores têm suas origens diversas (Israel, Arábia Saudita, Marrocos e Alemanha) além de também possuírem várias crenças religiosas, o que, na opinião deles, enriquece a análise e ajuda a mitigar potenciais vieses.

As descobertas revelam desde técnicas como shadow banning (exclusão ou suspensão a partir de certos termos utilizados nos textos ou legendas),rebaixamento de alcance e suspensão temporárias de contas. A falta de transparência foi um dos fatores mais citados, ou seja, a incompreensão do que levava à penalização dos usuários. O problema foi compreendido como parte dos danos algorítmicos da moderação automatizada de conteúdo. Algumas técnicas são de difícil comprovação (como o rebaixamento de alcance), mas foram percebidas a partir de experimentos, como a substituição de alguns caracteres em determinadas palavras (como em palestina ou freepalestine) ou a comparação com postagens semelhantes, realizadas em períodos similares, que não tratavam sobre o assunto em questão.

A pesquisa ilustra um cenário complexo de moderação de conteúdo, impactando notavelmente postagens sobre a Palestina e frequentemente diferindo por idioma e perspectiva política. A pesquisa demonstra que há, no geral, indícios de que as plataformas removem menos conteúdos favoráveis às políticas de Israel, se comparados às críticas vindas de palestinos.

Considera-se que o baixo número de revisores em idioma árabe acaba por deixar a maior parte da moderação ser realizada por métodos automatizados. Uma reportagem da CNN, do mesmo ano em que a pesquisa foi realizada, destaca essa dificuldade para o Facebook.

Os achados de pesquisa dos autores revelam que linguagem específica, tags de localização e imagens servem como gatilhos para moderação de conteúdo em plataformas de mídia social. Contudo, há diferenças entre elas – verificou-se uma menor incidência no TikTok no caso específico estudado.

O artigo deixa claro que a pesquisa não abrange os acontecimentos que ocorreram depois dos conflitos de 2023.

Para ler o artigo: https://firstmonday.org/ojs/index.php/fm/article/view/13620

Lavits

Esta nota faz parte do projeto “Inteligência Artificial e Capitalismo de Vigilância no Sul Global”, financiado pela Rede Latino-Americana de Estudos sobre Vigilância, Tecnologia e Sociedade e realizado pelo Labjor - Unicamp | Laboratório de Estudos Avançados em Jornalismo