Colunistas

Moderação de conteúdo online não é tão fácil quanto parece

Debate sobre moderação de conteúdo não deveria ser feito na base da canetada, mas ouvindo a sociedade toda.

11 de setembro de 2021

Opinião

Estamos à frente de uma tentativa de moderação do conteúdo da internet no Brasil — a discussão que envolve moderadores privados e públicos, tem a ver com a sociedade civil. Em meio às tensões que o debate traz, alguns pontos importantes passam despercebidos — afinal, tudo parece uma disputa que só tem dois lados.

A primeira questão que me vem à mente em meio a tudo isso é: O que é moderação de conteúdo e “como surgiu?. A ideia ganhou força no debate da governança da internet como um dos mecanismos de organização da participação online, buscando como resultado final a cooperação e a prevenção de abusos e de violências. Assume-se que a internet é um território ocupado e que, por isso, é necessário pensar formas saudáveis a convivência.

Antes de toda interatividade nas redes sociais, fóruns ou comunidades eram os pontos de encontros de pessoas que queriam debater ideias, falar sobre gostos em comum etc. Os fóruns eram construídos pela galera que o frequentava, mas, como toda plataforma com muitos usuários, eles tinham moderação de conteúdo — que poderiam ser usuários que mais comentavam ou pessoas de confiança do criador da plataforma. Também existiam diversas regrinhas pensadas por quem criou.

Vale lembrar que os perfis, em geral, eram anônimos e os criadores eram bem próximos dos usuários. Não existia um grande modelo de negócios por trás de tudo. Mesmo assim, já haviam problemas de comportamentos e de violências naquele ambiente — alguns baniam os participantes e outros eram reportados ao administrador e a pessoa era advertida. Atualmente, o banimento de conteúdos e perfis que estão praticando ou engajando a violência é uma grande questão nas redes sociais.

O Facebook, em seu início, tentou imitar algumas características desses antigos fóruns, como as regras de moderação — o que não deu certo. Outras redes sociais como o Twitter, têm dinâmicas diferentes. O que quero dizer aqui é que diferentemente de fóruns, as redes sociais por mais que sejam ambientes “controlados”, ou melhor, “vigiados” tem mais interações e participantes. Segundo um estudo promovido pela Hootsuite, em parceria com a agencia We are social, 4,7 bilhões de pessoas estão conectadas e as redes crescem 14% ao ano. Essas, por sua vez, têm 4,33 bilhões de usuários, o que representa mais da metade da população mundial. E quem está moderando isso tudo?

Arrisco dizer que boa parte dos conteúdos não estão sendo moderados. Não só pelo modelo de negócios de cada rede social, mas também por falta de pessoas para fazer esse trabalho. Logo, boa parte destes conteúdos moderados por humanos acabam sendo moderados por algoritmos. Se já é complicado promover a transparência nas mão humanas, imagine com a tecnologia. Vale destacar aqui que as redes sociais alteraram o termo “regras da boa convivência” para “regras de sobrevivência”.


Moderação de conteúdo não necessariamente é moderação do perfis. Não sabemos ao certo como as redes sociais lidam com isso, não temos acesso a todas as informações. Apenas sabemos que, nas politicas de privacidade de alguns, está definido o que faz um conteúdo ser ou não retirado do ar. E o tempo de resposta de uma moderação pode causar muitos problemas.

Não estou discutindo a medida provisória de Bolsonaro, pois ela está confusa e incompleta. Ela não está nesse meu debate — embora, nesse caso, esteja claro que a preocupação não é com o bem estar de quem está utilizando as mídias sociais.

E aí vem os questionamentos. Deveríamos estar repensando o modelo de moderação. Mas como uma equipe de moderadores é capacitada para analisar conteúdos de violência contra pessoas que atuam nos direitos humanos? Como identificar abusos de violência de gênero em um tweet ou em um vídeo? Isso tudo não deveria realmente estar fechado a um grupo de pessoas — no setor privado ou no público.

As organizações que estão diretamente conectadas a estes temas deveriam ter mais autonomia e serem mais escutadas pelas empresas detêm parte da moderação de conteúdo. Mesmo que eu, como usuária, denuncie um conteúdo, não tenho transparência de como ele está sendo analisado e tampouco tenho respostas conclusivas sobre a minha denúncia. A interação com esta função por si só já mostra como o modelo não está dando conta da atualidade. Será necessário abrir, repensar reestruturar o que chamamos de moderação. É precisa separar moderação de conteúdo online de moderação de perfis.

Quando estamos tratando de temas sensíveis nas redes sociais o conteúdo é monitorado da mesma forma que conteúdos com teor irônicos? Se sim, bom , temos mais um problema para resolver.

Não adianta o engajamento nas redes sociais estar custando vidas das pessoas, saúde mental e bem estar. A moderação de conteúdo não é e nem deveria ser uma disputa. mas uma cooperação que necessariamente deveria envolver mais a sociedade. Valeria pensar como educar quem usa a plataforma a entender que seus usos trazem consequências. No mundo real, violência não é liberdade de expressão. E estamos deixando isso ser confundido nas redes sociais.