‘Censura’ no Facebook não é ‘teoria da conspiração’
As informações e opiniões formadas neste blog são de responsabilidade única do autor.

‘Censura’ no Facebook não é ‘teoria da conspiração’

Mariana Congo

27 de junho de 2013 | 14h45

Não é “teoria da conspiração”. O Facebook, de acordo com seus termos de uso e políticas, pode remover da rede social conteúdo que incita à violência ou faz ameaça direta à segurança pública, entre outros.

A empresa, no entanto, diz que não tem sistemas automatizados para a remoção de discursos políticos e que os casos são analisados manualmente.


Protesto no centro do Rio de Janeiro, na segunda-feira, 24 (Foto: Fábio Motta/Estadão)

Um post publicado pelo Facebook Brasil nesta quinta-feira, 27, esclarece como funcionam as políticas de denúncia e revisão de conteúdo da rede social, justificando que recentemente ocorreram discussões relacionadas ao tema.

Desde que começou a onda de protestos em várias cidades brasileiras, discussões políticas e sobre as manifestações tomaram conta da timeline de muitas pessoas. Há relatos de “censura” de diversos usuários, dizendo que conteúdo relacionado aos protestos foi apagado ou que o perfil foi desconectado por algumas horas.

A empresa não divulga dados sobre volume de denúncias recebidas e avaliadas ou mesmo se esses números cresceram nas últimas semanas.

No post publicado hoje, o Facebook destaca três pontos sobre sua política de conteúdo:

1- O número de denúncias não é decisivo para a remoção de um conteúdo.
Segundo a empresa, o conteúdo denunciado só é removido se violar os termos de uso. Ou seja, não adianta milhares de pessoas denunciarem uma página se ela estiver de acordo com os padrões considerados aceitáveis pelo Facebook.

2- A maioria das denúncias recebidas são revisadas manualmente.
O Facebook diz que tem um time de revisores altamente treinado para avaliar as denúncias uma a uma. “Em quase todos os casos, revisamos manualmente todas as denúncias e não temos sistemas automatizados que removem discursos políticos”, diz o post. Segundo a empresa, esse método de trabalho manual protege os usuários que estão publicando ou compartilhando conteúdo que não fere os padrões de uso da rede social. “Utilizamos sistemas automatizados apenas para um número muito limitado de casos, como, por exemplo, spam”, esclarece o texto.

3- Os “Padrões da Comunidade do Facebook” são a base para as decisões de remoção de conteúdo.
Na página www.facebook.com/communitystandards é possível ver o que a rede social considera aceitável e qual tipo de conteúdo pode ser removido. Incitação à violência, ameaça direta à segurança pública, pornografia e qualquer tipo de assédio, como bullying, não são tolerados.

Quer saber mais sobre os padrões de uso do Facebook? Clique na imagem abaixo:


(Imagem: Reprodução/Facebook)

VEJA TAMBÉM

‘O usuário hoje está desprotegido’, diz criadores da Rede Livre

Abin monta rede para monitorar internet

 

publicidade

publicidade

Comentários

Os comentários são exclusivos para assinantes do Estadão.