PUBLICIDADE

Publicidade

Google e Facebook falham em tirar conteúdo do ar

Empresas prometeram retirar postagens falsas sobre sobreviventes de Parkland, mas não conseguiram

Foto do author Redação
Por Redação
Atualização:

Na quarta-feira passada, uma semana após o tiroteio na escola em Parkland, Flórida, o Facebook e o YouTube prometeram duras medidas contra os trolls – usuários de internet que buscam provocar discussões e gerar raiva em outras pessoas.

Milhares de postagens e vídeos surgiram nos sites, com afirmações falsas de que os sobreviventes do tiroteio eram atores pagos, além de teorias da conspiração. O Facebook chamou as postagens de “abomináveis”. O YouTube, que pertence ao Google, disse que precisava melhorar o controle. Ambos prometeram remover o conteúdo.

O sobrevivente David Hogg em protesto contra questão das armas nos EUA Foto: Reuters

PUBLICIDADE

Desde então, as empresas retiraram de forma agressiva muitas postagens e vídeos e reduziram a visibilidade de outros. Mas, na sexta-feira, o conteúdo nocivo ainda estava longe de ser erradicado.

No Facebook e no Instagram, buscas com a hashtag #crisisactor, que acusou os sobreviventes de Parkland de serem atores, apresentaram centenas de posts perpetuando a falsa informação. Muitas das postagens foram modificadas ligeiramente para evitar a detecção automática. 

A persistência da desinformação, apesar dos esforços dos gigantes tecnológicos para eliminá-la, tornou-se um ‘case’ de como as empresas estão constantemente um passo atrás na erradicação desse tipo de conteúdo. Sob todos os pontos de vista, trolls, teóricos da conspiração e outros, provaram ser mais habilidosos do que as empresas. 

“Eles não conseguem policiar suas plataformas quando o tipo de conteúdo que estão prometendo proibir muda de forma rapidamente”, disse Jonathon Morgan, fundador da New Knowledge, uma empresa que rastreia a desinformação online. 

Promessas. A dificuldade de lidar com conteúdo inadequado online destacou-se com o tiroteio do Parkland, porque as empresas de tecnologia comprometeram-se efetivamente a remover qualquer acusação de que os sobreviventes fossem atores, mas não conseguiram. No passado, as empresas normalmente tratavam de tipos específicos de conteúdo apenas quando era ilegal – postagens de organizações terroristas, por exemplo – disse Morgan.

Publicidade

As promessas do Facebook e do YouTube vieram após um fluxo de críticas nos últimos meses sobre como seus sites podem ser usados para espalhar propaganda russa e outros abusos. As empresas disseram que estão apostando em sistemas de inteligência artificial para ajudar a identificar e retirar conteúdo inapropriado, embora essa tecnologia ainda esteja sendo desenvolvida.

O Facebook disse estar contratando 1 mil novos moderadores para revisar o conteúdo e implantando mudanças sobre qual tipo de notícia seria favorecida na rede social. O YouTube disse que pretende ter 10 mil moderadores até o final do ano e que está alterando seus algoritmos de busca para divulgar mais vídeos de fontes de notícias confiáveis.

“Informações falsas são como qualquer outro desafio que envolvam seres humanos: evoluem, como boato ou lenda urbana. Elas também se disfarçam de discursos legítimos”, disse Mary deBree, diretora da política de conteúdo do Facebook. “Nosso trabalho é fazer o melhor para manter esse conteúdo ruim fora do Facebook sem prejudicar a razão pela qual as pessoas vêm aqui – ver o que acontece no mundo ao seu redor e falar sobre elas.”

Uma porta-voz do YouTube disse, em nota, que o site atualizou sua política para que vídeos falsos que visam as vítimas de tais tragédias também sejam removidos.

PUBLICIDADE

Dificuldades. Não é difícil escapar da caça promovida pelo Facebook e pelo YouTube contra postagens falsas. Os autores alteram imagens ou usam expressões diferentes

 Outra estratégia é publicar posts novos rapidamente ou se envolver com postagens similares de outras contas, criando uma espécie de efeito viral que pode fazer com que os algoritmos dos sites promovam o conteúdo como um tópico influente ou um vídeo recomendado, disse David Carroll, um professor da New School que estuda plataformas tecnológicas.

Essa duplicação e “reembalagem” de informações errôneas “fazem com que retirá-las sempre seja mais lento do que colocá-las de volta”. 

Publicidade

Isso ficou claro nos últimos dias, depois da publicação de um vídeo sugerindo que um dos sobreviventes de Parkland, David Hogg, era ator. Hogg foi o estudante que mais se manifestou recentemente sobre o problema das armas nos EUA. / TRADUÇÃO DE CLAUDIA BOZZO

Comentários

Os comentários são exclusivos para assinantes do Estadão.