O Facebook apagou 583 milhões de contas falsas no primeiro trimestre deste ano.
A companhia afirma que, na maioria dos casos, elas foram identificadas em minutos.
A rede estima que, mesmo com os perfis deletados, entre 3% e 4% das contas ativas no período eram falsas.
A empresa também afirma ter apagado 837 milhões de mensagens consideradas spam em seis meses. Em quase todos os casos, a companhia não dependeu de um aviso de usuário para identificar as mensagens inadequadas -o serviço foi feito a partir da inteligência artificial.
A informação está em relatório publicado pelo Facebook no qual a companhia detalha pela primeira vez suas ações para controlar práticas abusivas dentro da rede.
A publicação dos números acontece em um momento no qual ganha relevância a discussão sobre a responsabilidade das redes sociais pelo conteúdo disseminado a partir delas.
Entre os casos que trazem o assunto à tona estão o impacto das fake news para a eleição do presidente americano Donald Trump em 2016 e o vazamento de dados pessoais de usuários para a consultoria Cambridge Analytica, também para distribuir conteúdo favorável ao republicano.
Na esteira da maior vigilância que vem sofrendo, em abril a empresa já havia divulgado quais os critérios usados na hora de definir se uma postagem é permitida ou não.
Imagens com conteúdo sexual ou nudez foram as mais retiradas da rede. Segundo o Facebook, foram 21 milhões de fotos apagadas pela companhia no primeiro trimestre, 96% identificadas pela própria empresa.
A rede também apagou ou colocou mensagens de aviso em 3,5 milhões de imagens que continham violência, 86% delas identificadas a partir de tecnologia.
A companhia dedicou esforços para remover de sua plataforma postagens com discursos de ódio. Porém a empresa admite ainda ter mais dificuldade para automatizar essa tarefa e depender da análise humana para fazer isso.
Foram removidas 2,5 milhões de postagens do tipo, 38% sem a necessidade de notificações de usuários.
O desafio para melhorar o índice de postagens apagadas automaticamente, segundo a empresa, é desenvolver a inteligência artificial para que ela seja capaz de entender o contexto em que a postagem é feita, se ela é uma agressão a alguém ou uma descrição de violência que o usuário sofreu, por exemplo. (Folhapress)
{nomultithumb}