Por que o Facebook não bloqueou a live do massacre na Nova Zelândia
O massacre que tirou a vida de 50 pessoas na Nova Zelândia, na semana passada, foi transmitido ao vivo pelo Facebook para milhares de pessoas. A rede social falhou em bloquear a exibição e, atualmente, ainda é possível encontrar o vídeo sendo compartilhado pela internet. A ação terrorista ficará gravada para sempre, visto que o Facebook não teve a capacidade de identificar a livestream e tirar do ar.
Massacre na Nova Zelândia foi exibido ao vivo no Facebook e só caiu após 12 minutos do encerramento da transmissão
De acordo com uma publicação de Guy Rosen, vice-presidente da equipe de produto no Facebook, o sistema de inteligência artificial da empresa não estava preparado para um evento como este. Para reconhecer algo assim como “não autorizado” dentro do sistema de livestream, a inteligência artificial precisa ser treinada para isso — ou seja, ela precisa “enxergar” centenas de imagens de ataques terroristas e outros tipos de massacres para aprender que isso não deve ser transmitido ao vivo.
Bem, provavelmente temos inúmeros vídeos e imagens de massacre na internet que o Facebook poderia ter utilizado para ensinar sua inteligência artificial, não é?
Rosen ainda escreveu: “Precisamos fornecer aos nossos sistemas grandes volumes de dados desse tipo específico de conteúdo, algo que é difícil, pois esses eventos são felizmente raros. A IA é uma parte extremamente importante da nossa luta contra o conteúdo terrorista em nossas plataformas, e enquanto a sua eficácia continua a melhorar, nunca será perfeita”.
Outro ponto que, segundo Rosen, impediu que o Facebook agisse rapidamente: o vídeo ao vivo do terrorista não teve denúncias de usuários da rede social enquanto era exibido. De acordo com o vice-presidente da empresa, a equipe responsável pelos vídeos prioriza a exclusão de vídeos que recebam denúncias.
Antes de ser completamente tirado do ar, chegou a bater 4 mil visualizações — e hoje corre na internet
O vídeo ao vivo, com cenas explícitas do terrorista atirando contra dezenas de pessoas em ataque xenófobo e racista, teve 200 visualizações no Facebook. Antes de ser completamente tirado do ar, chegou a bater 4 mil visualizações. A primeira denúncia de usuário foi realizada 12 minutos após o término da livestream. Durante as próximas 24 horas da exibição, o Facebook tirou do ar 1,2 milhão de vídeos — 80% deles foram identificados antes da carga completa na rede social, 300 mil removidos após o upload.
“No ano passado, mais do que dobramos o número de pessoas trabalhando em segurança para mais de 30 mil pessoas, incluindo cerca de 15 mil revisores de conteúdo. Por isso incentivamos as pessoas a denunciar conteúdo que considerem preocupante”, escreveu Rosen.