Mais uma vez, o Facebook e o YouTube estão sendo processados por terem mantido cenas de conteúdo violento disponíveis na plataforma. Desta vez, em transmissão ao vivo.
O burburinho após os atentados de 15 de março, na Nova Zelândia — em que um extremista cristão abriu fogo contra fiéis muçulmanos em duas mesquitas —, é de que plataformas de streaming devem se responsabilizar pelo conteúdo que seus usuários postam.
Dessa vez, o Conselho Francês do Culto Muçulmano (CFCM), grupo muçulmano francês, prestou queixa contra a rede social pelo fato de a plataforma ter transmitido “uma mensagem com conteúdo violento que apoia o terrorismo ou que possa violar seriamente a dignidade humana e ser visto por um menor”.
O assunto é sério, porque 1,5 milhão de vídeos referentes ao conteúdo tentaram ser publicados em menos de 24 horas após o ocorrido.
Em declaração no Twitter, o Facebook afirma que ao menos 1,2 milhão de vídeos (originais ou editados) do atentado foram barrados antes mesmo do upload. Ainda assim, a transmissão original do assassinato de 50 pessoas ficou disponível durante 12 minutos após o fim do streaming. E, como a gente sabe, uma vez na internet, para sempre na internet. O conteúdo acabou veiculado também em outros sites, como o YouTube, que ainda mantinha versões do ataque horas depois do ocorrido.
As plataformas garantiram que estão contribuindo com as autoridades e fazendo o possível para impedir que esse tipo de conteúdo seja publicado, mas isso pode não ser mais suficiente. Os padrões de segurança da rede social são verdadeiros. O software trabalha para encontrar e remover conteúdos como esse, mas a companhia lava as mãos, já que os Termos de Uso (leia antes de assinar!) a protegem de ser legalmente responsabilizada pelo que o usuário posta.
Acontece que duas leis recém-assinadas nos Estados Unidos (a FOSTA e a SESTA), criadas para prevenir o tráfico sexual, criam uma brecha na legislação atual que pode vir a responsabilizar a plataforma se terceiros publicarem conteúdos relacionados à prostituição.