À medida que a desinformação se espalha durante os motins no Reino Unido, os reguladores estão atualmente impotentes para tomar medidas
Kirill Kudryavtsev | AFP | Imagens Getty
LONDRES — A Ofcom, agência reguladora de mídia do Reino Unido, foi escolhida no ano passado pelo governo como a reguladora responsável por policiar conteúdo prejudicial e ilegal na internet, sob novas e rigorosas regulamentações de segurança online.
Mas mesmo que a desinformação online relacionada a esfaqueamentos no Reino Unido tenha levado à violência no mundo real, a Ofcom, reguladora de segurança online da Grã-Bretanha, se vê incapaz de tomar medidas efetivas de fiscalização.
Na semana passada, um jovem de 17 anos atacou com uma faca várias crianças que frequentavam uma aula de dança com tema de Taylor Swift na cidade inglesa de Southport, em Merseyside.
Três meninas foram mortas no ataque. A polícia posteriormente identificou o suspeito como Axel Rudakubana.
Pouco depois do ataque, usuários de redes sociais rapidamente identificaram falsamente o autor do ataque como um requerente de asilo que chegou ao Reino Unido de barco em 2023.
No X, postagens compartilhando o nome falso do agressor foram compartilhadas ativamente e visualizadas por milhões.
Isso, por sua vez, ajudou a desencadear protestos de extrema direita contra a imigração, que desde então desceu à violência, com lojas e mesquitas a serem atacadas e tijolos e bombas de gasolina a serem atirados.
Por que a Ofcom não pode tomar medidas?
Posteriormente, autoridades do Reino Unido emitiram alertas às empresas de mídia social, pedindo que fossem mais duras com informações falsas online.
Peter Kyle, ministro da tecnologia do Reino Unido, conversou com empresas de mídia social como a TikTok, empresa controladora do Facebook Meta, Google e X sobre como lidaram com a desinformação espalhada durante os tumultos.
Mas a Ofcom, a agência reguladora encarregada de tomar medidas sobre as falhas no combate à desinformação e outros materiais prejudiciais on-line, não consegue, neste momento, tomar medidas eficazes contra os gigantes da tecnologia que permitem postagens prejudiciais que incitam os tumultos em andamento, porque nem todos os poderes da lei entraram em vigor.
Novas obrigações sobre plataformas de mídia social sob a Lei de Segurança Online, que exigem que as empresas identifiquem, mitiguem e gerenciem ativamente os riscos de danos causados por conteúdo ilegal e prejudicial em suas plataformas, ainda não entraram em vigor.
Assim que as regras entrarem em vigor, a Ofcom irá têm o poder de aplicar multas de até 10% das receitas anuais globais das empresas por violações, ou até mesmo pena de prisão para gerentes seniores individuais em casos em que ocorrem violações repetidas.
Mas até que isso aconteça, o órgão regulador não pode penalizar empresas por violações de segurança online.
Sob o Online Safety Act, o envio de informações falsas com a intenção de causar danos não triviais é considerado uma infração criminal punível. Isso provavelmente incluiria desinformação com o objetivo de incitar violência.
Como a Ofcom respondeu?
Um porta-voz da Ofcom disse à CNBC na quarta-feira que a empresa está agindo rapidamente para implementar a lei para que ela possa ser aplicada o mais rápido possível, mas as novas obrigações impostas às empresas de tecnologia, que exigem por lei que elas policiem ativamente suas plataformas em busca de conteúdo prejudicial, não entrarão em vigor até 2025.
A Ofcom ainda está consultando sobre orientações de avaliação de risco e códigos de prática sobre danos ilegais, que ela diz precisar estabelecer antes de poder implementar efetivamente as medidas da Lei de Segurança Online.
“Estamos conversando com empresas relevantes de mídia social, jogos e mensagens sobre suas responsabilidades com urgência”, disse o porta-voz da Ofcom.
“Embora as novas obrigações das plataformas sob a Lei de Segurança Online não entrem em vigor até o ano novo, elas podem agir agora — não há necessidade de esperar por novas leis para tornar seus sites e aplicativos mais seguros para os usuários.”
Gill Whitehead, diretora do grupo de segurança online da Ofcom, ecoou essa declaração em uma carta aberta às empresas de mídia social na quarta-feira, que alertou sobre o risco elevado de plataformas serem usadas para incitar ódio e violência em meio a atos recentes de violência no Reino Unido.
“Em alguns meses, novas obrigações de segurança sob a Lei de Segurança Online estarão em vigor, mas você pode agir agora – não há necessidade de esperar para tornar seus sites e aplicativos mais seguros para os usuários”, disse Whitehead.
Ela acrescentou que, embora o regulador esteja trabalhando para garantir que as empresas livrem suas plataformas de conteúdo ilegal, ele ainda reconhece a “importância de proteger a liberdade de expressão”.
A Ofcom afirma que planeja publicar seus códigos de prática e orientações finais sobre danos online em dezembro de 2024, após o que as plataformas terão três meses para conduzir avaliações de risco de conteúdo ilegal.
Os códigos estarão sujeitos ao escrutínio do Parlamento do Reino Unido e, a menos que os legisladores se oponham aos projetos de códigos, as obrigações de segurança online nas plataformas se tornarão aplicáveis logo após a conclusão do processo.
As disposições para proteger crianças de conteúdo prejudicial entrarão em vigor a partir da primavera de 2025, enquanto as taxas sobre os maiores serviços serão aplicáveis a partir de 2026.