Agentes de la policía antidisturbios repelen a manifestantes antiinmigratorios en el exterior el 4 de agosto de 2024 en Rotherham, Reino Unido
Christopher Furlong | Imágenes de Getty
LONDRES — Ofcom, el regulador de medios del Reino Unido, fue elegido el año pasado por el gobierno como el regulador a cargo de vigilar el contenido dañino e ilegal en Internet bajo nuevas y estrictas regulaciones de seguridad en línea.
Pero aun cuando la desinformación en línea relacionada con los apuñalamientos en el Reino Unido ha llevado a la violencia en el mundo real, Ofcom, el regulador de seguridad en línea de Gran Bretaña, se ve incapaz de tomar medidas de cumplimiento efectivas.
La semana pasada, un joven de 17 años atacó con un cuchillo a varios niños que asistían a una clase de baile con temática de Taylor Swift en la ciudad inglesa de Southport, en Merseyside.
En el ataque murieron tres niñas. La policía identificó posteriormente al sospechoso como Axel Rudakubana.
Poco después del ataque, los usuarios de las redes sociales se apresuraron a identificar falsamente al perpetrador como un solicitante de asilo que llegó al Reino Unido en barco en 2023.
En X, las publicaciones que compartían el nombre falso del perpetrador se compartieron activamente y fueron vistas por millones de personas.
Eso a su vez contribuyó a desencadenar protestas de extrema derecha y contra la inmigración, que desde entonces han desembocado en violencia, con ataques a tiendas y mezquitas y lanzamientos de ladrillos y bombas incendiarias.
¿Por qué Ofcom no puede tomar medidas?
Posteriormente, los funcionarios del Reino Unido emitieron advertencias a las empresas de redes sociales instándolas a ser duras con la información falsa en línea.
Peter Kyle, ministro de tecnología del Reino Unido, mantuvo conversaciones con empresas de redes sociales como TikTok, la empresa matriz de Facebook. Meta, Google y X por su manejo de la desinformación difundida durante los disturbios.
Pero Ofcom, el regulador encargado de tomar medidas ante las fallas a la hora de abordar la desinformación y otro material dañino en línea, no puede en esta etapa tomar medidas efectivas contra los gigantes tecnológicos que permiten publicaciones dañinas que incitan a los disturbios en curso porque no todos los poderes de la ley han entrado en vigor.
Las nuevas obligaciones de las plataformas de redes sociales bajo la Ley de Seguridad en Línea que exigen que las empresas identifiquen, mitiguen y gestionen activamente los riesgos de daño derivados de contenido ilegal y dañino en sus plataformas aún no han entrado en vigor.
Una vez que las reglas entren en vigor plenamente, Ofcom tendría el poder de imponer multas de hasta el 10% de los ingresos anuales globales de las empresas por infracciones, o incluso penas de cárcel para altos directivos individuales en casos de infracciones reiteradas.
Pero hasta que eso ocurra, el organismo de control no puede penalizar a las empresas por violaciones de seguridad en línea.
Según la Ley de Seguridad en Internet, el envío de información falsa destinada a causar un daño no trivial se considera un delito penal punible. Es probable que esto incluya la desinformación destinada a incitar a la violencia.
¿Cómo ha respondido Ofcom?
Un portavoz de Ofcom dijo a CNBC el miércoles que se está actuando rápidamente para implementar la ley para que pueda aplicarse lo antes posible, pero los nuevos deberes para las empresas tecnológicas que les exigen por ley vigilar activamente sus plataformas en busca de contenido dañino no entrarán en vigor por completo hasta 2025.
Ofcom todavía está consultando sobre las directrices de evaluación de riesgos y los códigos de prácticas sobre daños ilegales, que dice que necesita establecer antes de poder implementar efectivamente las medidas de la Ley de Seguridad en Línea.
«Estamos hablando con las empresas de redes sociales, juegos y mensajería más relevantes sobre sus responsabilidades con carácter de urgencia», dijo el portavoz de Ofcom.
«Aunque las nuevas obligaciones de las plataformas bajo la Ley de Seguridad en Línea no entran en vigor hasta el nuevo año, pueden actuar ahora: no hay necesidad de esperar a que se dicten nuevas leyes que hagan que sus sitios y aplicaciones sean más seguros para los usuarios».
Gill Whitehead, directora del grupo de Ofcom para la seguridad en línea, se hizo eco de esa declaración en una carta abierta a las empresas de redes sociales el miércoles, en la que advirtió sobre el mayor riesgo de que las plataformas se utilicen para fomentar el odio y la violencia en medio de recientes actos de violencia en el Reino Unido.
«En unos meses, entrarán en vigor nuevas obligaciones de seguridad conforme a la Ley de Seguridad en Línea, pero usted puede actuar ahora: no es necesario esperar para que sus sitios y aplicaciones sean más seguros para los usuarios», dijo Whitehead.
Agregó que, si bien el regulador está trabajando para garantizar que las empresas eliminen de sus plataformas contenido ilegal, aún reconoce la «importancia de proteger la libertad de expresión».
Ofcom dice que planea publicar sus códigos de prácticas y orientación finales sobre daños en línea en diciembre de 2024, después de lo cual las plataformas tendrán tres meses para realizar evaluaciones de riesgos de contenido ilegal.
Los códigos estarán sujetos al escrutinio del Parlamento del Reino Unido y, a menos que los legisladores se opongan a los proyectos de código, las obligaciones de seguridad en línea en las plataformas serán exigibles poco después de que concluya ese proceso.
Las disposiciones para proteger a los niños de contenidos nocivos entrarán en vigor a partir de la primavera de 2025, mientras que los aranceles para los servicios más grandes serán exigibles a partir de 2026.