Agentes de la policía antidisturbios repelen a manifestantes antiinmigratorios frente al hotel Holiday Inn Express, que alberga a solicitantes de asilo, el 4 de agosto de 2024 en Rotherham, Reino Unido.
Christopher Furlong | Noticias de Getty Images | Getty Images
No tardó mucho en aparecer afirmaciones falsas en las redes sociales después de… Tres jovencitas fueron asesinadas en la ciudad británica de Southport en julio.
En cuestión de horas, la información falsa (sobre el nombre del atacante, su religión y su estatus migratorio) ganó una fuerza significativa, desatando una ola de desinformación que alimentó días de disturbios violentos en todo el Reino Unido.
«En una publicación en LinkedIn, se mencionaba falsamente al autor como ‘Ali al-Shakati’, que se rumoreaba que era un inmigrante de fe musulmana. A las 3 p. m. del día siguiente, el nombre falso había sido mencionado más de 30 000 veces solo en X», dijo Hannah Rose, analista de odio y extremismo del Instituto para el Diálogo Estratégico (ISD), a CNBC por correo electrónico.
Otra información falsa compartida en las redes sociales afirmaba que el atacante estaba en una lista de vigilancia de los servicios de inteligencia, que llegó al Reino Unido en un pequeño barco en 2023 y era conocido por los servicios de salud mental locales, según Análisis del ISD.
La policía desmintió las acusaciones Al día siguiente de su primera aparición, diciendo que el sospechoso nació en Gran Bretañapero la narrativa ya había ganado fuerza.
La desinformación alimentó sesgos y prejuicios
Este tipo de información falsa está estrechamente relacionada con una retórica que ha alimentado el movimiento antimigratorio en el Reino Unido en los últimos años, dijo Joe Ondrak, líder de investigación y tecnología para el Reino Unido en la empresa tecnológica Logically, que está desarrollando herramientas de inteligencia artificial para combatir la desinformación.
«Es realmente una idea que los atrae, ¿sabes? Es exactamente lo que se debe decir para provocar una reacción mucho más enojada de la que probablemente se habría producido si no hubiera circulado la desinformación», dijo a CNBC a través de una videollamada.
Agentes de la policía antidisturbios repelen a manifestantes antiinmigratorios en el exterior el 4 de agosto de 2024 en Rotherham, Reino Unido
Christopher Furlong | Imágenes de Getty
Los grupos de extrema derecha pronto comenzaron a organizar protestas contra los inmigrantes y el Islam, incluida una manifestación en la vigilia planeada para las niñas que habían sido asesinadas. se intensificaron hasta convertirse en días de disturbios en el Reino Unido, en los que hubo ataques a mezquitas, centros de inmigración y hoteles que albergan a solicitantes de asilo.
Ondrak explicó que la desinformación que circula en línea aprovecha prejuicios y sesgos preexistentes, y agregó que los informes incorrectos a menudo prosperan en momentos de intensas emociones.
«No se trata de que se difunda una afirmación falsa y luego todo el mundo la crea», afirmó. Los informes actúan, en cambio, como «una forma de racionalizar y reforzar prejuicios, sesgos y especulaciones preexistentes antes de que se conozca cualquier tipo de verdad establecida».
«No importaba si era cierto o no», añadió.
Muchos de los manifestantes de derecha afirman que el elevado número de inmigrantes en el Reino Unido alimenta el crimen y la violencia. Grupos de derechos de los migrantes negar estas afirmaciones.
La propagación de desinformación en línea
Las redes sociales proporcionaron un medio crucial para que circulara la desinformación, tanto a través de la amplificación de algoritmos como porque grandes cuentas la compartieron, según Rose de ISD.
Las cuentas con cientos de miles de seguidores y las marcas azules pagadas en X compartieron la información falsa que luego fue enviada por los algoritmos de la plataforma a otros usuarios, explicó.
«Por ejemplo, cuando se buscó ‘Southport’ en TikTok, en la sección ‘Otros buscados’, que recomienda contenido similar, el nombre falso del atacante fue promovido por la propia plataforma, incluso 8 horas después de que la policía confirmara que esta información era incorrecta», dijo Rose.
Las fachadas de las tiendas están siendo tapiadas para protegerlas de daños antes de la manifestación contra la extrema derecha y el racismo.
Thabo Jaiyesimi | Imágenes de Sopa | Lightrocket | Getty Images
El análisis de ISD mostró que los algoritmos funcionaron de manera similar en otras plataformas como X, donde el nombre incorrecto del atacante apareció como tema de tendencia.
A medida que continuaban los disturbios, el propietario de X Elon Musk intervino y realizó comentarios polémicos sobre las manifestaciones violentas en su plataforma. Sus declaraciones provocaron la reacción del gobierno del Reino Unido, y el ministro de Justicia del país pidió a Musk que «se comporte de manera responsable».
TikTok y X no respondieron de inmediato a la solicitud de comentarios de CNBC.
Las afirmaciones falsas también llegaron a Telegram, una plataforma que, según Ondrak, desempeña un papel en la consolidación de narrativas y la exposición de un número cada vez mayor de personas a «creencias más duras».
«Todos estos reclamos se canalizaron a través de lo que llamamos el entorno post-Covid de Telegram», añadió Ondrak. Esto incluye canales que inicialmente eran antivacunas pero que fueron cooptados por figuras de extrema derecha que promovían temas antiinmigrantes, explicó.
En respuesta a una solicitud de comentarios de CNBC, Telegram negó que estuviera ayudando a difundir información errónea. Dijo que sus moderadores estaban monitoreando la situación y eliminando canales y publicaciones que incitaban a la violencia, lo cual no está permitido según sus términos de servicio.
Al menos algunas de las cuentas que llamaban a participar en la protesta podían rastrearse hasta la extrema derecha. según análisis de Logicallyincluidos algunos vinculados al grupo extremista de derecha prohibido Acción Nacional, que fue designado organización terrorista en 2016 bajo la Ley de Terrorismo del Reino Unido.
Ondrak también señaló que muchos grupos que previamente habían circulado información falsa sobre el ataque habían comenzado a retractarse, diciendo que era un engaño.
El miércoles, miles de manifestantes contra el racismo se congregaron en ciudades y pueblos de todo el Reino Unido, superando ampliamente en número las recientes protestas contra los inmigrantes.
¿Moderación de contenidos?
El Reino Unido tiene una La Ley de Seguridad en Línea está destinada a combatir el discurso de odio, pero recién entrará en vigor a principios del próximo año y puede que no sea suficiente para proteger contra algunas formas de desinformación.
El miércoles, el regulador de medios de comunicación del Reino Unido, Ofcom, envió una carta a las plataformas de redes sociales en la que les decía que no deberían esperar a que la nueva ley entre en vigor. El gobierno del Reino Unido también dijo que las empresas de redes sociales deberían hacer más.
Muchas plataformas ya tienen términos y condiciones y pautas comunitarias que, en distintos grados, cubren el contenido dañino y exigen acciones contra él.
Un manifestante sostiene un cartel que dice «Los racistas no son bienvenidos aquí» durante una contramanifestación contra una protesta antiinmigratoria convocada por activistas de extrema derecha en el suburbio de Walthamstow en Londres el 7 de agosto de 2024.
Benjamin Cremel | Afp | Imágenes Getty
Las empresas «tienen la responsabilidad de garantizar que el odio y la violencia no se promuevan en sus plataformas», dijo Rose de ISD, pero agregó que deben hacer más para implementar sus reglas.
Señaló que ISD había encontrado una variedad de contenidos en varias plataformas que probablemente estarían en contra de sus términos de servicio, pero que permanecían en línea.
Henry Parker, vicepresidente de asuntos corporativos de Logically, también señaló los matices de las diferentes plataformas y jurisdicciones. Las empresas invierten cantidades variables en esfuerzos de moderación de contenido, dijo a CNBC, y existen problemas relacionados con las diferentes leyes y regulaciones.
«Aquí hay un papel doble. Las plataformas deben asumir una mayor responsabilidad, cumplir con sus propios términos y condiciones y trabajar con terceros, como verificadores de datos», dijo.
«Y luego está la responsabilidad del gobierno de tener muy claras cuáles son sus expectativas… y luego ser muy claro sobre lo que sucederá si no se cumplen esas expectativas. Y todavía no hemos llegado a esa etapa».