-
Las cuentas de QAnon están evadiendo los intentos de Twitter de prohibirlas, según una investigación vista por Insider.
-
La académica Laura Dilley describió estrategias que parecen eludir los esfuerzos de cumplimiento de Twitter.
-
El movimiento continúa difundiendo teorías de conspiración y glorificando los disturbios en el Capitolio.
Las redes de cuentas de QAnon están utilizando tácticas inusuales para evadir la prohibición de desinformación de Twitter e inundar la plataforma con teorías de conspiración, según descubrió un estudio compartido con Insider.
Twitter ha buscado evitar que el movimiento QAnon opere en su plataforma, purgando más de 70.000 cuentas a raíz de los disturbios en el Capitolio el 6 de enero de 2021.
Pero, según mostró el estudio, siguen operando allí grandes redes de simpatizantes y personas influyentes.
Laura Dilley, profesora asociada en el Departamento de Ciencias y Trastornos de la Comunicación de la Universidad de Michigan, rastreó su funcionamiento y compartió los hallazgos con Insider.
Intercambio de hashtags, cuentas emergentes e imágenes difíciles de rastrear
Dilley siguió el surgimiento de 4 redes que promocionaban la propaganda de QAnon, que operaron desde agosto de 2020 hasta el presente. Twitter eliminó algunas de las cuentas constituyentes en ese período de tiempo, pero muchas permanecieron operativas, dijo Dilley a Insider.
La red más destacada tenía 1.500 cuentas, produciendo mensajes agrupados en torno a varios temas centrales.
Incluyen afirmaciones falsas sobre la insurrección del 6 de enero, teorías de conspiración de que las elecciones de 2020 le fueron robadas a Donald Trump y una selección de puntos de conversación de extrema derecha. Muchos estaban estrechamente vinculados con redes de cuentas nacionalistas blancas.
Otros más pequeños se agruparon en torno a temas de bienestar o espiritualidad, destacando cómo el aspecto político del movimiento se superpone con personas hostiles a las principales narrativas científicas.
Dilley enumeró las técnicas que dijo que se usaban comúnmente para evadir las prohibiciones de Twitter:
-
Reemplazo de cuentas prohibidas por otras nuevas con nombres casi idénticos
-
Comunicar mensajes de QAnon a través de imágenes, que son mucho más difíciles de rastrear y regular.
-
Usar hashtags y frases con pequeñas variaciones textuales para evadir prohibiciones automáticas.
«Las redes eran claramente bastante dinámicas en su capacidad para cambiar hashtags sobre la marcha, por ejemplo, WWG1WGA [a popular QAnon slogan meaning «Where we go one we go all»] se cambia a WWGiWGA, que aunque es una variante leve, no se detectará en las búsquedas automáticas de hashtags prohibidos», dijo Dilley.
El movimiento QAnon surgió en 2017 y se unió en torno a la teoría de la conspiración de que una red de abuso infantil estaba dirigida por élites vinculadas al Partido Demócrata. Los adherentes veneran a Donald Trump como una figura salvadora.
Después de la insurrección del 6 de enero hubo una represión radical del movimiento por parte de la plataforma. Seguidores de QAnon estaban en la línea del frente en el ataque al Capitolio, y el movimiento había abrazado vigorosamente las falsas afirmaciones de fraude electoral que inspiraron el motín.
Muchos pudieron mantener una presencia en la plataforma a pesar de la represión y reconstruir sus redes rápidamente, en parte utilizando cuentas de respaldo.
Los usuarios pudieron crear nuevos perfiles con «imágenes de perfil similares o idénticas, a menudo con identificadores de Twitter que eran variantes de nombres de identificadores de cuentas suspendidos», escribió Dilley.
«Césped astronómico digital»
Dilley descubrió que las redes a menudo publicaban los mismos mensajes al mismo tiempo. Otros pudieron ganar rápidamente seguidores masivos después de que se prohibieron las cuentas con nombres similares. Esto, para ella, era una señal de que muchas cuentas eran los llamados bots, cuentas automatizadas que operan en un grupo coordinado en lugar de ser administradas por personas reales.
Twitter prohíbe el uso de cuentas automatizadas para difundir desinformación.
Dilley llamó a su actividad coordinada «astroturfing digital», una alusión a las campañas políticas encubiertas de «astroturfing» que están diseñadas para crear una ilusión de activismo de base.
«Esta es la primera investigación que muestra definitivamente evidencia de astroturfing digital en la promoción en línea de QAnon en Twitter. Además, la investigación establece que la actividad promocional de QAnon en Twitter estuvo estrechamente vinculada y, de hecho, fue promovida por una amplia variedad de redes que abarcan el nacionalismo blanco. ”, escribió Dilley en el estudio.
Una fuente en Twitter cuestionó que se permitiera la automatización a gran escala en la plataforma. La fuente solicitó el anonimato y le dijo a Insider que comentar por su nombre sobre tales temas a menudo provoca amenazas de muerte.
La fuente dijo que los esfuerzos de la compañía para reprimir a QAnon se complicaron porque no era una organización única, como un grupo terrorista, sino un conjunto de teorías de conspiración superpuestas.
El estudio de Dilley se basa en un informe Insider de 2020 que encontró al agente pro-Trump Jason Sullivan, quien se autoproclamó «El mago de Twitter», operando una aplicación que permitía a los usuarios ceder sus cuentas para publicar mensajes coordinados.
La aplicación evadió la prohibición de bots de Twitter porque la mayoría de las cuentas se comportaban de manera auténtica, pero podían comportarse con la coordinación de bots durante períodos breves para enviar un mensaje deseado.
Dilley sugirió que las redes de su estudio podrían estar usando algo similar para trabajar juntas.
Ella dijo que inmediatamente después de iniciar nuevas cuentas, los influencers de QAnon pudieron obtener rápidamente muchos seguidores, lo que sugiere aún más la automatización.
La fuente de Twitter dijo que no habían detectado evidencia de automatización a gran escala en las redes. Las cuentas prohibidas podrían obtener rápidamente muchos seguidores a través de cuentas de respaldo al coordinarse en otras plataformas como Telegram, dijo la fuente.
¿Ayuda de Rusia?
Partes de las redes, dijo Dilley, parecen estar recibiendo un apoyo significativo de Rusia.
Las cuentas, algunas de las cuales tenían decenas de miles de seguidores, fueron diseñadas para parecer como si pertenecieran a estadounidenses que apoyan a Trump.
Estuvieron muy activos en todas las redes identificadas en el estudio, promoviendo la propaganda de QAnon en inglés. Sin embargo, las cuentas ocasionalmente comenzaban a twittear en ruso o usaban su escritura cirílica.
Una cuenta se desenmascaró como rusa aparentemente por accidente, dijo Dilley. La cuenta publicó la palabra rusa para fuego, donde parecía haber publicado un emoji de fuego en su lugar, dijo Dilley. El mensaje se eliminó pronto y la cuenta reanudó la comunicación en inglés.
Según los informes, la inteligencia rusa ha buscado impulsar el movimiento QAnon. Incluso puede haber ayudado a sembrar la teoría de la conspiración «pizzagate», un precursor clave del movimiento, Rolling Stone informó en 2017.
La fuente de Twitter rechazó las sugerencias de que las agencias de seguridad rusas estaban involucradas. Dijeron que QAnon era un movimiento altamente global y que sus reclamos son difundidos y promovidos por usuarios en varios países.
Dijeron que las cuentas identificadas como posibles actores rusos por Dilley eran más probablemente rusos comunes que se involucraban con temas de QAnon.
Dilley dijo que el estudio expone graves fallas de Twitter para detener la desinformación en su plataforma a raíz de los disturbios del 6 de enero.
“A menos que Twitter tome en serio su compromiso de mantener a las personas prohibidas permanentemente fuera de su plataforma, la compañía seguirá siendo moralmente culpable por permitir actividades de difusión de desinformación, fomento de disturbios civiles y socavación de la democracia”, dijo.
Twitter no proporcionó una respuesta en el registro.
Lea el artículo original en Business Insider