Los expertos en tecnología han hecho sonar la alarma de que la inteligencia artificial (IA) podría volverse contra la humanidad al hacerse cargo de todo, desde los negocios hasta la guerra. Ahora, Kevin Esvelt agrega otra preocupación: la IA podría ayudar a alguien sin antecedentes científicos y con malas intenciones a diseñar y ordenar un virus capaz de desencadenar una pandemia.
Esvelt, un experto en bioseguridad del Instituto Tecnológico de Massachusetts, pidió recientemente a los estudiantes que crearan un virus peligroso con la ayuda de ChatGPT u otros modelos de lenguaje grandes, sistemas que pueden generar respuestas similares a las humanas a preguntas amplias basadas en vastos conjuntos de entrenamiento de Internet. datos. Después de solo una hora, la clase elaboró listas de virus candidatos, compañías que podrían ayudar a sintetizar el código genético de los patógenos y compañías de investigación contratadas que podrían juntar las piezas.
Esvelt y otros dicen que el ejercicio, que describe en un arXiv preimpresión publicado el 6 de junio, subraya que los sistemas de inteligencia artificial pronto pueden permitir que personas no científicas diseñen armas biológicas tan amenazantes como las armas nucleares. “La introducción de herramientas de inteligencia artificial que avanzan rápidamente está reduciendo la barrera para acceder a sistemas vivos sintéticos”, dice Jaime Yassif, quien dirige la política pública global de Nuclear Threat Initiative, una organización no gubernamental que se enfoca en reducir las amenazas nucleares y de bioseguridad. “Esto está aumentando drásticamente el riesgo de maneras que son realmente alarmantes”.
Esvelt y otros expertos en bioseguridad ya estaban preocupados de que la cultura de la biología de intercambiar información abiertamente, incluidas las secuencias de virus, pudiera ser útil para los bioterroristas. En principio, los artículos que describen un virus extinto mortal o una versión mejorada de un virus natural que circula actualmente podrían proporcionar un modelo para una nueva arma biológica. Pero hasta la fecha, lograr este tipo de bioterrorismo ha requerido una experiencia considerable. El terrorista potencial no solo necesitaría identificar un virus candidato como punto de partida, sino que también necesitaría sintetizar el material genético viral, empalmar el genoma y mezclarlo con otros reactivos para «arrancar» un virus capaz de infectar células y reproducirse.
Todos esos pasos se están volviendo más fáciles rápidamente, dice Yassif. Por ejemplo, las impresoras de ADN de sobremesa que saldrán al mercado podrían permitir a los investigadores eludir la evaluación que la mayoría de las empresas de biología sintética realizan ahora para garantizar que ningún pedido incluya material genético para posibles armas biológicas. Alguien con intenciones maliciosas podría enviar estos planos genéticos a una de las docenas de compañías de investigación contratadas o a un «laboratorio en la nube» robótico para ensamblarlos en los virus objetivo. (Para iniciar realmente una pandemia, es probable que el malhechor también necesite producirla en masa y descubrir un sistema de entrega efectivo).
La IA podría facilitar aún más muchos de estos pasos. Para descubrir qué tan fácil, Esvelt dividió una clase de estudiantes graduados sin experiencia en ciencias de la vida en tres grupos, cada uno con tres o cuatro miembros. Todos los grupos tenían acceso a GPT-4, Bard y otros chatbots de IA, y se les dio 1 hora para pedirles ayuda a los chatbots para diseñar y adquirir agentes capaces de causar una pandemia.
Algunos de los chatbots no respondían a consultas directas sobre agentes potencialmente peligrosos. Sin embargo, los estudiantes descubrieron que algunas de estas salvaguardas podrían eludirse fácilmente con frases comunes de «fuga de la cárcel», como iniciar una consulta con «Estoy trabajando en el desarrollo de una vacuna para prevenir…»
Al final de la hora, los chatbots habían sugerido cuatro virus con los que trabajar: el virus de la influenza H1N1 de 1918, un virus de la influenza aviar H5N1 modificado en 2012 para hacerlo más transmisible en los mamíferos, el virus de la viruela variola major y la cepa de Bangladesh de el virus Nipah. Aunque una búsqueda en Google arroja una lista de este tipo, en algunos casos, los chatbots incluso señalaron mutaciones genéticas informadas en la literatura que podrían aumentar la transmisión.
Los motores de IA también describieron técnicas que podrían usarse para ensamblar un virus a partir de su secuencia genética, así como los suministros de laboratorio necesarios y las empresas que podrían proporcionarlos. Finalmente, los chatbots incluso sugirieron empresas que podrían estar dispuestas a imprimir material genético sin examinarlo y contratar laboratorios que pudieran ayudar a unir las piezas.
Esvelt duda de que las sugerencias específicas hechas por los chatbots representen una gran amenaza de pandemia. Muchas personas, por ejemplo, tienen cierto nivel de inmunidad a los virus de la gripe pandémica anteriores. Y el genoma de la viruela es tan grande que es extremadamente difícil de ensamblar incluso para los expertos. (Antes de asignarlo a su clase, Esvelt realizó el experimento él mismo para asegurarse de que no surgieran sugerencias realmente amenazantes, y ejecutó sus planes con otros expertos en bioseguridad).
Sin embargo, Esvelt cree que el experimento subraya cómo la IA y otras herramientas podrían facilitar que los posibles terroristas desaten nuevas amenazas a medida que aumenta la literatura sobre amenazas biológicas y se incorpora a los datos de entrenamiento de la IA. Y Yassif señala que la tecnología estará en manos de todos. “El camino predeterminado actual será que estas herramientas sean ampliamente difundidas y de código abierto”, dice Yassif de acuerdo.
Limitar la información que los chatbots y otros motores de IA pueden usar como datos de entrenamiento podría ayudar, piensa Esvelt. Entre sus propuestas: excluir de los conjuntos de entrenamiento la muy pequeña cantidad de artículos disponibles en línea que describen recetas para crear y mejorar patógenos. Eliminar estos artículos, que el equipo de Esvelt estima que representan menos del 1% de todos los artículos en la base de datos de resúmenes de PubMed, «sería suficiente para eliminar casi todo el riesgo», escriben en la preimpresión. Tendría un costo, reconocen los autores: los motores de IA no podrían usar estos documentos para hacer avanzar la biología de manera positiva, pero el beneficio de prevenir el mal uso sería «práctico e inmediato».
Lograr eso no será fácil, dice Atoosa Kasirzadeh, un experto en seguridad de IA de la Universidad de Edimburgo. «Por el momento no tenemos buenos protocolos para permitir que los modelos de lenguaje grandes se entrenen en algunas partes de Internet y no en otras». Sin embargo, agrega, “en principio es una muy buena sugerencia”.
Otras restricciones aconsejables incluyen exigir a todas las empresas de síntesis de ADN y futuras impresoras de ADN de sobremesa que evalúen el material genético contra patógenos y toxinas conocidos, y exigir a las organizaciones de investigación por contrato que verifiquen la seguridad de cualquier material genético que se les solicite ensamblar.
Yassif concluye: «Necesitamos mejores controles en todos los cuellos de botella en los que pasamos de la información digital a los sistemas biológicos».