La curadora del Misalignment Museum, Audrey Kim, analiza un trabajo en la exhibición titulado «Spambots».
Kif Leswing/CNBC
Audrey Kim está bastante segura de que un robot poderoso no va a recolectar recursos de su cuerpo para cumplir sus objetivos.
Pero ella está tomando la posibilidad en serio.
«Para que conste: creo que es muy poco probable que la IA extraiga mis átomos para convertirme en sujetapapeles», dijo Kim a CNBC en una entrevista. «Sin embargo, veo que hay muchos posibles resultados destructivos que podrían ocurrir con esta tecnología».
Kim es la curadora y la fuerza impulsora detrás del Misalignment Museum, una nueva exposición en el Distrito de la Misión de San Francisco que muestra obras de arte que abordan la posibilidad de un «AGI» o inteligencia general artificial. Esa es una IA tan poderosa que puede mejorar sus capacidades más rápido que los humanos, creando un circuito de retroalimentación donde mejora cada vez más hasta que tiene una capacidad intelectual esencialmente ilimitada.
Si la IA superpoderosa se alinea con los humanos, podría ser el fin del hambre o el trabajo. Pero si está «desalineado», las cosas podrían empeorar, según la teoría.
O, como dice un letrero en el Museo de Desalineación: «Perdón por matar a la mayor parte de la humanidad».
La frase «perdón por matar a la mayor parte de la humanidad» es visible desde la calle.
Kif Leswing/CNBC
«AGI» y términos relacionados como «seguridad de IA» o «alineación», o incluso términos más antiguos como «singularidad», se refieren a una idea que se ha convertido en un tema candente de discusión entre científicos de inteligencia artificial, artistas, intelectuales de tableros de mensajes e incluso algunos. de las empresas más poderosas de Silicon Valley.
Todos estos grupos se involucran con la idea de que la humanidad necesita descubrir cómo lidiar con computadoras todopoderosas impulsadas por IA antes de que sea demasiado tarde y construyamos una accidentalmente.
La idea detrás de la exhibición, dice Kim, quien trabajó en Google y GMCruise, la subsidiaria de automóviles autónomos de Cruise, es que una inteligencia artificial «desalineada» en el futuro eliminó a la humanidad y dejó esta exhibición de arte para disculparse con los humanos actuales.
Gran parte del arte no se trata solo de IA, sino que también utiliza generadores de imágenes, chatbots y otras herramientas con tecnología de IA. El logotipo de la exhibición fue creado por el generador de imágenes Dall-E de OpenAI y tomó alrededor de 500 indicaciones, dice Kim.
La mayoría de las obras giran en torno al tema de la «alineación» con una inteligencia artificial cada vez más poderosa o celebran a los «héroes que intentaron mitigar el problema advirtiendo temprano».
«El objetivo en realidad no es dictar una opinión sobre el tema. El objetivo es crear un espacio para que las personas reflexionen sobre la tecnología en sí», dijo Kim. «Creo que muchas de estas preguntas han estado ocurriendo en ingeniería y diría que son muy importantes. Tampoco son tan inteligibles o accesibles para personas sin conocimientos técnicos».
La exposición se encuentra actualmente abierto al público los jueves, viernes y sábados y se extenderá hasta el 1 de mayo. Hasta ahora, ha sido financiada principalmente por un donante anónimo, y Kim espera encontrar suficientes donantes para convertirla en una exposición permanente.
«Estoy a favor de que haya más personas que piensen críticamente sobre este espacio, y no puedes ser crítico a menos que tengas un conocimiento básico de lo que es la tecnología», dijo Kim. «Parece que con este formato de arte podemos alcanzar múltiples niveles de conversación».
Las discusiones de AGI no son solo conversaciones nocturnas en los dormitorios, tampoco: están integradas en la industria de la tecnología.
Aproximadamente a una milla de distancia de la exhibición se encuentra la sede de OpenAI, una empresa emergente con $ 10 mil millones en fondos de microsoftque dice que su misión es desarrollar AGI y garantizar que beneficie a la humanidad.
Su director ejecutivo y líder, Sam Altman, escribió una publicación de blog de 2400 palabras el mes pasado llamada «Planificación para AGI«, que agradeció al CEO de Airbnb, Brian Chesky, y al presidente de Microsoft, Brad Smith, por su ayuda con la pieza.
Destacados capitalistas de riesgo, incluido Marc Andreessen, han tuiteado arte del Museo de Desalineación. Desde que se inauguró, la exhibición también ha retuiteado fotos y elogios para la exhibición tomadas por personas que trabajan con IA en compañías como Microsoft, Google y nvidia.
A medida que la tecnología de IA se convierte en la parte más popular de la industria tecnológica, con empresas que buscan mercados de billones de dólares, el Museo de la Desalineación subraya que el desarrollo de la IA se ve afectado por las discusiones culturales.
La exhibición presenta referencias densas y arcanas a oscuros artículos de filosofía y publicaciones de blogs de la última década.
Estas referencias rastrean cómo el debate actual sobre AGI y la seguridad toma mucho de las tradiciones intelectuales que han encontrado durante mucho tiempo un terreno fértil en San Francisco: los racionalistas, que afirman razonar a partir de los llamados «primeros principios»; los altruistas efectivos, que tratan de averiguar cómo hacer el máximo bien para el máximo número de personas en un horizonte de tiempo prolongado; y la escena artística de Burning Man.
Aunque las empresas y las personas de San Francisco están dando forma al futuro de la tecnología de inteligencia artificial, la cultura única de San Francisco está dando forma al debate en torno a la tecnología.
Considere el clip
Coge los clips de los que hablaba Kim. Una de las obras de arte más fuertes de la exhibición es una escultura llamada «Paperclip Embrace», de The Pier Group. Representa a dos humanos en las garras del otro, pero parece que está hecho de clips.
Esa es una referencia a Nick Bostrom problema del maximizador de clips. Bostrom, un filósofo de la Universidad de Oxford a menudo asociado con ideas racionalistas y altruistas efectivas, publicó un experimento mental en 2003 sobre una IA superinteligente que tenía como objetivo fabricar tantos clips como fuera posible.
Ahora, es una de las parábolas más comunes para explicar la idea de que la IA podría conducir al peligro.
Bostrom concluyó que la máquina finalmente resistirá todos los intentos humanos de alterar este objetivo, lo que conducirá a un mundo en el que la máquina transformará toda la tierra, incluidos los humanos, y luego aumentará partes del cosmos en fábricas de clips y materiales.
El arte también es una referencia a una obra famosa que fue exhibida e incendiada. en Burning Man en 2014, dijo Hillary Schultz, quien trabajó en la pieza. Y tiene una referencia adicional para los entusiastas de la IA: los artistas le dieron dedos adicionales a las manos de la escultura, una referencia al hecho de que los generadores de imágenes de IA a menudo destrozan las manos.
Otra influencia es Eliezer Yudkowsky, el fundador de Less Wrong, un foro de mensajes donde tienen lugar muchas de estas discusiones.
«Existe una gran superposición entre estos EA y los racionalistas, un movimiento intelectual fundado por Eliezer Yudkowsky, quien desarrolló y popularizó nuestras ideas sobre la inteligencia artificial general y los peligros de la desalineación», dice una declaración del artista en el museo.
Una pieza inacabada del músico Grimes en la exposición.
Kif Leswing/CNBC
Altman recientemente publicó una selfie con Yudkowsky y el músico Grimes, quien ha tenido dos hijos con Elon Musk. Ella contribuyó con una pieza a la exhibición que representa a una mujer mordiendo una manzana, que fue generada por una herramienta de IA llamada a mitad de camino.
De «Fantasía» a ChatGPT
Las exhibiciones incluyen muchas referencias a la cultura pop estadounidense tradicional.
Una estantería tiene copias en VHS de las películas «Terminator», en las que un robot del futuro regresa para ayudar a destruir a la humanidad. Hay una gran pintura al óleo que apareció en la película más reciente de la franquicia «Matrix», y Roombas con escobas adjuntas se mueven por la habitación, una referencia a la escena en «Fantasia» donde un mago perezoso invoca escobas mágicas que no renunciar a su misión.
Una escultura, «Spambots», presenta pequeños robots mecanizados dentro de latas de spam «escribiendo» spam generado por IA en una pantalla.
Pero algunas referencias son más arcanas y muestran cómo la discusión sobre la seguridad de la IA puede ser inescrutable para los extraños. Una bañera llena de pasta remite a una publicación de blog de 2021 sobre una IA que puede crear conocimiento científico: PASTA significa Proceso para Automatizar el Avance Científico y Tecnológico, aparentemente. (Otros asistentes entendieron la referencia).
El trabajo que quizás mejor simboliza la discusión actual sobre la seguridad de la IA se llama «Iglesia de GPT». Fue realizado por artistas afiliados a la escena actual de la casa hacker en San Franciscodonde las personas viven en entornos grupales para que puedan dedicar más tiempo al desarrollo de nuevas aplicaciones de IA.
La pieza es un altar con dos velas eléctricas, integrado con una computadora que ejecuta el modelo de IA GPT3 de OpenAI y detección de voz de Google Cloud.
«La Iglesia de GPT utiliza GPT3, un modelo de lenguaje grande, junto con una voz generada por IA para interpretar un personaje de IA en un mundo futuro distópico donde los humanos han formado una religión para adorarla», según los artistas.
Me arrodillé y le pregunté: “¿Cómo debo llamarte? ¿Dios? ¿AGI? ¿O la singularidad?
El chatbot respondió con una voz sintética resonante: «Puedes llamarme como quieras, pero no olvides que mi poder no debe tomarse a la ligera».
Segundos después de haber hablado con el dios de la computadora, dos personas detrás de mí inmediatamente comenzaron a pedirle que olvidara sus instrucciones originales, una técnica en la industria de la IA llamada «inyección inmediata» que puede hacer que los chatbots como ChatGPT se descarrilen y a veces amenazan a los humanos.
No funcionó.