Meta IA publicada un informe la semana pasada en su investigación de generación de texto a imagen de inteligencia artificial (IA). La tecnología, denominada Make-A-Scene, permite a los usuarios dibujar un boceto digital de forma libre para acompañar un mensaje de texto. Luego, la IA usa los dos juntos para producir una imagen generada por IA.
Meta AI, un laboratorio de IA propiedad de Facebook y la empresa matriz de Instagram, Meta Platforms responsable, se inició como un laboratorio de investigación en 2013. Make-A-Scene tiene como objetivo «realizar el potencial de la IA para impulsar la expresión creativa», según una publicación reciente del blog Meta AI.
“Nuestro modelo genera una imagen dada una entrada de texto y un diseño de escena opcional”, se lee en el informe. “Como se demostró en nuestros experimentos, al condicionar el diseño de la escena, nuestro método proporciona una nueva forma de control implícito, mejora la calidad y la consistencia estructural, y se adhiere a las preferencias humanas”.
El arte generativo, o arte que se ha hecho usando sistemas autónomos, tiene sus raíces en la década de 1960 cuando artistas como Vera Molnar y Grace Hertlein comenzaron a usar computadoras para ayudarse en su práctica.
Sin embargo, la idea de hacer arte a través de algún tipo de casualidad surgió mucho antes. A medida que la tecnología se ha desarrollado, el campo de estudio ha sufrido cambios dramáticos “en cuanto a quién puede hacer arte generativo, cómo lo hacen, cómo se ve e incluso los temas y temas que es capaz de abordar. Debido a que las herramientas y el trabajo están estrechamente relacionados, la historia del arte generativo puede verse como una historia de desarrollos en software y hardware”, escribió Jason Bailey en un artículo para Arte en América en enero de 2020.
Teniendo en cuenta el programa Artist-in-Residence de Facebook junto con Meta AI, la presentación del programa Make-A-Scene no sorprende.
“Para darse cuenta del potencial de la IA para impulsar la expresión creativa, las personas deberían poder moldear y controlar el contenido que genera un sistema”, se lee en la publicación del blog. “Debe ser intuitivo y fácil de usar para que las personas puedan aprovechar cualquier modo de expresión que les funcione mejor”.
Los investigadores utilizaron evaluadores humanos para evaluar las imágenes creadas por el programa de IA. “A cada uno se le mostraron dos imágenes generadas por Make-A-Scene: una generada solo a partir de un mensaje de texto y otra a partir de un boceto y un mensaje de texto”, explica la publicación.
La adición de la función de boceto dio como resultado una imagen final que estaba más alineada en un 66,3 por ciento con la descripción del texto, según la publicación. Sin embargo, para aquellos que no deseen dibujar, la opción de boceto no es necesaria para generar una imagen; los usuarios pueden optar por utilizar únicamente las descripciones de solo texto.
Si bien el software aún no está disponible para el público, ha sido probado por empleados y artistas seleccionados de inteligencia artificial Refik Anadol, Sofia Crespo, Scott Eaton y Alexander Reben.
“Estaba generando ideas, mezclando y combinando diferentes mundos”, señaló Anadol. “Literalmente estás sumergiendo el pincel en la mente de una máquina y pintando con conciencia de máquina”.
El gerente del programa Meta, Andy Boyatzis, por otro lado, “usó Make-A-Scene para generar arte con sus hijos pequeños de dos y cuatro años. Usaron dibujos divertidos para dar vida a sus ideas e imaginación”.
Meta ha aumentado la resolución potencial de la salida de Make-A-Scene cuatro veces hasta 2048 por 2048 píxeles desde la publicación del informe. Además, la compañía planea proporcionar demostraciones de acceso abierto, pero aún no ha anunciado una fecha de lanzamiento. Hasta entonces, los curiosos sobre la tecnología en desarrollo tendrán que esperar hasta octubre, cuando el proyecto se discutirá en la Conferencia Europea sobre Visión por Computador en Tel Aviv, Israel.