Profesor Yoshua Bengio, en la Cumbre One Young World en Montreal, Canadá, el viernes 20 de septiembre de 2024
El famoso científico informático Yoshua Bengio, un pionero de la inteligencia artificial, advirtió sobre los posibles efectos negativos de la tecnología naciente en la sociedad y pidió más investigación para mitigar sus riesgos.
Bengio, profesor de la Universidad de Montreal y director del Instituto de Algoritmos de Aprendizaje de Montreal, ha ganado múltiples premios por su trabajo en aprendizaje profundo, un subconjunto de la IA que intenta imitar la actividad del cerebro humano para aprender a reconocer complejos. patrones en los datos.
Pero le preocupa la tecnología y advirtió que algunas personas con «mucho poder» podrían incluso querer ver a la humanidad reemplazada por máquinas.
«Es realmente importante proyectarnos hacia un futuro donde tengamos máquinas que sean tan inteligentes como nosotros en muchos aspectos, y qué significaría eso para la sociedad», dijo Bengio a Tania Bryer de CNBC en la Cumbre One Young World en Montreal.
Las máquinas pronto podrían tener la mayoría de las capacidades cognitivas de los humanos, dijo: la inteligencia artificial general (AGI) es un tipo de tecnología de inteligencia artificial que apunta a igualar o mejorar el intelecto humano.
«La inteligencia da poder. Entonces, ¿quién va a controlar ese poder?» dijo. «Tener sistemas que saben más que la mayoría de la gente puede ser peligroso en las manos equivocadas y crear más inestabilidad a nivel geopolítico, por ejemplo, o terrorismo».
Según Bengio, un número limitado de organizaciones y gobiernos podrán permitirse el lujo de construir poderosas máquinas de IA, y cuanto más grandes sean los sistemas, más inteligentes se volverán.
«Estas máquinas, ya sabes, cuestan miles de millones de dólares para construirlas y entrenarlas. [and] muy pocas organizaciones y muy pocos países podrán hacerlo. Eso ya es así», afirmó.
«Habrá una concentración de poder: poder económico, que puede ser malo para los mercados; poder político, que podría ser malo para la democracia; y poder militar, que podría ser malo para la estabilidad geopolítica de nuestro planeta. Así que, muchos preguntas abiertas que debemos estudiar con cuidado y comenzar a mitigar tan pronto como podamos».
No tenemos métodos para asegurarnos de que estos sistemas no dañen a las personas o no se vuelvan contra ellas… No sabemos cómo hacerlo.
Yoshua Bengio
Jefe del Instituto de Algoritmos de Aprendizaje de Montreal
Esos resultados son posibles dentro de décadas, afirmó. «Pero si son cinco años, no estamos preparados… porque no tenemos métodos para asegurarnos de que estos sistemas no dañen a las personas o no se vuelvan contra las personas… No sabemos cómo hacerlo», añadió. .
Hay argumentos que sugieren que la forma en que se entrenan actualmente las máquinas de IA «conduciría a sistemas que se volverían contra los humanos», dijo Bengio.
«Además, hay personas que tal vez quieran abusar de ese poder, y hay personas que podrían estar felices de ver a la humanidad reemplazada por máquinas. Quiero decir, es marginal, pero estas personas pueden tener mucho poder, y pueden hacerlo a menos que pongamos las barreras adecuadas ahora mismo», afirmó.
Orientación y regulación de la IA
Bengio respaldó una carta abierta en junio titulado: «Un derecho a advertir sobre la inteligencia artificial avanzada». Fue firmado por empleados actuales y anteriores de Open AI, la compañía detrás del chatbot viral de IA ChatGPT.
La carta advertía sobre los «riesgos graves» del avance de la IA y pedía orientación a los científicos, los responsables políticos y el público para mitigarlos. OpenAI ha estado sujeto a crecientes preocupaciones de seguridad en los últimos meses, y su equipo «AGI Readiness» se disolvió en octubre.
«Lo primero que deben hacer los gobiernos es contar con regulaciones que obliguen [companies] «Los gobiernos deben saber dónde están, ya sabes, los detalles de estos sistemas».
Como la IA evoluciona tan rápidamente, los gobiernos deben «ser un poco creativos» y elaborar leyes que puedan adaptarse a los cambios tecnológicos, dijo Bengio.
No es demasiado tarde para dirigir la evolución de las sociedades y de la humanidad en una dirección positiva y beneficiosa.
Yoshua Bengio
Jefe del Instituto de Algoritmos de Aprendizaje de Montreal
Según el informático, las empresas que desarrollan IA también deben ser responsables de sus acciones.
«La responsabilidad es también otra herramienta que puede obligar [companies] comportarse bien, porque… si se trata de su dinero, el miedo a ser demandados, eso los empujará a hacer cosas que protejan al público. Si saben que no pueden ser demandados, porque ahora mismo es una especie de zona gris, entonces no necesariamente se comportarán bien», afirmó.[Companies] compiten entre sí y, ya sabes, piensan que el primero en llegar a AGI dominará. Así que es una carrera, y es una carrera de peligro».
El proceso de legislar para hacer que la IA sea segura será similar a la forma en que se desarrollaron reglas para otras tecnologías, como aviones o automóviles, dijo Bengio. «Para disfrutar de los beneficios de la IA, tenemos que regular. Tenemos que poner [in] barandillas. Tenemos que tener un control democrático sobre cómo se desarrolla la tecnología», afirmó.
Desinformación
La difusión de información errónea, especialmente en torno a las elecciones, es una preocupación creciente a medida que se desarrolla la IA. En octubre, OpenAI dijo que había interrumpido «más de 20 operaciones y redes engañosas de todo el mundo que intentaban utilizar nuestros modelos». Estos incluyen publicaciones sociales de cuentas falsas generadas antes de las elecciones en Estados Unidos y Ruanda.
«Una de las mayores preocupaciones a corto plazo, pero que irá creciendo a medida que avancemos hacia sistemas más capaces, es la desinformación, la desinformación y la capacidad de la IA para influir en la política y las opiniones», dijo Bengio. «A medida que avancemos, tendremos máquinas que podrán generar imágenes más realistas, imitaciones de voces con sonido más realistas y vídeos más realistas», dijo.
Esta influencia podría extenderse a las interacciones con chatbots, dijo Bengio, refiriéndose a un estudio realizado por investigadores italianos y suizos que muestran que el modelo de lenguaje grande GPT-4 de OpenAI puede persuadir a las personas a cambiar de opinión mejor que un humano. «Esto fue sólo un estudio científico, pero se puede imaginar que hay gente leyendo esto y queriendo hacerlo para interferir con nuestros procesos democráticos», dijo.
La ‘pregunta más difícil de todas’
Bengio dijo que la «pregunta más difícil de todas» es: «Si creamos entidades que son más inteligentes que nosotros y tienen sus propios objetivos, ¿qué significa eso para la humanidad? ¿Estamos en peligro?».
«Todas estas son preguntas muy difíciles e importantes, y no tenemos todas las respuestas. Necesitamos mucha más investigación y precaución para mitigar los riesgos potenciales», dijo Bengio.
Instó a la gente a actuar. «Tenemos capacidad de acción. No es demasiado tarde para dirigir la evolución de las sociedades y de la humanidad en una dirección positiva y beneficiosa», afirmó. «Pero para eso, necesitamos suficiente gente que entienda tanto las ventajas como los riesgos, y necesitamos suficiente gente para trabajar en las soluciones. Y las soluciones pueden ser tecnológicas, pueden ser políticas… políticas, pero necesitamos suficiente esfuerzo». en esa dirección ahora mismo», dijo Bengio.
– Hayden Field y Sam Shead de CNBC contribuyeron a este informe.