La IA podría acabar con los humanos, advierten los expertos. Crédito: David S. Soriano Creative Commons Reconocimiento-CompartirIgual 4.0
El Centro para la Seguridad de la IA ayer, 30 de mayo, emitió una dramática declaración advirtiendo sobre los riesgos de la Inteligencia Artificial (IA) para el futuro de la Humanidad.
La declaración incluye signatarios como el científico Geoffrey Hinton, a algunos conocidos como El Padrino de la IA, y Sam Altman, CEO de IA abierta que creó el chatbot Chat GPT.
El Centro para la seguridad de la IA publicó esto en Gorjeo dicho: «Hemos lanzado un declaración sobre el riesgo de extinción de AI. Los signatarios incluyen: – Tres ganadores del Premio Turing – Autores de los libros de texto estándar sobre AI/DL/RL: directores ejecutivos y ejecutivos de OpenAI, Microsoft, Google, Google DeepMind, Anthropic, muchos más”.
Hemos publicado una declaración sobre el riesgo de extinción de la IA.
Los signatarios incluyen:
– Tres ganadores del Premio Turing
– Autores de los libros de texto estándar sobre AI/DL/RL
– Directores ejecutivos y ejecutivos de OpenAI, Microsoft, Google, Google DeepMind, Anthropic
– Mucho mashttps://t.co/mkJWhCRVwB— Centro para la Seguridad de la IA (@ai_risks) 30 de mayo de 2023
En su declaración, han enumerado ocho ejemplos de riesgo de IA que incluyen:
Armamento: Los actores maliciosos podrían usar la IA para desestabilizar la política, crear armas químicas o potenciar el combate aéreo.
Desinformación: la IA se puede utilizar para crear grandes cantidades de información errónea y contenido persuasivo.
Proxy Gaming: AI podría encontrar nuevas formas de alcanzar objetivos sin pasar por los valores morales.
Debilitamiento: a medida que la humanidad se vuelva más dependiente de la IA, nosotros mismos seremos menos capaces.
Bloqueo de valor: la tecnología podría dar a un pequeño grupo de individuos un tremendo poder y conducir a la opresión.
Objetivos emergentes: la IA podría desarrollar sus propios objetivos y se podría perder el control sobre la tecnología.
Engaño: la IA podría optar por ser engañosa, ya que los sistemas pueden ver esto como la mejor manera de lograr los objetivos.
Comportamiento de búsqueda de poder: los gobiernos pueden encontrar útil tener poderosos agentes de inteligencia artificial, pero esto podría salirse fácilmente de control.
El periodico de Wall Street dicho en Gorjeo: “Los ejecutivos de tecnología y los científicos de inteligencia artificial están haciendo sonar la alarma sobre la IA, diciendo en una declaración conjunta el martes que la tecnología presenta un riesgo de extinción tan grande como las pandemias y la guerra nuclear”.
Los ejecutivos de tecnología y los científicos de inteligencia artificial están haciendo sonar la alarma sobre la IA y dijeron en un comunicado conjunto el martes que la tecnología presenta un riesgo de extinción tan grande como las pandemias y la guerra nuclear. https://t.co/LVFFTyBLpO
— El Diario de Wall Street (@WSJ) 30 de mayo de 2023
Se cree ampliamente que, aunque la posibilidad de que la tecnología de IA se salga de control de las formas mencionadas en el informe, el riesgo más inmediato es que los trabajos y los humanos sean reemplazados por tecnología. Empresas como BT e IBM ya están buscando comenzar esta transición.
La esperanza, tal como lo transmitió el CEO de Open AI, Sam Altman, cuando habló ante el Congreso de los EE. UU. sobre la necesidad de una regulación de la IA es que, si bien se perderán empleos, se crearán nuevos y mejores.