La inteligencia artificial, específicamente modelos de lenguaje grande como ChatGPT, teóricamente puede brindar a los delincuentes la información necesaria para cubrir sus huellas antes y después de un delito, y luego borrar esa evidencia, advierte un experto.
Los modelos de lenguaje grande, o LLM, constituyen un segmento de la tecnología de IA que utiliza algoritmos que pueden reconocer, resumir, traducir, predecir y generar texto y otro contenido basado en el conocimiento obtenido de conjuntos de datos masivos.
ChatGPT es el LLM más conocido, y su desarrollo rápido y exitoso ha creado inquietud entre algunos expertos y provocó una audiencia en el Senado para escuchar a Sam Altman, el director ejecutivo del fabricante de ChatGPT, OpenAI, quien presionó por la supervisión.
Corporaciones como Google y Microsoft están desarrollando IA a un ritmo acelerado. Pero cuando se trata de delitos, eso no es lo que asusta al Dr. Harvey Castro, un médico de emergencia certificado por la junta y orador nacional sobre inteligencia artificial que creó su propio LLM llamado «Sherlock».
EL PRIMER PRESIDENTE DE LA UNIVERSIDAD DE IA DEL MUNDO DICE QUE LA TECNOLOGÍA INTERRUMPIRÁ LOS PRINCIPIOS EDUCATIVOS Y CREARÁ ‘ACADÉMICOS DEL RENACIMIENTO’
Es el «chico de 18 años sin escrúpulos» el que puede crear su propio LLM sin las barandillas y protecciones y vendérselo a posibles delincuentes, dijo.
«Una de mis mayores preocupaciones no son los grandes, como Microsoft, Google u OpenAI ChatGPT», dijo Castro. «En realidad, no estoy muy preocupado por ellos, porque siento que se están autorregulando, y el gobierno está mirando y el mundo está mirando y todos los van a regular.
«En realidad, estoy más preocupado por esos adolescentes o alguien que simplemente está ahí afuera, que es capaz de crear su propio modelo de lenguaje grande por su cuenta que no se adherirá a las regulaciones, e incluso pueden venderlo en el mercado negro. Yo Estoy realmente preocupado por eso como una posibilidad en el futuro».
¿QUÉ ES LA IA?
El 25 de abril, OpenAI.com dijo que el último modelo de ChatGPT tendrá la capacidad de desactivar el historial de chat.
«Cuando el historial de chat esté deshabilitado, retendremos las conversaciones nuevas durante 30 días y las revisaremos solo cuando sea necesario para monitorear el abuso, antes de eliminarlas de forma permanente», dijo OpenAI.com en su anuncio.
MIRA AL DR. HARVEY CASTRO EXPLICA Y DEMUESTRA SU LLM «SHERLOCK»
La capacidad de usar ese tipo de tecnología, con el historial de chat deshabilitado, podría resultar beneficiosa para los delincuentes y problemática para los investigadores, advirtió Castro. Para poner el concepto en escenarios del mundo real, tome dos casos penales en curso en Idaho y Massachusetts.
EL JEFE DE OPENAI, ALTMAN, DESCRIBIÓ LO QUE LA IA «ATERRADORA» SIGNIFICA PARA ÉL, PERO CHATGPT TIENE SUS PROPIOS EJEMPLOS
Bryan Kohberger estaba cursando un doctorado. en criminología cuando supuestamente mató a cuatro estudiantes universitarios de la Universidad de Idaho en noviembre de 2022. Amigos y conocidos lo han descrito como un «genio» y «realmente inteligente» en entrevistas anteriores con Fox News Digital.
En Massachusetts está el caso de Brian Walshe, quien presuntamente asesinó a su esposa, Ana Walshe, en enero y se deshizo de su cuerpo. El caso de asesinato en su contra se basa en pruebas circunstanciales, incluida una larga lista de supuestas búsquedas en Google, como la forma de deshacerse de un cuerpo.
BRYAN KOHBERGER ACUSADO DE ASESINATOS DE ESTUDIANTES EN IDAHO
El temor de Castro es que alguien con más experiencia que Kohberger pueda crear un chat de IA y borrar el historial de búsqueda que podría incluir pruebas vitales en un caso como el de Walshe.
«Por lo general, las personas pueden quedar atrapadas usando Google en su historial», dijo Castro. «Pero si alguien creó su propio LLM y permitió al usuario hacer preguntas mientras le decía que no mantuviera un historial de nada de esto, puede obtener información sobre cómo matar a una persona y cómo deshacerse del cuerpo».
En este momento, ChatGPT se niega a responder ese tipo de preguntas. Bloquea «ciertos tipos de contenido inseguro» y no responde «solicitudes inapropiadas», según OpenAI.
¿CUÁL ES LA HISTORIA DE LA IA?
Durante el testimonio en el Senado de la semana pasada, Altman les dijo a los legisladores que GPT-4, el último modelo, rechazará solicitudes dañinas como contenido violento, contenido sobre autolesiones y contenido para adultos.
“No es que pensemos que el contenido para adultos sea intrínsecamente dañino, pero hay cosas que podrían estar asociadas con eso que no podemos diferenciar de manera confiable. Así que lo rechazamos todo”, dijo Altman, quien también discutió otras salvaguardas como restricciones de edad.
«Crearía un conjunto de estándares de seguridad enfocados en lo que dijo en su tercera hipótesis como evaluaciones de capacidad peligrosa», dijo Altman en respuesta a las preguntas de un senador sobre qué reglas deberían implementarse.
HERRAMIENTAS DE IA UTILIZADAS POR LA POLICÍA QUE ‘NO ENTIENDEN CÓMO FUNCIONAN ESTAS TECNOLOGÍAS’: ESTUDIO
«Un ejemplo que hemos usado en el pasado es ver si un modelo puede autorreplicarse y vender el exfiltrado en la naturaleza. Podemos darle a su oficina una larga lista de las cosas que creemos que son importantes allí, pero pruebas específicas que un modelo tiene que pasar antes de que pueda desplegarse en el mundo.
«Y luego, en tercer lugar, requeriría auditorías independientes. Entonces, no solo de la compañía o la agencia, sino también de expertos que puedan decir que el modelo cumple o no con estos umbrales de seguridad establecidos y estos porcentajes de rendimiento en la pregunta X o Y. «
Para poner los conceptos y la teoría en perspectiva, Castro dijo: «Supongo que el 95 % de los estadounidenses no saben qué son los LLM o ChatGPT», y preferiría que fuera así.
INTELIGENCIA ARTIFICIAL: PREGUNTAS FRECUENTES SOBRE IA
Pero existe la posibilidad de que la teoría de Castro se haga realidad en un futuro no muy lejano.
Aludió a un proyecto de investigación de IA ahora terminado por la Universidad de Stanford, que fue apodado «Alpaca».
Un grupo de científicos informáticos creó un producto cuya construcción costó menos de $ 600 y que tenía un «rendimiento muy similar» al modelo GPT-3.5 de OpenAI, según el anuncio inicial de la universidad, y se ejecutaba en computadoras Raspberry Pi y un teléfono inteligente Pixel 6.
¿CUÁLES SON LOS PELIGROS DE LA IA? DESCUBRE POR QUÉ LA GENTE TIENE MIEDO A LA INTELIGENCIA ARTIFICIAL
A pesar de su éxito, los investigadores terminaron el proyecto, citando problemas de licencia y seguridad. El producto no fue «diseñado con las medidas de seguridad adecuadas», dijeron los investigadores en un comunicado de prensa.
“Resaltamos que la alpaca está destinada únicamente a la investigación académica y cualquier uso comercial está prohibido”, según los investigadores. «Hay tres factores en esta decisión: primero, Alpaca se basa en LLaMA, que tiene una licencia no comercial, por lo que necesariamente heredamos esta decisión».
HAGA CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS
Los investigadores continuaron diciendo que los datos de instrucción se basan en el texto-davinci-003 de OpenAI, «cuyos términos de uso prohíben desarrollar modelos que compitan con OpenAI. Finalmente, no hemos diseñado medidas de seguridad adecuadas, por lo que Alpaca no está listo para implementarse». para uso general».
Pero la creación exitosa de Stanford infunde miedo en la visión de Castro, que de otro modo estaría medio llena, de cómo OpenAI y los LLM pueden cambiar potencialmente a la humanidad.
«Tiendo a ser un pensador positivo», dijo Castro, «y estoy pensando que todo esto se hará para siempre. Y espero que las grandes corporaciones pongan sus propias barreras y se autorregulen». «