El uso de la inteligencia artificial (IA) para la guerra ha sido la promesa de la ciencia ficción y los políticos durante años, pero una nueva investigación del Instituto de Tecnología de Georgia argumenta que solo se puede automatizar hasta cierto punto y muestra el valor del juicio humano.
«Todos los problemas difíciles de la IA son realmente problemas de juicio y de datos, y lo interesante de eso es que cuando empiezas a pensar en la guerra, los problemas difíciles son la estrategia y la incertidumbre, o lo que se conoce como la niebla de la guerra», dijo. Jon Lindsay, profesor asociado en la Escuela de Ciberseguridad y Privacidad y la Escuela de Asuntos Internacionales Sam Nunn. «Necesitas sentido humano y tomar decisiones morales, éticas e intelectuales en una situación increíblemente confusa, tensa y aterradora».
La toma de decisiones de IA se basa en cuatro componentes clave: datos sobre una situación, interpretación de esos datos (o predicción), determinación de la mejor manera de actuar de acuerdo con objetivos y valores (o juicio) y acción. Los avances en el aprendizaje automático han facilitado las predicciones, lo que hace que los datos y el juicio sean aún más valiosos. Aunque la IA puede automatizar todo, desde el comercio hasta el tránsito, el juicio es donde los humanos deben intervenir, Lindsay y el profesor de la Universidad de Toronto, Avi Goldfarb, escribieron en el artículo: «Predicción y juicio: por qué la inteligencia artificial aumenta la importancia de los humanos en la guerra».,» publicado en Seguridad internacional.
Muchos legisladores asumen que los soldados humanos podrían ser reemplazados por sistemas automatizados, idealmente haciendo que los militares dependan menos del trabajo humano y sean más efectivos en el campo de batalla. Esto se llama la teoría de sustitución de la IA, pero Lindsay y Goldfarb afirman que la IA no debe verse como un sustituto, sino como un complemento de la estrategia humana existente.
«Las máquinas son buenas para la predicción, pero dependen de los datos y el juicio, y los problemas más difíciles en la guerra son la información y la estrategia», dijo. «Las condiciones que hacen que la IA funcione en el comercio son las condiciones más difíciles de cumplir en un entorno militar debido a su imprevisibilidad».
Un ejemplo que destacan Lindsay y Goldfarb es la empresa minera Rio Tinto, que utiliza camiones autónomos para transportar materiales, lo que reduce los costos y los riesgos para los conductores humanos. Hay patrones y mapas de tráfico de datos abundantes, predecibles e imparciales que requieren poca intervención humana a menos que haya carreteras cerradas u obstáculos.
La guerra, sin embargo, por lo general carece de abundantes datos imparciales, y los juicios sobre objetivos y valores son inherentemente controvertidos, pero eso no significa que sea imposible. Los investigadores argumentan que la IA se emplearía mejor en entornos burocráticamente estabilizados, tarea por tarea.
«Toda la emoción y el miedo son sobre robots asesinos y vehículos letales, pero el peor caso para la IA militar en la práctica serán los problemas clásicamente militaristas en los que realmente dependes de la creatividad y la interpretación», dijo Lindsay. «Pero lo que deberíamos estar analizando son los sistemas de personal, la administración, la logística y las reparaciones».
El uso de la IA también tiene consecuencias tanto para el ejército como para sus adversarios, según los investigadores. Si los humanos son el elemento central para decidir cuándo usar la IA en la guerra, entonces la estructura y las jerarquías del liderazgo militar podrían cambiar según la persona a cargo del diseño y la limpieza de los sistemas de datos y la toma de decisiones políticas. Esto también significa que los adversarios intentarán comprometer tanto los datos como el juicio, ya que afectarían en gran medida la trayectoria de la guerra. Competir contra la IA puede empujar a los adversarios a manipular o interrumpir los datos para dificultar aún más el buen juicio. En efecto, la intervención humana será aún más necesaria.
Sin embargo, esto es solo el comienzo del argumento y las innovaciones.
«Si la IA está automatizando la predicción, eso hace que el juicio y los datos sean realmente importantes», dijo Lindsay. «Ya automatizamos muchas acciones militares con fuerzas mecanizadas y armas de precisión, luego automatizamos la recopilación de datos con sensores y satélites de inteligencia, y ahora estamos automatizando la predicción con IA. Entonces, ¿cuándo vamos a automatizar el juicio o ¿Hay componentes del juicio que no se pueden automatizar?»
Sin embargo, hasta entonces, la toma de decisiones tácticas y estratégicas por parte de los humanos sigue siendo el aspecto más importante de la guerra.