Inteligencia Artificial: Los nuevos principios éticos del Pentágono
El Departamento de Defensa de Estados Unidos está optando por tomar nuevos principios éticos mientras se preparan para acelerar el uso de la inteligencia artificial en el campo de batalla.
La sede del Departamento de Defensa de Estados Unidos está tomando nuevos principios éticos mientras que se preparan para acelerar el uso de inteligencia artificial en el campo de batalla. Las condiciones que se establecieron deben “ejercer niveles apropiados de juicio y cuidado” para desarrollar o dar uso de sistemas de inteligencia artificial, como por ejemplo aquellos que pueden escanear fotografías aéreas en busca de objetivos.
Las autoridades de EE.UU. afirmaron que la toma de decisiones por estos sistemas automatizados tiene que ser “rastreables” y “gobernables”. Esto significa que “debe existir la forma de desconectarlas o desactivarlas en caso de que demuestren un comportamiento no deseado”, comentó el teniente general de la Fuerza Aérea Jack Shanahan, director del Centro Conjunto de Inteligencia Artificial del Pentágono.
Varias compañías tecnológicas han generado una disputa con el Pentágono por su intento de acelerar sus capacidades de inteligencia artificial en torno a un contrato de cómputo en la nube evaluado en 10.000 millones de dólares. Esto es conocido como la Iniciativa Conjunta de Infraestructura de Defensa (JEDI).
Microsoft fue la empresa que ganó la licitación en 2019, pero no ha podido comenzar el proyecto de una década debido a que Amazon demandó al Pentágono con el motivo de que el Presidente de EE.UU, Donald Trump, hacía campaña antipática hacia la compañía y a su director, Jeff Bezos, los cuales fueron perjudiciales para la firma para obtener el contrato.
Inteligencia artificial antigua
Desde el 2012 existe una directriz militar que sigue en funcionamiento actualmente. Sin embargo, este necesita que los humanos estén en control de estas armas automatizadas, pero no involucra otros aspectos de la inteligencia artificial. Estados Unidos tiene el objetivo de establecer lineamientos para las aplicaciones agresivas y no agresivas, para alcanzar inteligencia y operaciones de espionaje para predecir los problemas de mantenimiento en embarcaciones y aeronaves.
El Departamento de Defensa de Estados Unidos reconoció que la inteligencia artificial “genera ambigüedades y riesgos éticos”. La Junta de Innovación de Defensa recomendaron las medidas en un grupo encabezado por el ex director general de Google, Eric Schmidt.
“Me preocupa que estos principios sean un proyecto antiético”, aseguró Lucy Suchman, antropóloga que estudia el papel de la inteligencia artificial en tiempos de guerra. “La palabra adecuado se presta a muchas interpretaciones”.
El jefe de la fuerza aérea, manifestó que en un principio habían sido poco rigurosos intencionalmente para evitar que el ejército de Estados Unidos “quede atado a restricciones específicas que puedan volverse obsoletas”.
“La tecnología se adapta. La tecno0logía evoluciona”, declaró Shanahan.