Garrigues Digital_

Innovación legal en la economía 4.0

 

Garrigues

ELIGE TU PAÍS / ESCOLHA O SEU PAÍS / CHOOSE YOUR COUNTRY / WYBIERZ SWÓJ KRAJ / 选择您的国家

La inteligencia artificial militar ha sido excluida del Reglamento europeo de IA, pero la OTAN y la normativa española han abordado estos usos

La reciente publicación del Reglamento de Inteligencia Artificial (IA) de la Unión Europea deja fuera de su ámbito de aplicación los usos militares de esta tecnología. Sin embargo, en los últimos meses ha habido a importantes avances tanto en el seno de la OTAN como en la normativa interna española para dotar de límites jurídicos a estos usos.

El Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio, por el que se establecen normas armonizadas en materia de inteligencia artificial (Reglamento de Inteligencia Artificial) deja fuera de su ámbito de aplicación tanto los sistemas de IA que se introduzcan en el mercado, se pongan en servicio o se utilicen, con o sin modificación con fines militares, de defensa o de seguridad nacional, como el uso militar en la UE de los resultados de salida de un sistema de IA no introducido en el mercado, o que no se ponga en servicio en la UE (artículo 2.3).

Esta exclusión, que ha sido polémica, en cuanto supone la ausencia de regulación de un tema capital en la primera norma de rango legal que realiza un esfuerzo por dotar de un régimen jurídico coherente e integral al fenómeno que está llamado a configurar el futuro inmediato de nuestras sociedades, no significa que los usos militares se hayan situado automáticamente al margen del derecho y que todo esté permitido en este campo.

Antes de la entrada en vigor del citado reglamento y mucho antes de la efectiva aplicación de las nuevas obligaciones que configura ya se han adoptado medidas para someter a Derecho el uso militar de la IA.

Esfuerzos de regulación a nivel supranacional

El primer paso lo dio la OTAN que, en la reunión de Ministros de Defensa del 22 de octubre de 2021, aprobó una Estrategia de Inteligencia Artificial que junto a importantes medidas de investigación y fomento de esta tecnología (que se ejecutará a través del Defence Innovation Accelerator for the North Atlantic -DIANA-) incorpora una regulación del uso militar de la IA mediante su sometimiento a seis principios generales: legalidad, responsabilidad y rendición de cuentas, inteligibilidad y trazabilidad, fiabilidad, gobernabilidad y mitigación del sesgo.

Para asegurar la implementación correcta de estos principios por los Estados miembros se ha creado un órgano específico: la Junta de Revisión de Datos e Inteligencia Artificial (DARB) integrada por un equipo multidisciplinar con representantes de todos los estados y que supervisa los usos de la IA y elaborará normas de certificación para facilitar que la industria militar y los ejércitos elaboren e implementen sistemas acordes con los citados principios.

Estos esfuerzos se suman a los del Parlamento Europeo que ha destacado desde hace años la necesidad de imponer un control humano sobre los sistemas de armas autónomos [destacando la resolución del Parlamento Europeo de 12 de septiembre de 2018, sobre los sistemas de armas autónomos (2018/2752 (RSP)) y las directrices sobre el uso militar y no militar de la IA aprobadas por el Pleno el 20 de enero de 2021] y a los esfuerzos por incorporar una regulación y control de estas armas en la agenda de las Naciones Unidas (como constata la reciente resolución de la Asamblea General 78/241, de 22 de diciembre de 2023).

La regulación en España

A nivel interno, el paso más decisivo ha sido la aprobación de la resolución 11197/2023, de 29 de junio, de la Secretaria de Estado de Defensa, por la que se aprueba la Estrategia de desarrollo, implantación y uso de la Inteligencia Artificial en el Ministerio de Defensa (B.O.M.D. nº 131, de 6 de julio de 2023).

En dicha resolución se incorporan los seis principios formulados por la OTAN y se añade el principio de privacidad. Se lleva a cabo así la siguiente formulación de los siete principios resultantes:

  • Legalidad: las aplicaciones de IA se desarrollarán y emplearán de acuerdo con el  derecho nacional e internacional que sea de aplicación, incluida la Declaración Universal de Derechos Humanos y el Derecho Internacional Humanitario.
  • Responsabilidad y rendición de cuentas: cualquier desarrollo de IA, así como su utilización, deberá permitir una clara supervisión humana con el fin de garantizar la debida rendición de cuentas y la atribución de responsabilidades.
  • Inteligibilidad y trazabilidad: las aplicaciones de IA serán comprensibles y transparentes para el personal relevante, incluyendo el uso de metodologías, fuentes y procedimientos auditables.
  • Fiabilidad y transparencia: las aplicaciones de IA estarán dirigidas a casos de uso explícitos, bien definidos y acotados y se proporcionará información para fomentar una comprensión general de estas aplicaciones por todas las partes interesadas. LA seguridad, la protección y la solidez de estas capacidades estarán sujetas a pruebas y garantías dentro de estos casos de usos a lo largo de todo su ciclo de vida.
  • Gobernabilidad: las aplicaciones de IA se desarrollarán y utilizarán de acuerdo con sus funciones previstas en el diseño, asegurando la capacidad de detectar y evitar consecuencias no deseadas. Se habilitarán mecanismos de desconexión o desactivación cuando se reconozcan comportamientos no previstos o indeseados.
  • Mitigación del sesgo: se tomarán todas las medidas necesarias para minimizar errores y orientaciones subjetivas en el desarrollo y aplicaciones de IA.
  • Privacidad: el desarrollo, la implementación y el uso de aplicaciones basadas en IA deben respetar la privacidad de las personas, desde el diseño y durante todo el ciclo de vida.

Ciertamente, una regulación mediante principios no tiene la precisión de una regulación más específica por reglas normativas concretas, pero la experiencia nos muestra que puede llegar a plantear límites operativos y eficaces ante la diversidad de problemas que puede plantear un fenómeno nuevo como la incorporación de la IA al uso militar.

Fomento del uso de IA en la defensa

Más allá del control del uso de la IA, la citada resolución 11197/2023 también incorpora medidas de fomento del uso de la IA en la defensa.

Destaca el establecimiento de líneas de acción estratégicas para potenciar el uso de la IA en las Fuerzas Armadas. Por ejemplo, priorizar el uso de la IA en la denominada nube de combate (donde cada plataforma contribuye a generar y recibir información), pero también potenciar las actividades de I+D+i y de formación en materia de IA al personal.

La estrategia determina asimismo los casos de uso iniciales de la IA en el ámbito militar en España (movilidad militar, inteligencia, guerra electrónica, autonomía en el comportamiento de sistemas no tripulados, apoyo logístico, conocimiento y vigilancia del entorno, ciberdefensa, apoyo a la toma de decisiones, análisis geoespacial, meteorológico y oceanográfico, gestión de la información y gestión del talento y la formación).

La gobernanza en materia de IA en defensa

Al margen de definir las responsabilidades generales de los órganos de alto nivel del Ministerio de Defensa, las Fuerzas Armadas y el servicio de inteligencia (Secretaría de Estado de Defensa, Jefe de Estado Mayor de la Defensa, Jefes de Estado Mayor de los Ejércitos y la Armada y Secretaría de Estado del CNI) se establece para el impulso y seguimiento de la estrategia una estructura de dirección formada por el Director General de Armamento y Material del Ministerio de Defensa y por el Director General del Centro de Sistemas y Tecnologías de la Información y las Comunicaciones (CESTIC), a los que se unirá un representante del EMAD cuando se traten capacidades operativas.

Dependiendo de esta estructura se crea un grupo de trabajo permanente para el desarrollo, coordinación, seguimiento y control de la estrategia, que asesorará a las autoridades en los asuntos éticos derivados del empleo de la IA en el ámbito militar, y una red de centros de referencia para el seguimiento técnico de proyectos de IA.