Garrigues Digital_

Innovación legal en la economía 4.0

 

Garrigues

ELIGE TU PAÍS / ESCOLHA O SEU PAÍS / CHOOSE YOUR COUNTRY / WYBIERZ SWÓJ KRAJ / 选择您的国家

La inteligencia artificial aplicada a la investigación criminal, todo un reto en la defensa de derechos fundamentales

Julián Lozano, asociado principal del área de Resolución de conflictos de Garrigues.


 

Uno de los principales riesgos de la inteligencia artificial desde el punto de vista del Derecho penal es la desconfianza en el sistema utilizado y la posible falta de transparencia del algoritmo, pues dañaría al derecho de defensa. 

Difícilmente podríamos abordar el reto de la inteligencia artificial sin entender que se trata de una revolución tecnológica transversal, es decir, que afecta y afectará a todas las profesiones, al orden económico y a nuestra Administración. E ingenuo sería sostener que algún oficio quedará al margen de esta, o que algún sector no se verá (tan) influenciado por la inteligencia artificial, o que los derechos de los ciudadanos no se verán de algún modo redefinidos por la presencia de los algoritmos.

Pero ¿hasta dónde está dispuesta la sociedad a que la inteligencia artificial interceda y altere los principios y fundamentos básicos de nuestro Estado de Derecho? Uno de los sectores más representativos de este riesgo y de nuestro reto es el de la incorporación de la inteligencia artificial en la investigación criminal y en la propia Administración de Justicia. ¿Estamos dispuestos a ceder el control de nuestros derechos fundamentales a un algoritmo, a una maquinita, en definitiva?

Una cosa es que hablemos del uso de la inteligencia artificial para fines de entretenimiento o productividad y otra bien distinta es hablar de los usos de la inteligencia artificial en la investigación criminal, incluso predictiva, o el uso de sistemas algorítmicos como sustitutivos de una decisión policial o de una resolución judicial.

La Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial), de 21 de abril de 2021, considera sistemas de inteligencia artificial de “alto riesgo”, entre otros, los usos que las autoridades públicas puedan darle para “realizar evaluaciones del riesgo individuales, los polígrafos y herramientas similares, o los sistemas utilizados para detectar el estado emocional de una persona física; para detectar ultrafalsificaciones; para evaluar la fiabilidad de las pruebas en un proceso penal; para predecir la comisión o reiteración de un delito real o potencial mediante la elaboración de perfiles de personas físicas; para evaluar rasgos y características de la personalidad o conductas delictivas pasadas de personas físicas o grupos; para elaborar perfiles durante la detección, la investigación o el enjuiciamiento de infracciones penales, y para realizar análisis penales en relación con personas físicas” (este listado de casos de uso puede verse modificado tras los trílogos, la fase en la que la Comisión, el Consejo y el Parlamento deben ponerse de acuerdo en un texto final de la propuesta de Reglamento).

Uno de los más controvertidos usos de la inteligencia artificial está en la posibilidad de  “predecir la comisión o reiteración de un delito real o potencial mediante la elaboración de perfiles de personas físicas, y para evaluar rasgos y características de la personalidad, o conductas delictivas pasadas de personas físicas o grupos”, es decir, la predicción del riesgo de comisión delictiva o de reincidencia de un determinado individuo -incluso de manera potencial- con base en los rasgos, en la personalidad o los antecedentes de personas que únicamente podrían ser sospechosas.

La normativa parece apuntar a que tales usos estarán prohibidos (artículo 5 de la propuesta de Reglamento europeo) en una generalidad de supuestos, aunque trata de establecer cierto equilibrio o proporcionalidad cuando fuera necesario el uso de la inteligencia artificial por las autoridades y para tales finalidades, ponderando los perjuicios de su uso, la naturaleza de la situación que dé lugar al posible uso y, en particular, la gravedad, probabilidad y magnitud del perjuicio que se produciría de no utilizarse el sistema. Desde luego, sin una adecuada y más precisa regulación, y un claro establecimiento de límites, podría producirse una merma de los derechos fundamentales de los ciudadanos en general, y de los potenciales investigados criminales, en particular.

No es una llamada de atención que hagamos de forma atrevida todo lo contrario: la Resolución del Parlamento Europeo, de 6 de octubre de 2021, sobre la inteligencia artificial en el Derecho penal y su utilización por las autoridades policiales y judiciales en asuntos penales (2020/2016(INI)), vino a expresar su gran preocupación por dos usos muy concretos de la inteligencia artificial por las autoridades (preocupación trasladada en forma de enmiendas por parte del Parlamento en su versión de la propuesta de Reglamento para las negociaciones en trílogos).

  • El primero es el uso de técnicas de reconocimiento facial, poniendo el foco en  “el uso por parte de las fuerzas del orden y los servicios de inteligencia de bases de datos de reconocimiento facial privadas, como Clearview AI, una base de datos de más de 3.000 millones de imágenes que se han recopilado de redes sociales y otros lugares de internet, incluidas imágenes de ciudadanos de la Unión” (considerando 30), pidiendo expresamente a los Estados miembros que obliguen al cumplimiento de la ley y a revelar si están utilizando la tecnología Clearview AI o tecnologías equivalentes de otros proveedores, porque tales usos no serían compatibles con las garantías legales de la Unión.
  • El segundo, relacionado también con el uso de datos biométricos, muestra preocupación “por los proyectos de investigación financiados en el marco de Horizonte 2020 que implantan inteligencia artificial en las fronteras exteriores, como el proyecto iBorderCtrl, un «sistema inteligente de detección de mentiras» que elabora perfiles de los viajeros a partir de una entrevista automatizada por ordenador realizada a través de la cámara web del viajero antes del viaje y un análisis de 38 microgestos basado en la inteligencia artificial, probado en Hungría, Letonia y Grecia”, pidiendo expresamente la aplicación de la ley y, si fuere necesario, iniciando los procedimientos de infracción previstos, para “la prohibición de cualquier tratamiento de datos biométricos, incluidas las imágenes faciales, con fines coercitivos que dé lugar a una vigilancia masiva en espacios públicos” (considerando 31).

Si, tras estos dos ejemplos, formulamos nuevamente la pregunta realizada al principio, esto es, hasta dónde estamos dispuestos a permitir que la inteligencia artificial pueda redefinir e interceder en nuestros derechos fundamentales y, específicamente, en el contexto de una investigación criminal, la respuesta debería llevarnos hacia la necesidad de garantizar los derechos fundamentales que actualmente se contemplan en nuestras leyes cuando, para dicha investigación criminal o para la toma de una determinada decisión policial o incluso judicial, se haya utilizado sistemas basados en inteligencia artificial.

Entre tales derechos, como también recordó la Resolución del Parlamento Europeo ya citada, se encuentra el de “que los algoritmos sean explicables, transparentes, trazables y comprobables como parte necesaria de la supervisión” a fin de que se respeten los derechos fundamentales y la dignidad de la persona y se genere confianza suficiente en el sistema por los ciudadanos. Se trata de evitar supuestos en los que se pueda terminar identificando y clasificando de manera inadecuada, por parte de los sistemas de inteligencia artificial utilizados por las autoridades, a personas por su raza, etnia, condición sexual, o edad y que, con ello y sin la adecuada fiabilidad del algoritmo, se acrecienten los sesgos, las desigualdades y discriminaciones.

A nivel procesal, la necesidad de que el algoritmo sea incluso auditable, como garantía de esa explicabilidad y transparencia a la que apela el Parlamento Europeo, nos debería llevar a exigir que las autoridades únicamente hagan uso de sistemas que respeten tales principios a fin de garantizar los derechos de defensa y de igualdad de armas pues, la imposibilidad de acceder al sistema por parte de la persona que se ha visto identificada o clasificada, o que resulte afectada por una determinada decisión judicial, contrastaría de manera evidente con su derecho de defensa, pues no podría siquiera cuestionar el sistema predictivo utilizado, su propia identificación con dicho sistema y el resultado generado.

Y este es, a nuestro juicio, uno de los riesgos más acusados de la inteligencia artificial desde el ángulo del Derecho penal, pues la desconfianza en el sistema utilizado por las autoridades afectaría directamente a los principios básicos de nuestro sistema de investigación criminal. Seguiremos muy de cerca los esfuerzos legislativos que se están realizando para garantizar los derechos fundamentales de los ciudadanos tanto a nivel europeo como a nivel de cada Estado miembro.