En una nueva edición del Foro Garrigues Digital, expertos del despacho han analizado el impacto de la cada vez más abundante normativa en torno al uso de sistemas algorítmicos y de inteligencia artificial, desde todos los ángulos del derecho de los negocios
El uso de algoritmos y de inteligencia artificial es cada vez más frecuente, y no solo en empresas estrictamente digitales. Tecnología de este tipo está presente en muy diversos ámbitos empresariales y con distintos fines dentro de las propias organizaciones, a nivel interno y externo. Y todo ello tiene implicaciones legales.
El desafío del uso de inteligencia artificial en el ámbito empresarial es grande y las organizaciones tienen que saber que deben cumplir con toda una serie de obligaciones cuando hagan uso de sistemas algorítmicos. Existe abundante normativa, gran parte de ella en desarrollo, tanto a nivel nacional como en el marco de la UE, que marca los límites al uso de la tecnología que está detrás de los resultados de búsquedas en Internet o de los procesos de selección de las empresas. En este contexto, la clave será la transparencia. Así lo puso de relieve Cristina Mesa, socia del Departamento de Propiedad Industrial e Intelectual de Garrigues, que abrió esta sesión sobre las implicaciones legales de los algoritmos.
Según explicó, en la Unión Europea hay ahora mismo tres vías de actuación: el Reglamento P2B2C (Reglamento 2019/1150 sobre el fomento de la equidad y la transparencia para los usuarios profesionales de servicios de intermediación en línea); la Directiva Omnibus (Directiva 2019/2161 de mejora de aplicación y modernización de las normas de protección de los consumidores de la Unión); y la Propuesta DSA, la que se considera nueva ley de Internet (Reglamento para un mercado único de servicios digitales, que modifica la Directiva 2000/31/CE). Algunas de las medidas previstas en estas normas europeas se están incorporando ya al marco legal español (con posterioridad a la celebración de este Foro Garrigues Digital, se publicó en el BOE el Real Decreto-ley 24/2021 que introduce novedades de calado en la Ley de Propiedad Intelectual (ver alerta) y en las 'fake reviews' (ver alerta), así como en relación con los algoritmos).
Con el Reglamento P2B2C, lo que quiere el regulador europeo es que los usuarios sepan por qué ven lo que ven cuando navegan por Internet. El uso de algoritmos puede ser muy útil porque permite filtrar información en las búsquedas, pero los reguladores quieren que se sepa cómo piensan los algoritmos que están detrás de los resultados: transparencia desde el diseño, siempre con el objetivo de la previsibilidad. No se trata de “desnudar” los algoritmos, sino de conocer cuál es la lógica subyacente, tratando de buscar un equilibrio.
En cuanto a la Directiva Omnibus, con ella se plantea la modificación en España de los artículos 20, 26 y 49 de la Ley General para la Defensa de los Consumidores y Usuarios (ver aquí algunas novedades introducidas ya por el Real Decreto-ley 24/2021). El objetivo es proporcionar información relativa a los principales parámetros que determinan la clasificación de los bienes y servicios presentados al consumidor y usuario como resultado de la búsqueda y la importancia relativa de dichos parámetros frente a otros. También proporcionar información sobre la existencia de publicidad retribuida o pagos dirigidos específicamente a que los bienes y servicios obtengan una clasificación superior en los resultados de las búsquedas.
Por último, según explicó Cristina Mesa, la DSA plantea introducir medidas razonables, proporcionadas y efectivas, dirigidas a mitigar los riesgos sistémicos identificados en relación con los sistemas de recomendación. Entre otras cuestiones, implica que deben especificar en sus términos y condiciones, de manera clara, accesible y fácil de comprender, los principales parámetros que usan en sus sistemas de recomendación.
Desafíos del uso de la inteligencia artificial en el ámbito empresarial
El Foro de Garrigues Digital también acogió una mesa redonda que contó con la moderación de la periodista Marta García Aller. En esta conversación, en la que participaron varios profesionales de Garrigues especialistas en diferentes ramas del Derecho, Cecilia Pérez, socia del Departamento Laboral, abordó la recién estrenada Ley Rider, en vigor desde el pasado mes de agosto, y el modo en que se ha regulado el uso de algoritmos en el derecho del trabajo. Entre las cuestiones más relevantes de la nueva regulación, destacó la inclusión en la norma de un nuevo derecho, el del comité de empresa a ser informado sobre algunas cuestiones relativas a los algoritmos que puedan afectar a los trabajadores, tanto en la contratación como en el cese de empleados. “Con la nueva regulación, los trabajadores tienen que saber cómo funciona el algoritmo y en qué les impacta”, apuntó esta experta.
Ante la pregunta de si se podrían utilizar algoritmos para sustituir al empresario en la toma de decisiones, advirtió que técnicamente es posible. De hecho, según expuso, hay múltiples algoritmos para la toma de determinadas decisiones en el ámbito laboral. Sin embargo, remarcó la importancia de que siempre haya algún control humano detrás de las máquinas, algo en lo que también ha incidido el Parlamento Europeo. El artículo 22 del Reglamento General de Protección de Datos (RGPD) ya lo contempla: no puede haber una absoluta decisión automatizada, salvo cuando concurra alguna de las excepciones expresamente establecidas en dicha norma.
Por su parte, Carolina Pina, socia del Departamento de Propiedad Industrial e Intelectual de Garrigues, hizo hincapié en el fenómeno de las revisiones falsas o fake reviews de productos o servicios y las medidas que deben tomar los prestadores de servicios para luchar contra ellas, teniendo en cuenta que este tipo de valoraciones simuladas se han sofisticado mucho (compra de opiniones, hackeos, reseñadores profesionales…). Recordó que estas prácticas ilícitas pueden ser contrarias a la Ley General de Publicidad y a la Ley de Competencia Desleal. No obstante, señaló que las plataformas ya están adoptando medidas de autorregulación porque a ellas mismas no les interesa que todo esto suceda. (Ver aquí las novedades introducidas por el Real Decreto-ley 24/2021 en relación con las fake reviews).
Y Alejandro Padín, socio del Departamento Mercantil y responsable del área de Privacidad y Ciberseguridad, debatió sobre la propuesta de regulación de la inteligencia artificial en la UE, la ética de los algoritmos y la protección de la privacidad ante tratamientos automatizados de datos de carácter personal. Durante su intervención, recordó que, aunque los algoritmos no son algo nuevo, la clave está en que ahora se les ha dotado de una gasolina que antes no tenían: la información, los datos. En este sentido, remarcó que actualmente en Europa se trata de buscar un equilibrio entre la importancia de proteger los derechos fundamentales de las personas y el avance de la tecnología, lo que, en su opinión, supone “un reto colosal”. En todo caso, recordó que “no hay que regular la tecnología, sino el uso que se hace de ella”. Apuntó también que los mayores riesgos están en aquella inteligencia artificial que es capaz de aprender sin intervención humana.
Ante este escenario, todos los participantes en el debate lanzaron, no obstante, un mensaje de optimismo en relación con la protección de los derechos fundamentales de los ciudadanos y la necesaria humanización de los algoritmos, algo que está muy presente en el espíritu de toda la regulación europea sobre este tema.
Adopción de sistemas algorítmicos en los servicios financieros
José Ramón Morales, socio del Departamento Mercantil y corresponsable del Garrigues FinTech Hub, cerró la jornada analizando la aparición de nuevos servicios y operadores emergentes como el trading algorítimico, su incidencia en la modernización de los sistemas core de los operadores existentes y su impacto en la gobernanza de la entidad y en la relación con clientes y supervisores (compliance, evaluación de riesgos).
Según apuntó, las entidades financieras deberían abordar de forma más abierta la implantación de soluciones cloud y herramientas y soluciones de big data y analítica de datos. Explicó que el ámbito de impacto de la inteligencia artificial en los servicios financieros puede ir desde la interacción y conversación entre la entidad y el cliente (front end) hasta los procesos internos de la entidad (middle office, back office).
Habló también de las ventajas y oportunidades que todo ello representa para las entidades, como la eficiencia en costes y tiempos de ejecución, las mejoras en el servicio al cliente, la optimización de oportunidades de negocio, la mayor capacidad de calcular y mitigar riesgos y el potencial para transformar los modelos de negocio y de servicio.
José Ramón Morales también repasó la propuesta de Reglamento de la UE sobre inteligencia artificial y su alcance en relación con las entidades financieras, así como su régimen sancionador, con multas de hasta 30 millones de euros o hasta el 2% del volumen de negocio.