Tras el sunami que supuso el lanzamiento de Chat GPT a finales de 2022, son muchas las empresas que se han lanzado a la carrera de ofertar servicios bajo la etiqueta de “inteligencia artificial” sabiendo que, con ello, van a captar la atención de sus posibles compradores. El hype es innegable, y con ello, el ruido de productos y servicios que han surgido al albur de la popularización de los llamados Large Language Models y los productos que se construyen sobre estos. Precaución.
Publicitar la oferta de servicios y productos que utilizan tecnologías de inteligencia artificial (IA) es legítimo, sin duda, siempre y cuando los claims o alegaciones que se utilicen para promocionarlos cumplan con la normativa publicitaria aplicable. En Estados Unidos la Federal Trade Commission (FTC) ya ha advertido de los riesgos de utilizar este tipo de alegaciones publicitarias de forma engañosa, y en España, el marco legal también nos obliga a ser precavidos.
La FTC ante la publicidad de los sistemas de IA
Desde la división de prácticas comerciales de la FTC, advierten que cuando se utilizan alegaciones sobre el uso de IA debe asegurarse que estas cumplen con los principios generales de la publicidad. En concreto, la FTC hace hincapié en los siguientes puntos:
Veracidad
Aunque pueda parecer obvio, no todos los productos que afirman utilizar herramientas de IA lo hacen. Por ejemplo, usar herramientas de IA para desarrollar un producto o servicio no significa que podamos vender ese producto o servicio como IA en sí.
En este contexto, la FTC ha iniciado un procedimiento contra la empresa Automators AI por publicitar que, gracias al uso de sus herramientas de IA en comercio electrónico, podrían obtenerse ganancias considerables. Según la FTC, la empresa alegaba que estos beneficios extraordinarios se obtenían, precisamente, por el uso de herramientas de inteligencia artificial, afirmando que su empresa “integraba el aprendizaje de IA en el proceso de automatización, lo que resulta en un aumento de los ingresos y los márgenes” y prometía “beneficios netos mensuales entre 4.000 y 6.000 dólares y 597.000 dólares en seis meses” (noticia publicada por la FTC).
Exageraciones
La FTC también observará si las alegaciones publicitarias son exactas y veraces o, por el contrario, exageran los resultados esperables o los aplican de forma generalizada a cualquier actividad, creando una apariencia engañosa de cara a los compradores de estos servicios, sean o no consumidores. Se trata, en definitiva, de no crear expectativas falsas sobre lo que un servicio o producto que usa IA puede hacer. Por ejemplo, por muy sorprendentes que sean los resultados de la IA generativa, lo cierto es que no son adecuados para todos los usos. A modo de anécdota, resulta sorprendente cómo algunos abogados insisten en pedirle a Chat GPT que busque jurisprudencia cuando es vox populi que “crea” casos que no existen pero que hubiesen sido idóneos para nuestro caso (si fuesen reales…). Tras el revuelo surgido en Estados Unidos por la multa a un abogado que empleó jurisprudencia inexistente para fundamentar un caso, espero que todos hayan aprendido la lección.
Comparaciones
Se pondrá el foco en las alegaciones que afirmen que determinados productos que utilizan IA son mejores que los que no lo hacen. Lo ilícito no es la comparación en sí, sino la forma en la que se lleva a cabo, por lo que lo importante es disponer de evidencias científicas que den soporte a las alegaciones publicitarias realizadas. El ámbito de la publicidad comparativa es especialmente complejo, ya que los requisitos impuestos por la Directiva sobre publicidad engañosa y publicidad comparativa, traspuestos en España en el artículo 10 de la Ley de Competencia Desleal, exigen que la comparación sea objetiva, pertinente, verificable y representativa de los bienes o servicios (o productos). Por eso, antes de difundir un mensaje comparativo sobre las soluciones aportadas por la IA, debe asegurarse que estamos en posición de defender la veracidad de esta y su adecuación a los requisitos de la publicidad comparativa.
En el lado del comprador de productos o servicios basados en la IA, es esencial tener en cuenta que, cuando una tecnología se vuelve “mainstream”, se corre el riesgo de no tomar las precauciones necesarias en la contratación. Todo proceso de adopción de una tecnología novedosa, como la IA, exige diligencia debida en el proceso de contratación, comenzando por no asumir que la publicidad es correcta o completa.
Por su parte, el Departamento de Protección Financiera e Innovación del Estado de California (DFPI) advierte de un reciente incremento en las estafas financieras, especialmente en entornos crypto, que alegan utilizar sistemas de IA que generan beneficios “demasiado buenos para ser verdad”.
La situación en España
En España no contamos aún con directrices o advertencias relativas al uso engañoso de alegaciones publicitarias en materia de IA. No obstante, aunque no exista una normativa específica para la publicidad de productos y/o servicios basados en IA, resultará de aplicación el principio de veracidad que, en nuestra opinión, es más que suficiente.
Ahora bien, que no estimemos necesaria normativa adicional no implica que la tarea que se avecina vaya a ser sencilla. El principio de veracidad previsto en los artículos 5 y 7 de la Ley de Competencia Desleal exige que las alegaciones publicitarias sean veraces, lo que incluye que no se omitan datos necesarios para comprender el mensaje, y que no se sugiera información que pueda llevar al destinatario medio a percibir un mensaje erróneo.
A modo de conclusión
Desde el punto de vista del vendedor, a la hora de diseñar el mensaje publicitario debe atenderse a las distintas capacidades y limitaciones de los sistemas de aprendizaje automático supervisado, no supervisado, aprendizaje por refuerzo, o la más novedosa IA generativa que se está comercializando. En este cometido, es necesario que antes de difundir el mensaje publicitario estemos en posición de sustentar documentalmente lo afirmado. Cabe acudir a informes técnicos y/o científicos, pero lo afirmado debe encontrar respaldo, ya que la carga de probar la veracidad de las alegaciones publicitarias la tiene el anunciante. No es tarea sencilla si tenemos en cuenta que, como ya explicamos en un post anterior, no existe consenso sobre qué es realmente un “sistema de IA”, y mucho menos sobre sus distintos tipos.
Desde el punto de vista del comprador, el primer paso es verificar que el servicio o producto que se está valorando es adecuado para las necesidades que se pretenden cubrir, ya que no todos los sistemas de IA son iguales ni sirven para lo mismo. No es lo mismo intentar solventar un problema de clasificación (e.g., categorizar grupos de usuarios de una tienda online para optimizar las campañas de marketing) que uno de regresión (e.g. determinar la evolución probable de un producto de inversión) o pretender crear o editar contenidos nuevos en el sector audiovisual mediante IA generativa. Elegido el sistema también será necesario analizar sus métricas de rendimiento como, por ejemplo, las métricas de precisión, el recall, el F1 score o el error cuadrático medio dependiendo, otra vez, del problema que estemos intentando resolver. De nuevo, las métricas más idóneas dependerán del tipo de sistema de IA.
Contractualmente, y también desde el punto de vista del cumplimiento, debe atenderse a múltiples factores dependiendo de cada caso concreto y de los riesgos del área en el que van a utilizarse los servicios o productos IA. Por ejemplo, no se asume el mismo nivel de riesgo en sistemas de predicción de diagnóstico humano que en sistemas de reparación predictiva industrial. No supone el mismo riesgo un sistema para controlar el spam que un software destinado a la gestión de recursos humanos. No obstante, de forma general, puede ser útil atender, entre otros, a los siguientes factores:
- Descripción del modelo, y si está a su vez basado en modelos de terceros (y en qué medida).
- Precisión del sistema.
- Funcionamiento de su algoritmo (sin pretender acceder a los secretos empresariales del proveedor).
- Enfoque adoptado para la eliminación de sesgos (y sus mecanismos correctores).
- La forma en la que se podrá integrar el sistema con los ya existentes en la empresa, incluyendo la posibilidad de realizar desarrollos a medida.
- Prestación de servicios de actualización y mantenimiento.
- Descripción de los datos de entrenamiento y garantías sobre su licitud. Aquí resulta esencial minimizar riesgos en relación con posibles infracciones de derechos de propiedad intelectual y privacidad, sobre todo en los procesos de entrenamiento.
- Confidencialidad, con especial referencia a la reutilización de los datos de la empresa (e.g. "promps").
- Capacitación para el uso del sistema.
- Derechos sobre los resultados y posibles limitaciones en su uso.
También puede ser útil solicitar referencias de otros usuarios y el estudio de casos de uso específicos para verificar que, en efecto, estamos adquiriendo la herramienta adecuada y asumiendo el nivel de riesgo esperado al hacerlo.
Huelga decir que, en los sistemas de adopción masiva, como la versión comercial de Chat GPT, el margen de negociación puede ser inexistente, al regirse principalmente por términos y condiciones definidos de forma estándar para los servicios. Debe analizarse, pues, si su uso es adecuado y seguro atendiendo a las actividades de la empresa y, en su caso, definiendo políticas de uso adecuadas que siempre deben ir acompañadas de la correspondiente formación.
Este post no es, obviamente, un listado exhaustivo de las precauciones a adoptar en la contratación y promoción de sistema de IA, pero sí una recomendación sobre los puntos a tener en cuenta, tanto en los claims que publicitan los productos, como en los procesos de diligencia debida necesarios para su compra.