Data_Quality

¿Los sistemas de IA de riesgo mínimo o inexistente son tan inofensivos como se piensa?

El artículo 69 de la Ley de IA establece el marco para la realización de un Código de Conducta para sistemas de IA que supongan un riesgo mínimo e inexistente para:

  • La seguridad
  • La salud
  • Los Derechos Fundamentales de las personas.

IMPORTANTE: Estos códigos de conducta son de aplicación voluntaria, por lo que se deja fuera de casi toda regulación a estos sistemas que son la mayoría de los sistemas de IA que se usan a diario.

Pueden incluir compromisos voluntarios sobre:

  • Sostenibilidad ambiental
  • La accesibilidad para personas con discapacidad
  • La participación de partes interesadas en el diseño y desarrollo de los sistemas de IA y
  • La diversidad de los equipos de desarrollo

Más que un código de conducta es un marco ético que debería ser de obligación para todos los sistemas de IA independientemente de su riesgo.

Se citan como ejemplos de estos sistemas de bajo riesgo:

  • Filtros de spam
  • Chatbots
  • Videojuegos
  • Sistemas de atención al cliente

El impacto que estos sistemas pueden ocasionar en la vida de las personas no es para tomarlo a la ligera. Pueden no prestar un servicio de atención al cliente personalizado, sin olvidarnos de los percances que de aquí se pueden derivar.

Voy a nombrar casos que me han pasado a mí personalmente, como es el no poder cambiar el número de cuenta corriente a mi seguro porque el chatbot entró en bucle, cosa que hubiera resuelto en pocos minutos con interacción humana.
O los chatbots que prestan información sobre un servicio público que no prestan una alternativa a los grupos en riesgo de exclusión social que no saben, o no pueden, interactuar con la tecnología.

Tampoco se puede preguntar por qué un servicio ha sido denegado, como un suministro de agua o de luz, o cuando queremos ponernos en contacto con nuestro operador telefónico y al final desistimos por cansancio.

¿Acaso esto no es una vulneración de los derechos de los consumidores? Estos son sólo dos ejemplos de sistemas de IA usados por organizaciones para ahorrar costes que pueden ocasionar problemas a la personas, e incluso, socavar sus Derechos Fundamentales.

Estos sistemas no suponen un riesgo para la salud, seguridad o DDFF pero sí lo suponen, o pueden suponer, un riesgo ecológico, un riesgo de cometer discriminación, o un riesgo para la privacidad de las personas.

Que es así cómo deben estar descritos los riesgos en la ley, de manera concreta y centrados en su impacto.

Esta categoría corre el riesgo de ser un incentivo para los proveedores y calificar de bajo riesgo sus sistemas de IA.

Todos los sistemas de IA, independientemente de su riesgo, debe cumplir con obligaciones de transparencia y de documentación de prácticas y procesos para que puedan ser auditados.

Desde un punto de vista de valores y principios, todos los sistemas de IA deben preservar la dignidad de las personas. La dignidad es la base de la paz, justicia y libertad en territorio europeo, y es la base de los Derechos Fundamentales.

Ahora quiero cambiar de tercio y hablar de una propuesta a la ley de IA que el Consejo ha hecho para el artículo 6.2. Este artículo, en su propuesta original, es claro y eficaz:

Pues bien, el Consejo ha añadido una propuesta en la que quiere añadir un pequeño resquicio para decir que tu sistema de IA está exento si realiza una función ”PURAMENTE ACCESORIA» respecto a la acción o decisión pertinente que deba tomarse, y que por tanto, no será un riesgo significativo para la salud, la seguridad y los Derechos Fundamentales de las personas. La Comisión tiene 6 meses para aclarar lo que «puramente accesorio» significa.

¿Qué consecuencias tiene esta pequeña excepción si prosperara?

Habría un margen de discrecionalidad para calificar si el resultado de un sistema de IA es “puramente accesorio”.
No habría transparencia sobre quién está exento y por qué motivos porque no habría supervisión sobre cuántos han optado por esta exención sin evaluación objetiva de su justificación.
Beneficiaría a los grandes actores con equipos legales de lujo que harían ingeniería legal para calificar los resultados de sus sistemas de IA como puramente accesorios.
Las empresas responsables cumplirán pero, en última instancia, socava el fin último de promover una IA fiable.

La nueva propuesta establece 3 criterios en los que un sistema no plantea un riesgo significativo y está exento:

  1. El sistema de Inteligencia Artificial está destinado a realizar una tarea de procedimiento limitada de baja complejidad.
  2. El uso de IA no sustituye a una evaluación humana pertinente sino que está destinado a confirmar o mejorar un factor accesorio de dicha evaluación; o
  3. El sistema de IA está destinado a realizar una tarea preparatoria de una evaluación pertinente.

Advertencia: siempre se considerará que un sistema de IA plantea un riesgo significativo de daño para la salud, la seguridad o los derechos fundamentales de las personas físicas si el sistema de IA realiza la elaboración de perfiles de personas físicas.

Estos criterios son muy amplios, pero la cuestión clave es la VIGILANCIA (SUPERVISIÓN).

No tienen que notificar a las autoridades supervisoras que optan por la exención, sólo tendrían una obligación muy débil de escribir por qué y mostrarlo si se lo piden.

Pero el gran problema es, ¿cómo sabría una autoridad de supervisión a quién preguntar? No tienen ningún control sobre la elección de la exención. Un proveedor exento simplemente queda fuera del radar de todo el mundo y no se enfrenta a ninguna consecuencia por abusar de los criterios.

Lo importante aquí es lo que se califica como bajo riesgo y cuáles son sus obligaciones.

Esta propuesta, si prospera, podría hacer que la ley de IA pierda completamente su sentido: Un proveedor exento simplemente queda fuera del radar de todo el mundo y no se enfrenta a ninguna consecuencia.

La Ley de Inteligencia Artificial no es una solución milagrosa y podría decirse que tiene defectos fundamentales, pero al menos ofrece cierta transparencia y responsabilidad en el uso de sistemas de inteligencia artificial en algunos ámbitos de alto riesgo.

Esta ley es un comienzo, y es muy preocupante el esfuerzo descarado que están haciendo los lobbies tecnológicos para dejar fuera de su regulación a los sistemas fundacionales y a los sistemas de IA que suponen un alto riesgo para la salud, seguridad, o Derechos Fundamentales de las personas.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *