regulacion no mata innovacion

Rompiendo la falsa dicotomía regulación mata innovación. Somos víctimas de una gran campaña de publicidad

I. ¿Protege la Ley de AI los derechos fundamentales y preserva la dignidad humana?

Quiero plantear aquí varias cuestiones:

A. La Ley de AI tiene un enfoque BASADO EN EL RIESGO. Los principales objetivos son:

– abordar los riesgos para la salud, la seguridad y los derechos fundamentales

– crear un mercado único de IA fiable en la UE

Regula la tecnología (no el impacto social) y se centra en:

a. Procesamiento de datos

b. Calidad de los datos

c. Decisiones algorítmicas

Esto significa que sólo resuelve el sesgo técnico, pero no el sesgo social. Por tanto, mantiene el statu quo.

B. Los actores más importantes de la Ley de AI son el CEN (Comité Europeo de Normalización) y el CENELEC (Comité Europeo de Normalización Electrotécnica).

Preguntas:

a. La Comisión puede encargarles que elaboren normas armonizadas. Un problema es que no tienen experiencia en derechos fundamentales.

b. Los sistemas HRAI (IA de alto riesgo) certificarán la autoconformidad con dichas normas. Cuestión clave: ¿contemplarán estas normas técnicas objetivos sustanciales, especialmente en materia de derechos fundamentales?

c. De hecho, si la AIA se convierte en un modelo de regulación global, también lo harán las normas armonizadas que estos dos comités hagan vía ISO, por ejemplo.

C. El lobby en las instituciones europeas es salvaje. Más de 113mill€.

Ambas fotos vía https://corporateeurope.org/en/2023/11/byte-byte Si se leen el artículo del link tendrán una foto perfecta de cómo funciona esta maquinaria que roza la corrupción, si es que no lo es en toda su complejidad. El 86% de los grupos que se han reunido con Comisión Europea pertenecen a lobbies. Y un 12% pertenece a grupos que representan a la población civil.

D. Evaluación de Impacto de Derechos Fundamentales. Al final fue admitida en la ley.

El Brussels Privacy Hub lanza un llamamiento para que se apruebe una evaluación obligatoria del impacto sobre los derechos fundamentales en la legislación de la UE sobre inteligencia artificial, tanto para las instituciones públicas como para las privadas que desplieguen tecnologías de inteligencia artificial (IA).

Su propuesta está basada en cuatro pilares:

1) parámetros claros sobre la evaluación del impacto de la IA en los derechos fundamentales;

2) transparencia sobre los resultados de la evaluación de impacto a través de resúmenes públicos significativos,

3) participación de los usuarios finales afectados, especialmente si se encuentran en una posición de vulnerabilidad;

4) participación de autoridades públicas independientes en el proceso de evaluación de impacto y/o mecanismos de auditoría.

II. Modelos fundacionales y GPAI

Quiero enseñarles dos papers de hace más de 30 años que hablan de los problema que tenían las redes neuronales:

Su enlace está aquí.

El enlace de este paper está aquí.

Ambos papers analizan los problemas de las redes neuronales:

1) no puede representar ciertas palabras

2) no puede aprender muchas reglas

3) no puede aprender reglas que no se encuentren en ninguna lengua humana

4) no puede explicar las regularidades morfológicas y fonológicas

5) no puede explicar las diferencias entre formas irregulares y regulares

6) fracasa en su tarea de dominar el pasado del inglés…

7) […]

¿Les suena? 30 años más tarde, ChatGPT sigue con estos fallos. Ahí lo dejo.

Open AI publicó el informe técnico del ChatGPT-4 (recomiendo su lectura)

El enlace de este paper está aquí.

Estos son los problemas que aún no han resuelto (página 44):

En su texto dice que, a pesar de no haber arreglado estos problemas, lo que sí han conseguido es que sus mensajes sean más convincentes y persuasivos.

Problemas éticos derivados de no haber arreglado los errores mencionados anteriormente:

DeepMind publicó un artículo en diciembre de 2021 sobre los riesgos éticos y sociales del daño de los LLM:

I. Discriminación, exclusión y toxicidad

II. Peligros de la información

III. Daños por Desinformación

IV. Usos Malintencionados

V. Daños derivados de la interacción persona-ordenador

VI. Automatización, acceso y daños medioambientales.

Reacciones de Sam Altman, CEO de OpenAI

O lo que es lo mismo: Los peligros a corto plazo: la propagación de la desinformación y el riesgo de que la gente confíe en estos sistemas para recibir consejos médicos y emocionales, aumentando, aún más, la desigualdad.

Después, se preocupa por los niveles de desinformación que su tecnología puede provocar.

Que la ley arregle todas las malas consecuencias sociales en las que no pensé de antemano. PERO la regulación en mis términos, que, no regule eficazmente mis actividades, que si no, no me sale rentable.

SITUACIÓN ACTUAL.

Sustituir la regulación de los modelos de IA de uso general (GPAI) por códigos de conducta blandos.

Francia, Alemania e Italia han redactado recientemente un documento sobre la regulación de este tipo de modelos, en el que abogan por una «autorregulación obligatoria mediante códigos de conducta».

¿Por qué está pasando esto? Porque la ley de IA no regula los modelos fundacionales. Y, ¿por qué la ley de IA no los contempla? Por lo siguiente:

La Ley de AI impone obligaciones, en primer lugar, a los proveedores anteriores (upstream providers) y no a los usuarios posteriores, (entendidos como las empresas que usan tecnología ya desarrollada por los proveedores, pero no el usuario final, que no se le nombra en toda la ley) a menos que éstos realicen una modificación sustancial en el sistema. Entonces, se convierten en proveedores.

Esto crea problemas cuando se habla de la IA de propósito general y modelos fundacionales como el ChatGPT u otros grandes modelos de lenguaje porque a menudo se incluyen en aplicaciones posteriores a través de API, es decir, «IA como servicio».

¿Se considera la implementación a través de API una modificación sustancial del sistema? Pregunta muy importante.

Si fuera que sí, todas las obligaciones recaerían sobre las PYMEs europeas que implementaran la API de estos modelos y, literalmente, las obligaciones legales los fulminaría, mientras los proveedores se irían de rositas.

La clasificación de sistemas de alto riesgo de la Ley de IA se basa en el uso previsto enumeradas en el Anexo III, y la IA de uso general no encaja bien. De hecho, sobre sus proveedores (Open AI en US, Mistral, en Francia y Aleph Alpha en Alemania, como ejemplos), no recae ninguna obligación de cumplir los requisitos esenciales del capítulo 2, lo que es una locura viendo los problemas éticos y solciales que de ellos se derivan y la de problemas que aún no han resuelto porque la tecnología «no llega».

En cambio, si se incluyeran habrían ventajas económicas y seguridad tecnológica para las PYMEs europeas (y esto desmonta la falsa dicotomía de regulación mata innovación):

a. Ventajas económicas para las PYMEs y otros implantadores posteriores que deseen utilizar modelos de base para sus productos innovadores y que no puedan permitirse los riesgos de responsabilidad y los costes de cumplimiento derivados de un modelo de base potencialmente inseguro.

b. Perspectiva de riesgo – Los riesgos deben abordarse en el modelo base, sólo sus proveedores pueden acceder y conocer los datos de la formación del modelo, etc. De lo contrario, no se mitigarán en absoluto, amenazando a las PYMEs y a la seguridad de las personas.

Por lo tanto, este es el motivo por el que hay una guerra ensangrentada en las instituciones europeas (y aún más en Twitter) para que estos modelos no se incluyan en la ley y sólo estén sujetos a códigos de conducta.

Pero, ¿cuáles son las normas mínimas obligatorias basadas en el riesgo que se les debería de aplicar a los proveedores de los modelos fundacionales? Esto, desde un punto de vista táctico y operacional:

1) Centrarse en la seguridad y la ciberseguridad

2) Sistema de evaluación y mitigación de riesgos

3) Red-teaming previo al despliegue

4) Auditoría posterior al despliegue

5) Transparencia, y

6) Normas para fomentar la sostenibilidad medioambiental

III. Modelos de negocio

Tenemos que hablar de modelos de negocio, tenemos que hablar de neoliberalismo. Esta es la semilla de todo mal, y no el desarrollo de la tecnología.

El motor de estas empresas está impulsado por una necesidad, la exigencia de reportar ingresos y aumentos de crecimiento cada trimestre, para siempre.

El modelo de negocio de las big tech se basa en la vigilancia masiva y esto se creó a finales de los 90, cuando la administración Clinton dio efectivamente luz verde a las empresas privadas para comercializar la computación en red sin restricción alguna de la privacidad. Hasta hoy.

Pero el hype es necesario. Que ya no es hype, sino overhype. ¿Por qué es necesario el hype? ¿por qué Sam y sus colegas se pasean por ahí diciendo que la tecnología va a acabar con la humanidad? Bueno, primero, para esconder todos los problemas éticos mientras entretienen a un público masivo como payasadas propias de niños viendo películas de ciencia ficción.

Y lo segundo, es porque estamos respondiendo a un anuncio, un anuncio muy caro llamado ChatGPT.

Silicon Valley funciona con el hype de los VCs. Los VCs requieren del hype para obtener un retorno de la inversión porque necesitan una OPV (Oferta Pública de Venta) o una adquisición, ¡y así es como te haces rico!

Te haces rico porque la gente cree que tu tecnología funciona lo suficiente como para que una OPV o una adquisición te den algo de dinero, y no porque tu tecnología funcione.

«Los inversores que han pasado de la Web3 al metaverso (¿pero quién se acuerda del metaverso y de la Web3? ¿y la de expertos que habían? víctimas del hype) a la IA están deseosos de obtener beneficios en un ecosistema en el que un ciclo de prensa impulsa las valoraciones hacia OPV y adquisiciones rentables, aunque las promesas de la tecnología en cuestión no lleguen a hacerse realidad«

Y, ¿cuáles son las medidas a gran escala que serían eficaces?

1) Un régimen de rendición de cuentas significativo y sólido que sitúe los intereses del público por encima de las promesas de empresas poco conocidas por cumplirlas.

2) Necesitamos mandatos de transparencia agresivos que eliminen la opacidad en torno a cuestiones fundamentales como los datos a los que acceden las empresas de IA para entrenar sus modelos.

3) Necesitamos regímenes de responsabilidad que impongan a las empresas la carga de demostrar que cumplen las normas básicas de privacidad, seguridad y parcialidad antes de que sus productos de IA se hagan públicos.

4) Acabar con la concentración de poder mediante una regulación que fuerce la separación corporativa en torno a la IA y no permita a las grandes tecnológicas utilizar su dominio en infraestructuras para consolidar su posición en el mercado de modelos y aplicaciones de IA.

5) Los gobiernos no pueden seguir permitiendo que los mismos intereses estrechos de la industria guíen la política. Está demasiado claro a qué sirven estas empresas: a su cuenta de resultados.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *