Qué es Inteligencia Artificial

¿Qué es y qué no es Inteligencia Artificial?

Quiero contarles cuatro cosas dichas por Luc Steels, una de las personas que más sabe sobre Inteligencia Artificial en el mundo, sobre lo que es, y no es, IA:

(i) Qué es la Inteligencia Artificial, y qué no es

(ii) Los peligros que rodean al término IA. IA real e IA ficticia, alimentada por cierta prensa y ciertos charlatanes

(iii) La desconfianza en la tecnología y

(iv) La Explicabilidad, ¿mito o realidad?

AI4EU Workshop «Trustworthy AI made in Europe: From Principles to Practices»

Para Luc Steels uno de los mayores problemas son la cantidad de historias que hay sobre la Inteligencia Artificial y el poco control sobre la veracidad de las mismas. Esto, está produciendo mucha confusión en la población, y lo que es peor, también producen miedo y rechazo.

Algunas de las historias provienen del cine o novelas de ciencia ficción. El ejemplo más conocido: Frankenstein. Otros relatos salen de la literatura. Hablan del transhumanismo, réplica digital, de la carga de la mente o de la electrónica incrustada en el cerebro o en el cuerpo.

También, está el ciber-utopismo, como Kurzweil, que habla de la Singularidad y predice que sucederá muy pronto. También se habla de super-inteligencia, como Borstrom.

Pero más allá de estas historias, ¿qué es la Inteligencia Artificial? La IA es una disciplina científica y tecnológica con aplicaciones prácticas. Y para los investigadores ESTA ES LA ÚNICA REALIDAD.

1. La IA como una ciencia. Se trata de comprender cómo son posibles las capacidades y los fenómenos mentales. Se trata de un modelo de procesamiento de la información que tiene que estar presente para poder hacer estas cosas. Y la forma en que la IA procede como ciencia es haciendo experimentos, como en otras ciencias, como es el caso de la física o de la biología.

Esto significa que construimos experimentos para probar la validez de ciertas teorías. En ese sentido, la IA es como la biología sintética que cada vez está más en la práctica. No se trata sólo de observar sistemas vivos, sino de intentar sintetizar células, o intentar sintetizar el metabolismo, o componentes químicos que puedan funcionar como componentes normales cultivados orgánicamente, etc.

Así que, es muy importante que tengamos presentes estos conceptos porque se corresponden con lo que la ciencia realmente está tratando de hacer, y no es otra cosa que seguir investigando y seguir construyendo esta ciencia.

2. La IA como tecnología, que es el resultado de trabajar en la investigación científica. Tenemos una creciente caja de herramientas llena mecanismos. Estos mecanismos son algoritmos y estructura de datos, y hay dos fuentes:

(i) para el procesamiento simbólico, como las inferencias y la representación del conocimiento, el lenguaje…

(ii) y una caja de herramientas muy grande para el procesamiento de señales, reconocimiento de patrones, y control para los sistemas robóticos, o para las máquinas.

Y cada vez hay más herramientas que se incorporan a esta caja. Y, como tecnología, la forma en que la tecnología avanza es probando las herramientas, construyéndolas, poniéndolas a disposición, refinándolas entendiendo sus propiedades.

Y las herramientas que la IA ha creado hasta ahora suelen estar basadas en otros campos como la estadística o el análisis numérico. Las inferencias tienen sus raíces en la lógica formal, en la teoría de la prueba, en las matemáticas.

El procesamiento del lenguaje natural tiene sus raíces en la lingüística formal, la lingüística computacional. Las grandes raíces de la IA están en la informática, y además, hay ideas que vienen de la física o de la biología.

En este sentido, la IA es como una esponja que está recibiendo herramientas de todos estos campos tratando de entender y tratar ciertas capacidades mentales.

3. La IA como aplicación, que recibe mucha atención porque es ahí donde la gente ve el impacto. Pero tenemos que ser conscientes de que necesitamos la IA como ciencia porque es el motor de toda esta disciplina.

Sin la IA como ciencia, aplicaciones como el apoyo a la toma de decisiones, la automatización de procesos o el intercambio de conocimientos no pueden desarrollarse, o no pueden fundamentarse.

La IA como disciplina científica y tecnológica con aplicaciones prácticas, es la única realidad. Y lo que vemos en muchos medios de comunicación es una confusión entre estas dos narrativas sobre la IA: la de ciencia ficción, y la real.

1. Primer peligro que rodea al término IA: los medios de comunicación y la ciencia ficción. Luc Steels escogió los siguientes ejemplos de noticias en los medios de comunicación:

Facebook tiene un blog en el que cuelgan contenido sobre sus investigaciones en IA. Una de sus investigaciones fue un experimento para tratar de entrenar a bots para negociar. Como efecto secundario desarrollaron un sistema de comunicación para llevar a cabo la negociación.

Este experimento, desde el punto de vista científico, no es un gran experimento, pero la idea de bots negociando y la comunicación lingüística llamó la atención de la prensa. Este experimento no se escribió en un paper científico revisado por pares, sino en un blog de la compañía.

FastCompany publicó la noticia: «La IA está inventando lenguajes que los humanos no pueden entender. ¿Debemos detenerla?» y añadieron: «Los investigadores se dieron cuenta de que sus bots hablaban un nuevo idioma. Entonces, los detuvieron».

Lo que se subraya aquí es que ha ocurrido algo inquietante, como la aparición de un nuevo idioma, y que el experimento se detuvo porque se volvió peligroso. Esta idea se propagó muy rápidamente en todos los medios de comunicación. Otro ejemplo, aquí:

The Sun dice: «Facebook cierra el experimento de IA después de que dos robots empiecen a hablar en su propio idioma que sólo ellos pueden entender». Y añade: «Los expertos han calificado el incidente de emocionante pero también de increíblemente aterrador».

Si seguimos leyendo el artículo nos encontramos con esta imagen con la siguiente frase: «El incidente se parece mucho a la trama de Terminator, en la que un robot adquiere conciencia de sí mismo y declara la guerra a los humanos».

Podemos pensar que estas noticias son divertidas, pero no lo son porque llevan a una gran confusión de los lectores. Un simple experimento que fue detenido, no porque fuera peligroso, sino que se detuvo porque el experimento no condujo a nada interesante.

Pero la prensa pasó de la IA real a la IA de ciencia ficción. Y los lectores se confunden y tiene un gran impacto en la opinión pública. Y esto es algo que tenemos que pensar y tener en cuenta de una manera muy seria.

Un segundo ejemplo que sigue el mismo tipo de sistema. Este artículo estaba en la BBC: «La IA que detecta la enfermedad de Alzheimer a partir del dibujo de una galleta«

Y añaden: «Un sistema de inteligencia artificial está utilizando un dibujo con fecha de dos niños robando galletas a espaldas de su madre para detectar la aparición de la enfermedad de Alzheimer».

Lo bueno de la BBC menciona la referencia al artículo científico original sobre esta investigación, que es este.

El título es «Los marcadores lingüísticos predicen la aparición de la enfermedad de Alzheimer». Si leemos el resumen no aparece la palabra IA. Hablan del método de clasificación, hablan del análisis lingüístico.

Lo que ocurrió en esta investigación fue que tomaron de la literatura marcadores lingüísticos como el número de auxiliares que aparecen en una frase, o si una persona utiliza un pronombre demostrativo de forma adecuada. El estudio analiza si estos marcadores lingüísticos son predictivas de la aparición del Alzheimer.

Se trata de un artículo científico, que utiliza métodos científicos, incluida la estadística, incluido el análisis de datos, pero, ¿dónde está la IA? No se menciona en el artículo.

Una palabra que hace sospechar es la palabra «La IA…», ¿qué significa La IA? Aquí han utilizado métodos de clasificación y predicción y son de la caja de herramientas que se estudian, desarrollan y aplican dentro del campo de la IA.

¿Se supone que hay algo llamado «La IA» que en realidad está haciendo aquí algo parecido a un diagnóstico médico? Esto es preocupante porque existe esta ficción sobre la IA que se utiliza para hablar de algo que es impuramente un enfoque científico de un problema particular.

Existe el peligro de que el debate sobre las cuestiones éticas y jurídicas esté demasiado influenciado por la ciencia ficción de la IA y no por la realidad.

Un ejemplo es la discusión sobre la personalidad jurídica de la IA. Jaynes, T (2019) “Legal personhood for artificial intelligence: citizenship as the exception to the rule”. AI & Society.

En principio, esta es una idea interesante, pero es una idea que viene de esta suposición de que «La IA» es una especie de ente autónomo que está haciendo ciertas cosas por sí mima, donde en realidad es como en el caso del Alzheimer.

¿Quién está realmente haciendo el trabajo, “la IA”? NO, son los médicos, son los especialistas, los científicos. Ellos están haciendo el análisis y el diagnóstico del Alzheimer y, por supuesto, están utilizando herramientas.

Pero no es «La IA» que está decidiendo sobre el Alzheimer, esto está hecho por profesionales humanos. Esta confusión en torno a la ficción de la IA en lugar de la realidad es promovida, la mayoría de las veces, por la prensa.

Tenemos que ser extremadamente cuidadosos en nuestras discusiones y ser conscientes de este gran problema en las directrices y regulaciones de la Comisión Europea donde se está hablando de la realidad de la IA, y no de la ficción.

2. El segundo peligro es la SOBRESTIMACIÓN y SUBESTIMACIÓN total de la IA, que de nuevo aparece en la prensa, pero también por parte de autores que no saben mucho sobre IA. Hablan de la ficción de la IA más que de la realidad de la IA.

Luc Steels sugiere leer a Rodney Brooks, toda una autoridad mundial (como Luc Steels) en el campo de la Inteligencia Artificial, en particular un artículo que mencionaré más adelante.

Tuve un placer de conocer a Rodney Brooks en Tokio en 2018, y les aseguro que se aprende mucho más teniendo una conversación con él, o escuchando una de sus charlas, que leyendo cien artículos.

Volviendo a Rodney Brooks como dije antes, es uno de los líderes mundiales en IA que, junto con Luc Steels conocen la ciencia, la tecnología y las aplicaciones alrededor de la IA.

Este artículo de Rodney Brooks es realmente bueno, y recomiendo a los que lean este hilo que lo lean, para entender el peligro de la sobreestimación de la IA. «[FoR&AI] The Seven Deadly Sins of Predicting the Future of AI» MIT Technology review 2017.

Lo que ha ocurrido es que ahora los medios de comunicación tienden a la sobreestimación, y es una visión errónea, están equivocados. He aquí un ejemplo de esta sobreestimación: «Los robots tomarán la mitad de los trabajos actuales en 10 a 20 años» (del artículo de Rodney Brooks). Esto está causando miedo y pánico. Para Rodney Brooks todo esto es RIDÍCULO porque no hay predicciones en este campo, en absoluto.

Hablando de robots, existen las 3 leyes de Arthur Clarke sobre la sobreestimación y subestimación de la tecnología.

1. Cuando un distinguido científico de avanzada edad afirma que algo es posible, es casi seguro que tiene razón. Cuando afirma que algo es imposible, es muy probable que esté equivocado.

2. La única forma de descubrir los límites de lo posible es aventurarse un poco más allá de ellos hacia lo imposible.

3. Cualquier avance lo suficientemente grande en la tecnología es indistinguible de la magia.

La mayoría de las personas no sabe cómo funciona el mecanismo del teléfono, o de la televisión o del ordenador. Con la IA pasa lo mismo. La mayoría de las personas no sabe cómo funciona, pero averiguar cómo funciona es difícil y requiere 10 años de investigación y práctica.

El problema está en palabras como IA, aprendizaje automático, procesamiento del lenguaje natural, etiquetado semántico. Todas ellas sugieren cosas que son posibles, pero, de hecho, no lo son en absoluto.

Incluso, si tienes un sistema que supuestamente hace etiquetado semántico, es bastante fácil cambiar algo, a veces basta con unos pocos píxeles, o con cambiar la posición de un objeto para que el etiquetado sea incorrecto.

¿Cómo combatir la desconfianza en los sistemas informáticos y en los sistemas de IA? Una forma sería certificar en base al rendimiento, como pasa con otros productos, pero es muy difícil debido a la sobreestimación y subestimación en la IA.

Existe el planteamiento del grupo de expertos en IA de la Comisión Europea (HLEG) de introducir directrices y posiblemente reglamentos para obligar a los diseñadores a considerar las cuestiones éticas y legales. Este es otro camino para trabajar en una IA más confiable.

Pero Luc Steals piensa que la confianza debe ganarse. El rendimiento constante es una cosa en la que se puede ganar la confianza. Pero, por supuesto, lo principal es que sepas explicar, argumentar y defender la explicación.

La explicabilidad de la IA es algo más que repetir las reglas, o el árbol de decisiones que has extraído. Una verdadera explicación es una narración, es una forma de reunir todos los elementos sobre la situación, y también los modelos y las teorías y la experiencia pasada.

En esencia, plasmar una explicación que resulte convincente para las personas afectadas por un sistema de IA. La explicación es un tema fundamental, pero necesitamos otra IA para hacerlo, no podemos hacerlo teniendo en cuenta lo que tenemos ahora mismo.

En definitiva, tenemos que centrar la investigación en construir narrativas sobre la IA. En cómo se construyen, cómo se expresan, cómo se entienden y sólo entonces podremos hablar de una IA confiable.

2 comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada.