El ChatGPT es un Large Language Model (LLM), o un enorme modelo lingüístico con 175.000 millones de parámetros que traduce y resume textos como nunca antes se había hecho.
Pero esto es lo que hace, traducir y resumir textos, no los reflexiona, ni los entiende. Básicamente, lo que hace es utilizar una enorme cantidad de texto humano usando la técnica de la incrustación que le permite usar sinónimos y frases relacionadas. Hasta ahí, todo bien.
Con el ChatGPT OpenAI no tiene aún ningún modelo de negocio, lo que sí parece que tiene es un comprador que ha trabajado estrechamente con ellos, que es Microsoft y que quiere comprar la herramienta por 10.000 millones de dólares. La valoración del ChatGPT es de 26.000 millones de dólares.
Aunque hay que tener en cuenta que, hoy por hoy, OpenAI pierde dinero, y lo hace a través de cada una de las interacciones con su herramienta. Según Sam Altman, CEO de OpenAI, cada vez que alguien interactúa con su chatbot, la empresa gasta unos céntimos en potencia informática. Pero va a gastar la mayor parte en el negocio en la nube de Microsoft, que está trabajando duro para alcanzar la paridad con su competidor Amazon Web Services.
average is probably single-digits cents per chat; trying to figure out more precisely and also how we can optimize it
— Sam Altman (@sama) December 5, 2022
¿Cuáles son los problemas que hay aquí?
PRIMERO, aún no hay publicado ningún paper sobre la herramienta, así podríamos saber más sobre esta tecnología, pero sobretodo podríamos saber más sobre sus usos, puesto que quien desarrolla la tecnología tiene el deber moral de decirnos cuáles son sus usos. Por lo tanto, cuál es su propósito.
David Marr, uno de los mayores héroes de la ciencia cognitiva es muy conocido por la hipótesis de los 3 niveles según el cual cualquier sistema de procesamiento de la información debe entenderse:
a) El Nivel de la teoría computacional sobre el problema
b) La representación y el algoritmo
c) Implementación del hardware
A. La teoría computacional, precisamente, lo que busca es el propósito de la tecnología, responde a la pregunta de por qué es apropiado computar ciertas cosas, y otras no.
B. En el nivel intermedio está la representación y el algoritmo, y las preguntas que se responden aquí son sobre cómo se haría, cuál es la representación para el input y el output, y cuál es el algoritmo para la representación.
C. Y el nivel inferior está el hardware, cómo puede realizarse físicamente la representación y el algoritmo.
Precisamente, David Marr hacía hincapié en la teoría computacional porque la consideraba la más importante, y es que así es, y en IA hay muy poca Teoría Computacional en el sentido expuesto por Marr, un ejemplo es, precisamente, e ChatGPT. Se habla del cómo, pero no se explica el por qué y sus propósitos.
SEGUNDO, relacionado con lo anterior, ¿qué problemas humanos resuelve? Este debería de ser el parámetro para poder medir cualquier tecnología que sea usada, ya sea para optimizar procesos, o una tecnología disruptiva. Y que suponga un beneficio para las personas. Uno podría ser el refuerzo del aprendizaje.
Esto nos lleva a otro nivel de razonamiento, más cultural, que es la cultura alrededor del dato. ¿Qué se necesita para razonar los 3 niveles completos de la jerarquía del entendimiento? Judea Pearl nos dice que lo importante aquí es el input y el output, de dónde viene la información, y qué tipo de pregunta queremos responder con esa información. Junto con el aprendizaje profundo nececitamos un ENTENDIMIENTO PROFUNDO, y hoy día no hay sistema de IA que responda a esta realidad.
Este es el problema humano que debemos resolver nosotros y que le estamos resolviendo a OpenAI, que no han definido el por qué, sino el cómo.
El ChatGPT no es un sistema que tenga una combinación del conocimiento del mundo relacionado con la realidad del mundo, de las personas, los problemas del cuerpo humano, cómo funcional, y todo esto, junto con datos.
Datos entendidos como una ventana a través de la cual buscamos interrogar la realidad del mundo que nos rodea.
El razonamiento causal puede ayudar mucho en esta materia, primero tenemos que saber. Los humanos sacamos conclusiones (inferencias) a través de la causalidad, y es así como hemos construido el mundo en nuestras cabezas:
(i) Qué estamos buscando
(ii) Cómo utilizarlo
(iii) Aprovecharlo para comunicarnos con los humanos, en última instancia.
TERCERO, el ChatGPT no funciona como una persona, ni mucho menos.
Hay cuatro cosas que Gary Marcus resaltó desde un principio que el ChatGPT no puede hacer pero que el cerebro humano hace con total facilidad:
a) Abstracción. Es una parte esencial de la cognición humana y la IA sigue sin luchando con ella. Sería la capacidad de pensar de manera independiente a la realidad que nos rodea.
b) Razonamiento. Los humanos razonamos sobre el mundo. La genialidad del ChatGPT es que responde a todas las preguntas, pero no nos asegura que a respuesta sea la correcta, por lo que no podemos contar con ella.
c) Composicionalidad. Los humanos entendemos el lenguaje como un todo compuesto por partes. El ChatGPT no entiende la sintaxis. No entiende cómo juntamos las frases, ni los comparativos, ni las negaciones, ni las elipsis. Los grandes modelos de lenguaje no entienden nada de esto.
d) Factualidad. Los grandes modelos de lenguaje no se pueden actualizar de forma incremental, no les podemos dar datos nuevos y que se actualicen, sino que hay que reentrenarlos de nuevo para que incorporen nuevos conocimientos. Los humanos actualizamos nuestro conocimiento de manera automática cada vez que aprendemos información nueva.
Para terminar, y como dijo Noam Chomsky, con esta herramienta, ¿qué aprendemos de estos enfoques sobre el pensamiento, del lenguaje en particular, sobre el componente central de la cognición humana, sobre lo que significa ser humano?
No nos responde a las preguntas fundamentales que el ser humano se ha hecho a lo largo de la historia de la humanidad.
Si queremos mejorar estos sistemas, el mejor camino es seguir indagando acerca del ser humano, acerca de qué tipo de criaturas somos y cómo funciona nuestro cerebro.
Y, es que, más allá del plagio no vemos más utlidades. También pensemos en una cosa, y es que, si no aprendemos los fundamentos básicos de las matemáticas, de la gramática, si no aprendemos y entendemos la historia de la humanidad, los patrones que se repiten. Si no aprendemos por qué es tan importante el Derecho Romano, o la literatura, sólo por nombrar unos cuantos ejemplos, cuando el razonamiento se complique no podremos seguirle, nos estancaríamos.
¿Quizás deberíamos aprender y trabajar enfocados en las limitaciones de los sistemas de IA? Sólo así no serían capaces de sustituirnos y, lo que es más importante, veríamos el mundo y la realidad que nos rodea desde la curiosidad de conocimiento.
2 comentarios
Muchas gracias por luchar por la ética.
Muchas gracias, Mauricio