El show de OpenAI y la consolidación del (problemático) concepto AGI o la máquina pensante
Actualizado: 26 nov 2023
Uno de los temas en los que creo que no nos hemos fijado suficiente en los medios durante el show de OpenAI es cómo ha ayudado a seguir consolidando el concepto AGI (Artificial General Intelligence). La utopía de la máquina que piensa como el ser humano. Tema que trato en mi tesis. Hay algo más: OpenAI lo ha redefinido.
Han añadido a la definición original de AGI lo que pongo entre comillas: ...son sistemas que superan ala inteligencia humana "en la mayoría de tareas con valor económico". Creo que ese cambio puede revelar varias cosas importantes.
Apunte: La inteligencia artificial general o IAG es el objetivo de la investigación en IA, como es sabido y explican, entre otros, el investigador Ramón López de Mántaras (2023). Una cita de uno de los padres de la IA, Marvin Minsky, en la revista Life (1970) resume la idea “(...) we will have a machine with the general intelligence of an average human being”.
Conviene recordar que el concepto IA (Inteligencia Artificial) nace en 1956, a propuesta de John McCarthy y el mismo Miinsky, en la conferencia de Dormouth. Tras este concepto subyace la premisa de que cualquier aspecto del aprendizaje o cualquier otro rasgo inteligente puede ser descrito con tal precisión que una máquina podría simularlo.
En 1975, Allen Newell y Herbert Simon, otros dos prestigiosos investigadores en IA formularon la hipótesis del sistema físico de símbolos (SFS) que, expresado de forma muy resumida, postula que todo sistema que procesa símbolos posee los medios suficientes para ser inteligente, en el sentido que proponía Minsky. El término general en IAG se usa como diferenciador de la inteligencia o competencia específica de la que sabemos que demuestran las máquinas, por ejemplo, en el juego del ajedrez. Sin embargo, un sistema que juega a ajedrez no puede usarse para el resto de tareas que requiere la inteligencia general o humana.
De la aspiración humana por crear máquinas pensantes existen vestigios desde la antigua Grecia, pasando por la Edad Media y la modernidad. Sin embargo, fue Alan Turing, considerado el padre de la computación tal como la conocemos hoy, quien planteó la posibilidad de una máquina que piense como el ser humano en 1950, en un genial ensayo publicado en la revista Mind. Además, Turing diseñó el método para decidir si una máquina era inteligente, el conocido Test de Turing. La prueba consiste en que una persona interroga, a través de un teclado, a una máquina y a otra persona. Si la interrogadora no identifica a la máquina durante más del 30% del tiempo (más de cinco minutos), ésta ha pasado el test y, por tanto, es inteligente.
Si una máquina puede pensar es la pregunta que ha dominado la filosofía de la IA hasta nuestros días, de ahí la importancia del ensayo de Turing. Se trata de una pregunta fundamental, porque en la medida que le concedamos más capacidad a la máquina, más confiaremos en ella. Este punto es importante, porque si no entendemos los límites de las competencias maquinales podemos delegar en exceso, y ese acostumbra a ser el gran problema que se encuentra en la raiz de los malos usos de la tecnología (en el mejor de los casos).
Si una máquina puede pensar se trata de una pregunta fundamental, porque en la medida que le concedamos más capacidad a la máquina, más confiaremos en ella.
El planteamiento del Test de Turing ha sido refutado desde su concepto en varias ocasiones. Las que se consideran las principales objeciones son las de los filósofos Hebert Dreyfus (1965) y John Searle (1980).
Dreyfus postuló que convertir un artefacto en una mente pensante es como la alquimia de la edad media que pretendía convertir el plomo en oro, porque un máquina opera sobre datos finitos y está sujeta a indicaciones humanas.
Searle objetó con el experimento de La habitación china. En éste, propone un escenario en el que él mismo está encerrado en una habitación con una ranura por la que entran mensajes escritos en forma símbolos chinos que Searle no comprende. Sin él saberlo, se trata de preguntas, a las que él tendrá que responder, también en chino, a través de una segunda ranura. Para ello, cuenta con la ayuda de un manual que le indica qué símbolos debe utilizar para contestar. Este libro de reglas simboliza un programa de procesamiento de lenguaje natural. En el otro lado, recibe sus respuestas un chino que está seguro de estar conversando con alguien que sabe su idioma. La pregunta que hace Searle es si, en este caso, podemos afirmar que él (que es quien está dentro) sabe chino. Searle concluía que el cálculo formal solo (lo que estaba haciendo él en la habitación) no puede generar intencionalidad, o lo que es lo mismo: el hecho de que un programa utilice símbolos de forma adecuada no implica que sea capaz de comprender de manera genuina (como lo hace una persona humana). La principal objeción a la prueba de Turing, pues, es que está limitada porque se refiere sólo al comportamiento de lo observable.
Hoy nos encontramos en el punto en el que lo dejó Searle, sin embargo nunca dejan de aparecer refutaciones de todo tipo, aunque nadie aún ha demostrado que exista la posibilidad de una IAG. La objeción más importante a La habitación china defiende que en el cerebro, cada una de las neuronas individualmente tampoco entiende el lenguaje, pero el sistema biológico completo (cuerpo y mente) sí lo entiende.
Desde la biología, por supuesto, existen explicaciones que vinculan la actividad mental con el hecho de estar vivo, entre otras cosas, porque la mente funciona a través de procesos bioquímicos que por su naturaleza material es imposible computar. En esta línea, la fenomenología postula que para pensar hay que ser un agente: tener corporalidad, con lo que implica disponer de objetivos, percibir estímulos y sentir emociones.
Sobre esto se ha dicho mucho más, pero lo que es evidente, como dice la experta en IA Margaret Boden, es que si se acepta que para pensar como un ser humano es necesaria la vida, una máquina no puede disponer de inteligencia general.
Dicho esto, voy a la redefinición que ha hecho OpenAI de IAG. Decía que nos puede revelar varias cosas:
1-Seguimos con los juegos de palabras. Se sacan otra definición del bolsillo. El lenguaje, las narrativas, tienen un papel FUNDAMENTAL en todo este tema que no tratamos lo suficiente desde la comunicación.
2 - Renuncian (en apariencia) al significado real de AGI. Quizás, porque al final no es práctico discutir si se puede crear una máquina pensante.
3- Lo que sí es práctico y probablemente muy rentable es crear máquinas que "superen al ser humano en la mayoría de tareas de valor económico”.
Digo renuncian en apariencia porque el objetivo del AIM (Artificial Intelligence Movement) sigue siendo crear AGI, y se lo creen: máquinas que piensan como el ser humano. Las aseveraciones del ingeniero de Google, Blake Lemoine sobre la supuesta conciencia del chatbot LaMDA con el que mantuvo una conversación profunda fue uno de los síntomas.
OpenAI no es ninguna ONG: es un negocio que tiene el objetivo de sustituir a las personas en la mayoría de tareas económicamente valiosas
George Hinton, premio Turing que abandonó Google por temor a las máquinas que estaban desarrollando, otro síntoma (por cierto, Hinton es mentor de Ilya Sutskever, cofundador de OpenAI y uno de los protagonistas del culebrón). Este vídeo de a la entrevista que le hacen en CNN es oro. Referencias constantes a una supuesta subjetividad de las máquinas.
Esta redefinición de AGI puede que revele algo más. O, más bien, confirma la conclusión del drama de estos días: OpenAI no es ninguna ONG: es un negocio que tiene el objetivo de sustituir a las personas en la mayoría de tareas económicamente valiosas.
Bienvenidas las máquinas que nos complementen. Pero, ¿para qué queremos que nos sustituyan? ¿A quiénes conviene, la sustitución? ¿Quiénes se benefician de ésta? ¿Por qué se orienta a sustituir y no complementar / aumentar?
Esta es la política de la tecnología sobre la que tenemos que hablar, como hace décadas reclamaron pensadoras como Hannah Arendt.
Pongamos la tecnología al servicio de la humanidad, no de unos cuantos. Empecemos por usar bien las palabras y evitemos antropoformizar a la máquina, porque contribuimos a dotarla de una agencia que no tiene y en consecuencia al relato del miedo.
Así se transmiten estas narrativas del miedo, de la inferioridad humana ante la máquina:
y los AI Hypers locales cotagiadísimos:
Estos días conviene equilibrar el hype con voces como las de Virginia Dignum, Emily Bender o Tamnit Gebru.
También recomiendo este informe publicado por Observatori Crític dels Mitjans y La Fede, elaborado por Bru Aguiló y Pau Zalduendo. ¿Cómo se informa sobre IA?
Por aquí os dejo el vídeo de la presentación, en la que tuve el honor de participar.
Comments