top of page
Patrícia

El xou d'OpenAI i la consolidació del (problemàtic) concepte AGI o la màquina pensant

Updated: Nov 26, 2023

Un dels temes en què crec que no ens hem fixat prou als mitjans durant el xou d'OpenAI és com ha ajudat a continuar consolidant el concepte AGI (Artificial General Intelligence). La utopia de la màquina que pensa com a ésser humà. Tema que tracto a la meva tesi. Hi ha alguna cosa més: OpenAI l'ha redefinit.


Han afegit a la definició original d'AGI el que poso entre cometes: ...són sistemes que superen la intel·ligència humana "en la majoria de tasques amb valor econòmic". Crec que aquest canvi pot revelar diverses coses importants.

Apunt: La intel·ligència artificial general o IAG és l'objectiu de la investigació en IA, com és sabut i expliquen, entre d'altres, Ramón López de Mántaras (2023). Una cita d'un dels pares de la IA, Marvin Minsky, a la revista Life (1970) resumeix la idea “(...) we will have a machine with the general intelligence of an average human being”.


Convé recordar que el concepte IA (Intel·ligència Artificial) neix el 1956, a proposta de John McCarthy i el mateix Miinsky, a la conferència de Dormouth. Darrere d'aquest concepte subjau la premissa que qualsevol aspecte de l'aprenentatge o qualsevol altre tret intel·ligent pot ser descrit amb tal precisió que una màquina podria simular-ho.


El 1975, Allen Newell i Herbert Simon, dos altres prestigiosos investigadors a IA, van formular la hipòtesi del sistema físic de símbols (SFS) que, expressat de forma molt resumida, postula que tot sistema que processa símbols posseeix els mitjans suficients per ser intel·ligent, en el sentit que proposava Minsky. El terme general a IAG s'usa com a diferenciador de la intel·ligència o competència específica de la qual sabem que demostren les màquines, per exemple, en el joc dels escacs. No obstant això, un sistema que juga a escacs no es pot fer servir per a la resta de tasques que requereix la intel·ligència general o humana.


De l'aspiració humana per crear màquines pensants hi ha vestigis des de l'antiga Grècia, passant per l'edat mitjana i la modernitat. Tot i això, va ser Alan Turing, considerat el pare de la computació tal com la coneixem avui, qui va plantejar la possibilitat d'una màquina que pensi com l'ésser humà el 1950, en un genial assaig publicat a la revista Mind. A més, Turing va dissenyar el mètode per decidir si una màquina era intel·ligent, el conegut Test de Turing. La prova consisteix que una persona interroga, mitjançant un teclat, una màquina i una altra persona. Si la interrogadora no identifica la màquina durant més del 30% del temps (més de cinc minuts), aquesta ha passat el test i, per tant, és intel·ligent.


Si una màquina pot pensar és la pregunta que ha dominat la filosofia de la IA fins als nostres dies, per això és important l'assaig de Turing. Es tracta d'una pregunta fonamental, perquè en la mesura que concedim més capacitat a la màquina, més hi confiarem. Aquest punt és fonamental des de la mirada de l'ètica,perquè si no entenem els límits de les competències maquinals podem delegar en excés, i aquest acostuma a ser el gran problema que hi ha rere els mals usos de la tecnologia (en el millor dels casos).

Si una màquina pot pensar és una pregunta fonamental, perquè en la mesura que concedim més capacitat a la màquina, més hi confiarem.

El plantejament del Test de Turing ha estat refutat des del seu concepte en diverses ocasions. Les que es consideren les principals objeccions són les dels filòsofs Hebert Dreyfus (1965) i John Searle (1980).

Dreyfus va postular que convertir un artefacte en una ment pensant és com l'alquímia de l'edat mitjana que pretenia convertir el plom en or, perquè una màquina opera sobre dades finites i està subjecta a indicacions humanes.


Searle va objectar amb l'experiment de l'habitació xinesa. En aquest, proposa un escenari on ell mateix està tancat en una habitació amb una escletxa per on entren missatges escrits en forma símbols xinesos que Searle no comprèn. Sense ell saber-ho, es tracta de preguntes, a les quals ell haurà de respondre, també en xinès, a través d'una segona escletxa. Per fer-ho, compta amb l'ajuda d'un manual que li indica quins símbols ha d'utilitzar per contestar. Aquest llibre de regles simbolitza un programa de processament de llenguatge natural. A l'altra banda, un xinès rep les seves respostes, i està segur d'estar conversant amb algú que sap el seu idioma. La pregunta que fa Searle és si, en aquest cas, podem afirmar que ell (que és qui és a dins) sap xinès. Searle concloïa que el càlcul formal sol (el que estava fent ell a l'habitació) no pot generar intencionalitat, o el que és el mateix: el fet que un programa utilitzi símbols de manera adequada no implica que sigui capaç de comprendre de manera genuïna (com ho fa una persona humana). La principal objecció a la prova de Turing, doncs, és que està limitada perquè es refereix només al comportament del que és observable.



Avui ens trobem en el punt en què el va deixar Searle, però mai no deixen d'aparèixer refutacions de tota mena, encara que ningú encara ha demostrat que hi hagi la possibilitat d'una IAG. Per cert, l'objecció més important a L'habitació xinesa defensa que al cervell, cadascuna de les neurones individualment tampoc entén el llenguatge, però el sistema biològic complet (cos i ment) sí que l'entén.


Des de la biologia, per descomptat, també existeixen explicacions a considerar que vinculen l'activitat mental amb el fet d'estar viu, entre altres coses, perquè la ment funciona a través de processos bioquímics que per la seva naturalesa material és impossible computar. En aquesta línia, la fenomenologia postula que per pensar cal ser un agent: fet que implica disposar d'objectius, tenir corporalitat, percebre estímuls i sentir emocions.


Sobre això s'ha dit molt més, però el que és evident, com diu l'experta a IA Margaret Boden, és que si s'accepta que per pensar com un ésser humà cal la vida, una màquina no pot disposar d'intel·ligència general.


Dit això, vaig a la redefinició que ha fet OpenAI d'IAG. Deia que ens pot revelar diverses coses:


1-Seguim amb els jocs de paraules. Es treuen una altra definició de la butxaca. El llenguatge, les narratives, tenen un paper FONAMENTAL en tot aquest tema que no tractem prou des de la comunicació.


2 - Renuncien (en aparença) al significat real d'AGI. Potser perquè al final no és pràctic discutir si es pot crear una màquina pensant.


3- El que sí que és pràctic i probablement molt rendible és crear màquines que "superin l'ésser humà en la majoria de tasques de valor econòmic”.


Dic renuncien en aparença perquè l'objectiu de l'Artificial Intelligence Movement (AIM) continua sent crear AGI, i s'ho creuen: màquines que pensen com l'ésser humà. Les asseveracions de l'enginyer de Google, Blake Lemoine sobre la suposada consciència del chatbot LaMDA amb què va mantenir una conversa profunda van ser un dels símptomes.


George Hinton, premi Turing que va abandonar Google per por de les màquines que estaven desenvolupant, un altre símptoma (per cert, Hinton és mentor d'Ilya Sutskever, cofundador d'OpenAI i un dels protagonistes del culebrot). Aquest vídeo de a l'entrevista que li fan a CNN és or. Referències constants a una suposada subjectivitat de les màquines.


Evitem antropoformitzar la màquina, perquè contribuïm a dotar-la d'una agència que no té i en conseqüència al relat de la por.

Aquesta redefinició d'AGI pot ser que reveli alguna cosa més. O més aviat confirma la conclusió del drama d'aquests dies: OpenAI no és cap ONG: és un negoci que té l'objectiu de substituir les persones en la majoria de tasques econòmicament valuoses.

Benvingudes les màquines que ens complementin. Però, per què volem que ens substitueixin? A qui convé, la substitució? Qui se'n beneficia? Per què la innovació s'orienta a substituir i no complementar/augmentar?



Aquesta és la política de la tecnologia sobre la qual hem de parlar, com fa dècades van reclamar pensadores com Hannah Arendt.

Posem la tecnologia al servei de la humanitat, no d'uns quants. Comencem per utilitzar bé les paraules i evitem antropoformitzar a la màquina, perquè contribuïm a dotar-la d'una agència que no té i en conseqüència al relat de la por.

Així es transmeten aquestes narratives de la por, de la inferioritat humana davant la màquina:



i els AI Hypers locals cotagiadíssims:



Aquests dies convé equilibrar el hype amb veus com les de Virginia Dignum, Emily Bender o Timnit Gebru.


Per aquí us deixo el vídeo de la presentació, en què vaig tenir l'honor de participar.


Acte de presentació de l'Informe Com s'informa sobre IA? al Col·legi de Periodistes.


Comments


A les xarxes socials

  • X
  • LinkedIn Social Icon
Arxiu
Cercar per tags
bottom of page