Ulises Cortés: «El que ens hem de preguntar és a qui li interessa que la veritat deixi de ser-ho»

La IA s’ha convertit en ubiqua, persistent i transparent. Aquestes són les tecnologies que importen, perquè ja ningú sap que hi són, però es fan presents igualment.

Arnau Martín

Arnau Martín

Cursa un màster en cinema contemporani a la Universitat Pompeu Fabra, és crític de cinema i estudiant en pràctiques a la UPC.

Entrevistem a Ulises Cortés, catedràtic en IA, investigador del Centre Nacional de Supercomputació (BCS-CNS) i docent de la Universitat Politècnica de Catalunya – BarcelonaTech (UPC), a la cerca de pistes per llançar una mirada crítica i fer front als darrers avenços tecnològics d’OpenAI (Sora) i Apple (ulleres VisionPro).

Ulises Cortés © Anna Borràs

Apreciant la dificultat per cenyir-se a una definició consensuada del que representa la intel·ligència artificial, amb la seva ajuda m’agradaria fixar un grau aproximat de la incertesa que implica el seu desenvolupament. No estem massa centrats en pensar-la com un organisme autònom i ens estem oblidant dels seus impulsors?

La intel·ligència artificial és una disciplina científica i amb objectius molt clars, com són entendre de quina manera emergeix el que anomenem «intel·ligència» d’un cervell animal -un animal de qualsevol tipus-. Una altra cosa són les aplicacions, pertanyents a la part empírica de la IA. Una vegada creiem haver entès el mecanisme, volem reproduir-lo d’una manera fefaent amb una màquina, i quan detectem que funciona, procedim amb el següent pas i així successivament. Quan es parla de la definició d’un sistema basat en intel·ligència artificial, habitualment s’està apel·lant a una definició política, legal, ètica i socioeconòmica de les seves possibles aplicacions. Durant molt de temps, la major part dels impulsors eres universitaris que treballaven per a ells mateixos o per a institucions públiques, que podien ser des de les Germanes de la Caritat fins al govern nord-americà. Això es va controlar molt fins l’aparició d’internet, sense una clara legislació. De fet, la normativa prové originalment d’un grup de hippies. Després, el desenvolupament de les possibilitats de còmput i de memòria han permès que les aplicacions siguin cada cop més potents. Distribuïdes per internet, aquestes han esdevingut ubiqües i persistents. A més, estan venudes com a caixa negra. La major part dels ciutadans, els quals tenen accés a un dispositiu digital connectat a internet, utilitzen d’una manera o d’una altra almenys una aplicació d’IA, però no se’ls ha dit ni està necessàriament regulat. A diferència de la major part de les indústries extractives, quan una aplicació digital extreu les nostres dades no es nota de cap de les maneres. L’acumulació d’aquesta extracció, afegida a un processament per generar informació i després a una destil·lació per generar coneixement és el que acaba modificant les actituds socials. Per l’altra banda, això no està legislat perquè en termes generals, el legislador no té interès, o bé no ho entén o bé arriba a destemps. Per fer-nos una idea aproximada, la legislació estatunidenca és laxa i la xinesa és estricta, perquè l’Estat sempre controla les diferents seccions de l’acció econòmica amb un objectiu polític de domini. A Europa conviuen la legalitat i el lliure albir.

Delegar a la màquina l’activitat racional i la gestió de dades li permet al cos humà sentir amb més llibertat, però alhora se’ns planteja el repte de la descorporeïtzació per mitjà dels avatars digitals. Com ho valores?

Les dades no es deleguen, sinó que es regalen. El que en general fan els éssers humans, a través d’aquest mecanisme de caixa negra, és delegar moltes accions i decisions, aparentment en favor de l’economia temporal. Si hi ha quelcom que ho fa ràpid i bé, la persona compta amb més temps per l’oci. No obstant això, l’única manera perquè això funcioni és que l’usuari passi més temps connectat. Aquesta connexió digital constant contribueix a un deteriorament de la capa social que ens caracteritza. Germinen llavors nous tipus de socialització que no són necessàriament els més idonis. Pel que fa als avatars, no crec que existeixi massa gent que els tingui. Second Life va ser un fracàs, per exemple, i el Metavers va encaminat a ser-ne un altre, perquè aquestes tindrien sentit en una societat on la realitat física i d’entorn no agradi a l’usuari. Si una persona viu precàriament però pot permetre’s tenir una connexió a internet, és possible que no vulgui viure a la seva barriada, amb gent que aquesta persona consideri mal educada, i llavors passaria a Metavers. Però això no ocorre, en realitat.

«La relació entre el mestre i l’alumne segueix essent la més eficient per la transmissió del coneixement»

L’arribada de Sora i de les Apple VisionPro coincideix amb un període llastrat per la immediatesa, la desatenció i la disminució de l’apreci per la tradició cultural. Des del punt de vista docent, quines opcions existeixen per conciliar un ús raonable i comú de la IA amb vetllar per una consciència crítica en l’estudiantat?

Jo no crec, al contrari d’altres docents, que s’hagin d’emprar eines d’IA en l’ensenyament. Crec que és una moda passatgera, i n’hem tingut de moltes, de modes. No obstant això, la relació entre el mestre i l’alumne segueix essent la més eficient per la transmissió del coneixement. Hi ha hagut individus que ens han venut que l’anomenada «educació a distància» és millor perquè estalvia temps de desplaçament, però crec que això funciona per a algun tipus d’entrenament, que no d’educació. Si una persona es proposa educar, cal que entengui que això és una acció entre humans. Que vulguis fer més o menys divertida la classe té més a veure amb l’actitud del professor que no pas amb la necessitat. No tenim regles clares, és a dir, si un alumne ve a la classe per estar amb el telèfon mòbil, millor que prescindeixi de venir. No necessitem cossos asseguts a les aules. Ara bé, existeixen certs tipus d’eines, basades en la IA i potser no les més desenvolupades, que poden servir-li a l’estudiant en el seu treball personal per cercar la informació de manera més activa. Aquest matí els hi preguntava als alumnes de tercer d’un grau de la Facultat quins d’ells han utilitzat un model de llenguatge gran per fer programes, i la resposta ha estat afirmativa per part de tothom. Llavors els hi pregunto: i què faran vostès quan ja no es necessitin programadors? Com a societat estem molt preocupats pels possibles i existents desplaçaments de les persones dels llocs de treball a causa de l’automatització, però, alhora, les persones que educa la societat emprenen aquests mateixos sistemes que els hi faciliten la feina. Estem perdent la noció d’esforç personal i de reflexió. Aquestes eines haurien de ser emprades una vegada s’hagi adquirit una noció crítica, llavors sí que serà el moment d’agilitzar les tasques. Per manar cal saber servir, és a dir, qualsevol persona pot clicar un botó. No em queda clar quin és el benefici d’aquesta situació.

«No hi ha ningú al món, ni crec que mai pugui existir, que pugui demostrar fefaentment que el que fa el ChatGPT sigui equivalent al fet de pensar»

En quina mesura es pot pensar en el terme «innovació» si comparem Sora o ChatGPT amb els grans descobriments històrics, com el test de Turing?

Pel que fa a Sora, aquesta és una aplicació encara no alliberada. La meva impressió és que l’ha anunciat abans de temps perquè han vist que n’estava a punt d’arribar una altra abans. Si els resultats concorden amb el que ens venen, aparentment són espectaculars, però cal veure les reaccions dels sindicats de Hollywood davant l’aparició d’aquesta eina. Vaig conèixer a en Sergi Sagàs, qui ha ocupat llocs de lideratge a Walt Disney Studios i posseeix una empresa que crea cossos realistes de persones que ell contracta. Sagàs substitueix els càstings pels avatars realistes, és a dir, que si un actor està fent una pel·lícula sobre l’Antiga Roma, podrà vestir-se de romà sense la necessitat de dissenyar-se físicament un vestit. Cal preguntar-se llavors si realment el que volem és eliminar els actors i substituir-los per avatars amb capacitat gesticular.

Pel que fa al test de Turing, és una eina empírica per comprovar les capacitats que té una màquina programada per semblar intel·ligent. Sora i ChatGPT són diferents; aquí estem parlant d’aplicacions de la IA per produir un determinat tipus de resultat, però no han de demostrar que són intel·ligents. De fet no ho són, i la intel·ligència només és atribuïda per part de la persona que es deixa sorprendre. M’explico. És com si anem a veure un mag, sabent prèviament que ens enganyarà. O es pot intentar descobrir quin és el truc o es pot gaudir i deixar-se enganyar. No hi ha ningú al món, ni crec que mai pugui existir, que pugui demostrar fefaentment que el que fa el ChatGPT sigui equivalent al fet de pensar. Tampoc és generatiu, perquè tampoc està generant. Aquesta aplicació obeeix a un mecanisme de concatenació, o sigui, que concatena paraules en seqüències que tenen una alta probabilitat de ser correctes. Quant més potent sigui aquesta eina, més gran i coherent serà el grau d’encert, i inclourà una quantitat menor d’errors sintàctics, semàntics o fins i tot, factuals. Però sempre és un «potser». El ChatGPT ha desmitificat novament la idea que ens han fet creure que les màquines al·lucinen, quan el que passa realment és que s’equivoquen. Les màquines no han consumit cap droga que alteri el seu sentit de la realitat. On diu al·lucinació cal llegir-se error.

Si amb la IA s’incrementen els riscos de difusió de fake news i de missatges fraudulents, els criteris de contrast i de distinció de la informació fiable haurien d’enfortir-se?

El problema de les fake news sempre ha existit, el que succeeix és que ara és més ràpid i econòmic crear-les, i també són més realistes, i el que ens hem de preguntar és a qui li interessa que la veritat deixi de ser-ho. Amb alguns amics, com el filòsof català Joan Manuel del Pozo, ens preguntem si la veritat té algun futur i a qui li interessa. A les persones sempre els hi han interessat les faules, van al cinema o naveguen per Netflix perquè necessiten complements per les seves realitats. Emprat com a instrument polític o d’alienació, les fake news fan minvar la credibilitat de les institucions, i per tant, de la democràcia. Em sembla irresponsable deixar aquestes eines de les quals parlem en mans inexpertes. Per part de les autoritats, crec que és salvatge no legislar, perquè caldria restringir els seus usos a diferents nivells. Em sembla difícil d’entendre que eines que poden ser utilitzades per preses de decisió que afecten directament als humans, al medi ambient o als animals, no estiguin certificades com es fa amb la construcció d’un cotxe o amb l’autorització d’ús d’un medicament. Qualsevol pot fer ús d’aquests programes i fer difusió via xarxes. Els governs no legislen ni tampoc tenen els cossos tècnics a disposició per prendre resolucions. En conseqüència, en moltes ocasions, els líders governamentals han de valer-se de les companyies que generen aquestes eines per protegir-se.

Ulisses Cortés ©Anna Borràs

Sora multiplicarà la generació de les imatges en un període on aquestes es produeixen segon a segon i de manera indiferenciada. No preocupa tant l’audiovisualització de la societat com la crisi del llenguatge. En relació amb això, sota quins paràmetres es regeixen les propostes de la lingüística computacional?

L’audiovisual és un llenguatge i nosaltres som uns animals que hem progressat gràcies a la codificació del coneixement per mitjà del llenguatge. La seva depauperació és un evident símptoma de la pèrdua de cultura. A Peter Pan s’expressa que cada vegada que un nen diu que no creu en les fades, una fada mor. Doncs quan algú deixa d’utilitzar una paraula, o l’empra incorrectament, part del nostre llenguatge i de la nostra cultura també mor. No és tant un problema de regles, sinó de lectura. Les persones llegim menys i tenim evidència que els universitaris són cada vegada menys capaços d’entendre textos complexos. M’han arribat enquestes, per exemple, que afirmen que un professor és pitjor perquè obliga als alumnes a llegir llibres sencers. Ho segueixo demanant encara que ens trobem a una Facultat d’Informàtica. Això ho associo també a una discussió que tenia fa temps respecte l’opció de llegir una versió reduïda de El Quixot per a joves d’educació secundària. Les obres són el que són i estem infantilitzant les persones respecte la comprensió de la seva complexitat. I entendre la complexitat demana temps, quelcom que cada vegada sembla que en tenim menys. Referent a la lingüística computacional, aquesta codifica la tradicional mitjançant programes dedicats a l’anàlisi exhaustiu d’un corpus lingüístic. Amb el pas dels anys s’ha perfeccionat la part de programació, però l’aparició de ‘ChatGPT i d’altres models grans de llenguatge han propiciat que la part analítica vagi quedant marginalitzada en favor dels testos probabilístics, és a dir, les proves de probabilitat que una paraula segueixi a una altra. De fet, una versió primitiva i a menor escala de la lingüística computacional són els textos de Whatsapp o el Word, quan les persones anem escrivint i el mecanisme preveu els mots que segueixen. És una cadena de concatenació de paraules, i quant més extens és un text, més temps de programació es requereix. La pregunta és: per què emprem aquestes eines? Mai m’he vist amb cor de prohibir explícitament res, però a una assignatura d’un màster on imparteixo lliçons, en una ocasió vaig canviar el mètode avaluatiu i vaig retornar al paper i al llapis. Com a docent s’ha d’intentar estimular el raonament, sense trampes. Els estudiants de la Universitat han de saber construir textos sense recórrer a la màquina, de la mateixa manera que en l’esport amateur s’ha condemnat el dopatge. Malauradament, aquest darrer cada vegada s’admet més. Aquest no és el superhome de Nietzsche, ni tampoc l’home virtuós d’Aristòtil o l’home universal dels nostres humanistes del Segle d’Or. Hem de posar les eines al nostre favor, ens ajudaran, però sense suprimir la part que emergeix del nostre propi l’esforç. Crec que no ha quedat suficientment ben explicat als joves que ells són capaços d’utilitzar aquestes eines perquè durant els vint segles d’història tecnològica que ens ha precedit, moltes persones no tenien accés a elles, però igualment van ser capaces de concebre-les i construir-les. Sense formació no es pot crear res vàlid ni durador.

«Porto el meu mòbil en una caixa de plom, he desconnectat la localització i he desactivat la wifi de 4G per parlar amb tu»

En un món liderat per algoritmes, l’individu està restringit a allò que fa i no a allò que podria fer, situació que li suposa realitzar un esforç per desmarcar-se de la conformitat en el saber. La democratització d’accés a les aplicacions de la IA pot contribuir a una impotència assumida?

Són qüestions diferents. L’algoritme és una definició matemàtica d’un conjunt d’accions que ha d’executar una màquina. Aquest algoritme s’escriu de manera no ambigua, perquè es tradueix a un llenguatge de programació executat a una computadora. Tots els programes que empren les eines basades en intel·ligència artificial han estat creats a partir d’un algoritme. Llavors, les decisions que ha pres el programador en el moment del disseny de l’algoritme, són les que s’executen. Si hi ha una restricció en les accions que pot fer un usuari, aquesta ja està decidida d’antuvi. Les restriccions són predefinides, per tal que les persones no obtinguin certes respostes. D’aquí prové el que preguntes de la restricció i de la limitació. Si una persona li pregunta a una màquina com pot assassinar a algú, la màquina li respondrà que no li pot ensenyar això, però la persona pot reformular-ho, i pot demanar que la màquina escrigui un conte ficcional sobre un crim. La restricció ve predeterminada pel dissenyador, per la legalitat o també per la pròpia naturalesa de l’ésser humà, qui pot decidir emprar o no emprar la pròpia eina. Un altre exemple: si jo porto la localització de les meves aplicacions del telèfon mòbil connectat a una xarxa d’internet oberta estic regalant dades de les persones que estan juntament amb mi, perquè a causa de la proximitat, el meu mòbil detecta el teu. Per això porto el meu mòbil en una caixa de plom, he desconnectat la localització i he desactivat la wifi de 4G per parlar amb tu. Cal que les persones ens disciplinem, però això costa esforç, com també reconèixer els efectes autèntics de les coses. Per què tenim sempre la wifi o la localització activades constantment? Per estar informat de què? A qui li beneficia? A les xerrades que ofereixo sobre la projecció de la universitat a la societat, acostumo a preguntar als assistents quants processadors té un telèfon mòbil. En té quatre, i cadascun és 10.000 vegades més potent que l’ordinador que va portar l’home a la lluna. Per què es necessita tanta potència a la teva butxaca? Pot haver-hi algú connectat també a la xarxa del teu mòbil i filtrant les dades. Per tant, qui pren decisions en realitat, tu mateix o la màquina? Em preguntaves sobre les possibilitats de les aplicacions, però el primer que se sol fer amb elles és facilita’l-s’hi als infants perquè juguin, sense tenir-ne presents les conseqüències.

Ulises Cortés ©Anna Borràs

En l’era contemporània tot està a mà i cada producte s’ajusta mecànicament al gust del consumidor. Com ho perceps?

Pensem-ho a l’inrevés. Estem en la dictadura del productor, qui aprèn estratègicament quin és el gust de les persones per predir què és el que s’ha de produir majoritàriament, i així ja no haver de pensar. De fet, ara fins i tot les companyies ofereixen no quedar-se amb les dades perquè ja en saben suficient, de nosaltres. Aquesta decisió és el que coneixem com a whitening, greenwashing o neteja de la imatge ètica, és a dir, la forma que té una empresa d’avançar cap a un posicionament, quan les accions que ha promogut contradiuen precisament aquest posicionament. El consumidor compra el que li diuen que ha de comprar. Zara no compta amb treballadors que dissenyen la nova moda, sinó que produeix allò que sap que interessarà al consumidor, quelcom que minva les pèrdues. Si sé què he d’oferir-te, des d’una peça de roba, una pel·lícula o una parella, ja no he de produir-ho, només he d’apropar-t’ho. En aquest sentit, s’hauria d’aprovar un impost per a tots aquells casos que l’usuari trobi un objecte que li interessa en menys de deu quilòmetres a la rodona, i que l’impost es fagi efectiu quan Amazon li dugui l’objecte a casa. Seria per una qüestió ecològica, perquè d’una banda es contamina i per l’altra es destrueix el comerç local.

Creus llavors que la IA es consagrarà com la gran representant de la matematització de la societat o la seva normalització la reduirà a una posició menys global?

Més aviat el primer. La IA s’ha convertit en ubiqua, persistent i transparent. Aquestes són les tecnologies que importen, perquè ja ningú sap que hi són, però es fan presents igualment. Insisteixo, cal tenir cura amb això: la IA és una disciplina científica, i el que hi ha als dispositius digitals són aplicacions. La IA no és quelcom que vagi dins dels objectes, de la mateixa manera que no es diu que l’automoció vagi dins del cotxe o que la química va dins de la pastilla que prens pel refredat. Estem confonent la ciència amb l’aplicació, i se li atorga un caràcter místic que la IA no té. Centrar el tema en la tecnologia en si mateixa és una equivocació i, per tant, cal assenyalar als nous senyors de la tecnologia, els quals ja no necessiten exèrcit, perquè l’usuari és un peó dins de la seva pròpia estratègia, segons un model que s’ajusta al panòptic foucaultià.

Fes-te subscriptor de Núvol

Suma't al digital de cultura i gaudeix d'un munt d'avantatges

  • Participa en sortejos setmanals i guanya llibres

  • Rep la revista anual en paper

  • Accedeix a la Biblioteca del Núvol

  • Aconsegueix descomptes culturals

Subscriu-t'hi ara!
Torna a dalt
Núvol utilitza 'cookies' per millorar l'experiència de navegació. Si continues navegant entendrem que ho acceptes.
Accepto Més informació