Luc Steels: “Les decisions dels humans han de limitar la intel·ligència artificial”

24.11.2015

Aquest vespre s’ha presentat al CCCB una conferència en el marc de “Màquines que pensen: possibilitats i dilemes de la intel·ligència artificial”, debats ICREA-CCCB. Karma Peiró, directora de Nació Digital, ha presentat l’investigador Luc Steels.

Imatge d'un robot

Imatge d’un robot

Els debats de l’ICREA-CCCB s’han iniciat aquest vespre al CCCB amb la conferència “La intel·ligència artificial per la pau o per la guerra?”. El proper 1 de desembre, Arcadi Navarro parlarà sobre “La intel·ligència com a estratègia evolutiva”, el 9 de desembre Hector Geffner ho farà sobre “Present i futur de la intel·ligència artificial” i, finalment, Mel Slater i Mavi Sánchez-Vives parlaran de “Percepció i realitat: la comprensió dels mons virtuals”.

La pregunta que s’ha plantejat inicialment és si la intel·ligència artificial és una amenaça. Luc Steels és expert en intel·ligència artificial, robòtica i llenguatge. Les seves primeres paraules han fet referència al futur de la humanitat, que interessa a aquells que estudien l’evolució. “Podem dir que la humanitat és la gran quantitat de gent, que va creixent”. I la humanitat està molt desequilibrada, amb països molt rics i d’altres de molt pobres. Per això hem de canviar la nostra conducta. La pregunta que ens podem fer és: quin és el paper de la intel·ligència artificial en el futur?

Abans que res, cal dir que la intel·ligència artificial és simbòlica, parla sobre la representació, el llenguatge, la gramàtica. Cal investigar com representar aquests tipus d’estructures a l’ordinador i així poder respondre preguntes o fer coses. Aquest tipus de ruta simbòlica té molts usos, però també presenta limitacions; la intel·ligència humana va més enllà.

Un dels usos de la intel·ligència artificial és el reconeixement facial, que es produeix gràcies a les connexions entre els nodes i les xarxes. La xarxa aprèn els passos adequats per determinar si quelcom és, per exemple, un gos o un gat. Això es pot fer perquè cada vegada es tracta la imatge en segments més petits que cal unir. La intel·ligència artificial funciona amb patrons, com la nostra intel·ligència.

Luc Steels ha mostrat en un vídeo la recerca que du a terme. En essència mira d’entendre de quina manera els robots podrien construir el seu propi llenguatge. Ha posat de manifest que hi ha aspectes creatius en el llenguatge humà, que sempre canvia, evoluciona. Hem pogut veure com els robots eren capaços de reconèixer-se ells mateixos i s’imitaven, i fins i tot els hem vist interactuar amb el científic.

Però Steels ens ha alertat de les aplicacions invisibles de la intel·ligència artificial, com ara ho és Google: introdueixes paraules i apareix immediatament un resultat. Per fer això calen ordinadors, servidors, que busquen informació en els milers de pàgines web mitjançant connexions que en un moment determinat puguin ser útils. Un altre exemple és el sistemes GPS, que et dóna informació sobre el trànsit o la meteorologia buscant informació per la web.

En el cas de la medicina, cap als anys 70 es va intentar automatitzar la regulació de la respiració en pacients en risc de complicacions cardíaques o cerebrals. En aquest cas, el paper de la intel·ligència artificial era marcar les pautes respiratòries de la persona i donar els fluxos d’aire.

La pregunta principal que es formula Steels és si la inteligència artificial pot ajudar als problemes de la societat. El científic és optimista i creu que pot tenir un efecte molt positiu en el món, per exemple, en els problemes de sostenibilitat, pot evitar catàstrofes geològiques, millorar el trànsit, el monitoratge mediambiental o la gestió dels ecosistemes vius. El problema es presenta quan hi ha la possibilitat d’enviar robots a la guerra, un tema vigent sobretot a Amèrica. Però Steels ha plantejat que fins i tot es podrien evitar les guerres mitjançant aquest tipus d’intel·ligència, per la comunicació intercultural: “El que s’hauria de fer és endegar projectes en favor de la pau”. Cal, comentava, “que els científics fem les propostes correctes que ens ajudin a tots”.

Però la intel·ligència artificial té molts perills. Persones com Stephen Hawking o Bill Gates han afirmat que el desenvolupament complet de la intel·ligència artificial ens aboca a la fi de la humanitat. Luc Steels creu que, de fet, és la pròpia humanitat que s’aboca cap a la seva fi.

El científic ens ha alertat de quatre perills. El primer, el fet que no siguem prou conscients de les seves limitacions. Ha posat l’exemple del Google Translate, que de vegades fa traduccions estranyes, perquè primer ho filtra en anglès. Aquest és un problema de significat: podem buscar molta informació, però hi ha d’haver una anàlisi profunda i un processament de les dades. La part del significat és una cosa humana.

D’altra banda, si utilitzem moltes aplicacions, com els sistemes de navegació amb el cotxe, deixem de fer funcionar part del nostre cervell, de manera que la intel·ligència artificial pot limitar les nostres capacitats. Ha posat l’exemple d’un experiment amb uns taxistes de Londres, als quals l’hipocamp els ha augmentat perquè han desenvolupat la capacitat de tenir a la seva ment el mapa de la ciutat. Si el cervell es pot fer més gran, també es pot reduir: “Hem de seguir utilitzant el nostre cervell per tal d’evitar la pèrdua d’aptituds”.

En tercer lloc, hi ha el perill de fiar-nos massa de la intel·ligència artificial. En el cas de la medicina, per exemple, un problema no es pot resoldre només amb la intel·ligència artificial. Aquesta no pot substituir el metge, que potser no podrà repassar bases de dades, però té experiència.

Finalment, la burocràcia. Quan t’enfrontes amb sistemes informàtics que no et deixen avançar per algun error, és frustrant. Amb un humà ho pots solucionar, en canvi els ordinadors et posen entrebancs.

En conclusió, “els humans sempre han de jugar el paper clau”. La intel·ligència artificial pot ser molt útil, sobretot quan tenim moltes dades i poc temps d’analitzar-les. Però quan s’ha de prendre una decisió l’element humà és decisiu.