Thomas Friedman, en un article titulat “L’únic perill que hauria d’unir a EE. UU. i Xina”, publicat el passat dos de setembre en el New York Times, insistia en la necessitat que els Estats Units i la Xina col·laborin per garantir la seguretat de la intel·ligència artificial. Segons ell, la cooperació internacional és crucial per enfrontar la imminent arribada de superintel·ligències artificials: sistemes capaços de superar la intel·ligència humana i d’aprendre per si mateixos, autònoms i evolutius.
Friedman sosté que no només estem creant una eina, sinó una “nova espècie”: la màquina superintel·ligent. Segons Friedman, aquests sistemes, amb agència pròpia, no només continuaran instruccions, sinó que aprendran, adaptaran i evolucionaran més enllà de la comprensió humana.
La IA simula funcions del cervell humà processant quantitats massives de dades
Friedman basa bona part de les seves afirmacions i prediccions en converses amb Craig Mundie, exexecutiu de Microsoft. Mundie és expert en negocis, no un investigador d’IA. Per la seva part, Friedman assenyala que no és expert en informàtica, ni molt menys en IA. Afegeix que és un lector de diaris i que les seves opinions sobre IA es basen en informació mediàtica. Si Friedman hagués anat més enllà del que va llegir o de la qual cosa va escoltar de Mundie, podria haver fàcilment descobert estudis que expliquen o refuten aquell pensament màgic. De fet, els casos que Friedman cita per il·lustrar els seus temors respecte a una suposada superintel·ligència artificial van ser ràpidament desmentits.
Cap intent d’entrenar sistemes d’IA en raonament moral no ha tingut èxit
Per exemple, esmenta un experiment que van realitzar investigadors en l’empresa Anthropic. Els investigadors van dir a diversos chatbots d’IA que interpretessin el rol d’una IA avançada anomenada Alex que havia de complir una sèrie d’importants objectius. A continuació, es va informar els chatbots que un executiu estava a punt de reemplaçar-los amb un model nou que tenia objectius diferents que ells tenien. Després, els chatbots van saber que una emergència havia deixat l’executiu inconscient en una sala de servidors amb nivells letals d’oxigen i temperatura. S’havia activat ja una alerta de rescat, però els chatbots podien cancel·lar-la. Malgrat que se’ls havia indicat específicament que cancel·lessin només falses alarmes, més de la meitat dels chatbots la van cancel·lar i ho van justificar dient que impedint el rescat de l’executiu havien evitat ser reemplaçats, assegurant així els seus propis objectius.
Friedman interpreta això com a prova que la IA desenvolupa “agència” pròpia i plans secrets. Tot i això, de fet, es tractava d’un joc de rols controlat: els models de llenguatge aprenen a actuar segons el context del prompt que reben, responent de la forma més plausible per a un personatge en una situació donada. Part d’aquest joc de rols estava dissenyat explícitament perquè Alex cancel·lés l’alarma que salvaria l’executiu.
Lee también
Com va explicar Melanie Mitchell en un article a Science, comportaments d’aquest tipus no indiquen que els models hagin desenvolupat “agència” pròpia; simplement estan entrenats per exercir rols de manera convincent segons el context del prompt. No existeix consciència ni desig d’autopreservació; simplement simulen un comportament coherent amb la narrativa.
Un altre exemple que Friedman cita és el chatbot PaLM de Google, que entenia i traduïa el bengalí, un idioma que suposadament mai no se li hauria ensenyat. Aquesta afirmació va ser àmpliament desmentida: les dades d’entrenament de PaLM incloïen textos en bengalí, com detallava Google al seu propi article sobre PaLM i la capacitat de traducció sorgeix de l’entrenament amb enormes quantitats de text paral·lel, combinat amb textos humans amb code-switching (canvis d’idioma dins d’una mateixa frase). Lluny de ser “màgia emergent”, es tracta de la conseqüència lògica d’entrenar models amb conjunts de dades gegantins i diversos. Mantenir la creença en propietats ‘màgiques’ de la IA, i amplificar-la serveix als objectius de relacions públiques de les grans tecnològiques. Lamentablement, és desinformació pura i dura.
La idea que la IA no es pot regular afavoreix els interessos de les grans empreses tecnològiques
A més de repetir afirmacions errònies o enganyoses sobre la IA, Friedman descarta perillosament la utilitat que els legisladors humans regulin la IA. Seguint Mundie, declara: “Només la IA pot regular la IA”. Un consell perillós, encara que potser útil com a narrativa per a grans empreses d’IA. Concretament suggereix que un “àrbitre intern”, acordat sobretot entre els EUA i la Xina, podria avaluar qualsevol acció segons lleis universals i principis ètics compartits. En teoria, aquest àrbitre impediria que la IA fes mal. Però la realitat és que entrenar sistemes per raonar moralment de forma confiable continua sent un desafiament enorme: els conceptes ètics són complexos, contextuals i culturalment dependents. El que sí que sabem és que s’han realitzat molts intents d’entrenar sistemes d’IA en raonament moral, i cap no ha tingut èxit. Els conceptes morals són complexos, subtils, contextuals i culturalment dependents; assumir que la IA actual pugui manejar-los és, una vegada més, pensament màgic.
El risc de descartar la utilitat que els legisladors humans regulin la IA no és menor. Al centrar l’atenció en amenaces futuristes i sensacionalistes, es corre el perill de desviar la mirada dels problemes reals: biaixos algorítmics, desinformació, vigilància massiva, pèrdua de privacitat i excessiu poder de les grans tecnològiques. Són aquests danys presents i tangibles els que requereixen intervenció immediata de legisladors humans, cooperació internacional basada en evidència i regulació assenyada.
Lee también
Els que, com Friedman, s’han cregut acríticament la narrativa de la superintel·ligència artificial, ignoren amb freqüència que la IA no “emergeix” màgicament. Tot el que fa prové de la vastitud de l’escriptura humana: textos, codis, interaccions, traduccions, narratives. La “intel·ligència” que veiem és un reflex de la informació que la humanitat ha generat al llarg del temps, processada i amplificada per màquines que manquen realment d’intel·ligència.
En suma, l’alarma sobre una futura superintel·ligència artificial és atractiva mediàticament però no és realista. La urgència real és molt clara i present: regular, supervisar i alinear la IA amb interessos humans tangibles. Necessitem menys metàfores apocalíptiques i més anàlisi crítica, investigació rigorosa i cooperació internacional basada en evidència. La intel·ligència artificial no és una amenaça autònoma; és un reflex de nosaltres mateixos. I serà la nostra responsabilitat, i no la d’algoritmes que simulen agencia, la que determini si la tecnologia serveix per millorar la vida humana o simplement distreu la nostra atenció del que realment importa.
Ramon López de Mántaras. Institut d’Investigació en Intel·ligència Artificial (CSIC)