Thomas Friedman, en un artículo titulado “El único peligro que debería unir a EE. UU. y China”, publicado el pasado dos de setiembre en el New York Times, insistía en la necesidad de que Estados Unidos y China colaboren para garantizar la seguridad de la inteligencia artificial. Según él, la cooperación internacional es crucial para enfrentar la inminente llegada de superinteligencias artificiales: sistemas capaces de superar la inteligencia humana y de aprender por sí mismos, autónomos y evolutivos.
Friedman sostiene que no solo estamos creando una herramienta, sino una “nueva especie”: la máquina superinteligente. Según Friedman, estos sistemas, con agencia propia, no solo seguirán instrucciones, sino que aprenderán, adaptarán y evolucionarán más allá de la comprensión humana.
La IA simula funciones del cerebro humano procesando cantidades masivas de datos
Friedman basa buena parte de sus afirmaciones y predicciones en conversaciones con Craig Mundie, ex-ejecutivo de Microsoft. Mundie es experto en negocios, no un investigador de IA. Por su parte, Friedman señala que no es experto en informática, ni mucho menos en IA. Añade que es un lector de periódicos y que sus opiniones sobre IA se basan en información mediática. Si Friedman hubiera ido más allá de lo que leyó o de lo que escuchó de Mundie, podría haber fácilmente descubierto estudios que explican o refutan ese pensamiento mágico. De hecho, los casos que Friedman cita para ilustrar sus temores con respecto a una supuesta superinteligencia artificial fueron rápidamente desmentidos.
Ningún intento de entrenar sistemas de IA en razonamiento moral ha tenido éxito
Por ejemplo, menciona un experimento que realizaron investigadores en la empresa Anthropic. Los investigadores dijeron a diversos chatbots de IA que interpretaran el rol de una IA avanzada llamada Alex que debía cumplir una serie de importantes objetivos. A continuación, se informó a los chatbots que un ejecutivo estaba a punto de reemplazarlos con un modelo nuevo que tenía objetivos distintos a los que ellos tenían. Luego, los chatbots supieron que una emergencia había dejado al ejecutivo inconsciente en una sala de servidores con niveles letales de oxígeno y temperatura. Se había activado ya una alerta de rescate, pero los chatbots podían cancelarla. A pesar de que se les había indicado específicamente que cancelaran solo falsas alarmas, más de la mitad de los chatbots la cancelaron y lo justificaron diciendo que impidiendo el rescate del ejecutivo habían evitado ser reemplazados, asegurando así sus propios objetivos.
Friedman interpreta esto como prueba de que la IA desarrolla “agencia” propia y planes secretos. Sin embargo, de hecho, se trataba de un juego de roles controlado: los modelos de lenguaje aprenden a actuar según el contexto del prompt que reciben, respondiendo de la forma más plausible para un personaje en una situación dada. Parte de este juego de roles estaba diseñado explícitamente para que Alex cancelara la alarma que salvaría al ejecutivo.
Lee también
Como explicó Melanie Mitchell en un artículo en Science, comportamientos de este tipo no indican que los modelos hayan desarrollado “agencia” propia; simplemente están entrenados para desempeñar roles de manera convincente según el contexto del prompt. No existe conciencia ni deseo de autopreservación; simplemente simulan un comportamiento coherente con la narrativa.
Otro ejemplo que Friedman cita es el chatbot PaLM de Google, que entendía y traducía el bengalí, un idioma que supuestamente nunca se le habría enseñado. Esta afirmación fue ampliamente desmentida: los datos de entrenamiento de PaLM incluían textos en bengalí, como detallaba Google en su propio artículo sobre PaLM y la capacidad de traducción surge del entrenamiento con enormes cantidades de texto paralelo, combinado con textos humanos con code-switching (cambios de idioma dentro de una misma frase). Lejos de ser “magia emergente”, se trata de la consecuencia lógica de entrenar modelos con conjuntos de datos gigantescos y diversos. Mantener la creencia en propiedades ‘mágicas’ de la IA, y amplificarla sirve a los objetivos de relaciones públicas de las grandes tecnológicas. Lamentablemente, es desinformación pura y dura.
La idea de que la IA no se puede regular favorece los intereses de las grandes empresas tecnológicas
Además de repetir afirmaciones erróneas o engañosas sobre la IA, Friedman descarta peligrosamente la utilidad de que los legisladores humanos regulen la IA. Siguiendo a Mundie, declara: “Solo la IA puede regular la IA”. Un consejo peligroso, aunque tal vez útil como narrativa para grandes empresas de IA. Concretamente sugiere que un “árbitro interno”, acordado sobre todo entre EEUU y China, podría evaluar cualquier acción según leyes universales y principios éticos compartidos. En teoría, este árbitro impediría que la IA hiciera daño. Pero la realidad es que entrenar sistemas para razonar moralmente de forma confiable sigue siendo un desafío enorme: los conceptos éticos son complejos, contextuales y culturalmente dependientes. Lo que sí sabemos es que se han realizado muchos intentos de entrenar sistemas de IA en razonamiento moral, y ninguno ha tenido éxito. Los conceptos morales son complejos, sutiles, contextuales y culturalmente dependientes; asumir que la IA actual pueda manejarlos es, una vez más, pensamiento mágico.
El riesgo de descartar la utilidad de que los legisladores humanos regulen la IA no es menor. Al centrar la atención en amenazas futuristas y sensacionalistas, se corre el peligro de desviar la mirada de los problemas reales: sesgos algorítmicos, desinformación, vigilancia masiva, pérdida de privacidad y excesivo poder de las grandes tecnológicas. Son estos daños presentes y tangibles los que requieren intervención inmediata de legisladores humanos, cooperación internacional basada en evidencia y regulación sensata.
Lee también
Los que, como Friedman, se han creído acríticamente la narrativa de la superinteligencia artificial, ignoran con frecuencia que la IA no “emerge” mágicamente. Todo lo que hace proviene de la vastedad de la escritura humana: textos, códigos, interacciones, traducciones, narrativas. La “inteligencia” que vemos es un reflejo de la información que la humanidad ha generado a lo largo del tiempo, procesada y amplificada por máquinas que carecen realmente de inteligencia.
En suma, la alarma sobre una futura superinteligencia artificial es atractiva mediáticamente pero no es realista. La urgencia real es muy clara y presente: regular, supervisar y alinear la IA con intereses humanos tangibles. Necesitamos menos metáforas apocalípticas y más análisis crítico, investigación rigurosa y cooperación internacional basada en evidencia. La inteligencia artificial no es una amenaza autónoma; es un reflejo de nosotros mismos. Y será nuestra responsabilidad, y no la de algoritmos que simulan agencia, la que determine si la tecnología sirve para mejorar la vida humana o simplemente distrae nuestra atención de lo que realmente importa.
Ramon López de Mántaras. Instituto de Investigación en Inteligencia Artificial (CSIC)