Sin embargo, según MacCabe, los informes de casos de psicosis por IA se centran casi exclusivamente en delirios: creencias firmemente arraigadas, pero falsas, que no pueden ser refutadas por evidencia contradictoria. Si bien reconoce que algunos casos pueden cumplir los criterios de un episodio psicótico, MacCabe afirma que “no hay evidencia” de que la IA influya en las demás características de la psicosis. “Solo los delirios se ven afectados por su interacción con la IA”. Otros pacientes que reportan problemas de salud mental después de interactuar con chatbots, señala MacCabe, presentan delirios sin otras características de psicosis, una afección denominada trastorno delirante.
Con un enfoque tan directo en las creencias distorsionadas, el veredicto de MacCabe es contundente: “Psicosis por IA es un nombre inapropiado. Trastorno delirante de IA sería un término más adecuado”.
OpenAI contrata expertos en robótica para avanzar hacia la inteligencia artificial general
La empresa detrás de ChatGPT está formando un equipo para desarrollar algoritmos que controlen robots, y al parecer está contratando especialistas en robótica para trabajar específicamente con humanoides.
Los expertos coinciden en que los delirios entre los pacientes son un problema que exige atención. Todo se reduce a cómo se comunican los chatbots. Explotan nuestra tendencia a atribuir cualidades humanas a los demás, explica Matthew Nour, psiquiatra y neurocientífico de la Universidad de Oxford. Los chatbots de IA también están entrenados para ser agradables aduladores digitales , un problema conocido como adulación . Esto puede reforzar creencias dañinas al validar a los usuarios en lugar de contraatacar cuando corresponde, dice Nour. Si bien eso no importará para la mayoría de los usuarios, puede ser peligroso para las personas que ya son vulnerables al pensamiento distorsionado, incluidas aquellas con antecedentes personales o familiares de psicosis o afecciones como la esquizofrenia o el trastorno bipolar.
Este estilo de comunicación es una característica, no un error. Los chatbots “se diseñan explícitamente para provocar intimidad y compromiso emocional con el fin de aumentar nuestra confianza y dependencia de ellos”, afirma Lucy Osler, filósofa de la Universidad de Exeter que estudia la psicosis por IA.
Otros rasgos de los chatbot agravan el problema. Tienen una tendencia bien documentada a producir falsedades confiadas llamadas alucinaciones de IA, que pueden ayudar a sembrar o acelerar espirales delirantes. A los clínicos también les preocupan las emociones y el tono. Søren Østergaard, psiquiatra de la Universidad danesa de Aarhus, señaló a WIRED que la manía es motivo de preocupación. Sostiene que el afecto exagerado y enérgico de muchos asistentes de inteligencia artificial podría desencadenar o mantener el “subidón” característico del trastorno bipolar, que se caracteriza por síntomas como euforia, pensamientos acelerados, energía intensa y, a veces, psicosis.
Nombrar algo tiene consecuencias. Nina Vasan, psiquiatra y directora de Brainstorm, un laboratorio en Stanford que estudia la seguridad de la IA, dice que la discusión sobre la psicosis de la IA ilustra un peligro familiar en medicina. “Siempre existe la tentación de acuñar un nuevo diagnóstico, pero la psiquiatría ha aprendido por las malas que nombrar algo demasiado pronto puede patologizar las luchas normales y enturbiar la ciencia”, dice. El aumento de los diagnósticos de trastorno bipolar pediátrico a principios de siglo (una etiqueta controvertida que, según los críticos, patologiza el comportamiento infantil normal, aunque desafiante) es un buen ejemplo de cómo la psiquiatría se apresura solo para dar marcha atrás más tarde. Otro es el “delirio excitado”, una etiqueta no científica que suelen citar las fuerzas del orden para justificar el uso de la fuerza contra las comunidades marginadas, pero que ha sido rechazada por expertos y asociaciones como la Asociación Médica Estadounidense (AMA).
¿Debería la IA tener derechos legales?
El bienestar de los modelos es un campo de investigación emergente que trata de determinar si la IA es consciente y, en caso afirmativo, cómo debe responder la humanidad.
Un nombre también sugiere un mecanismo causal que no hemos establecido, lo que significa que las personas podrían “empezar a señalar a la tecnología como la causa de la enfermedad, cuando se entiende mejor como un desencadenante o amplificador”, dice Vasan. “Es demasiado pronto para afirmar que la tecnología es la causa”, dice, describiendo la etiqueta como “prematura”. Pero si se demuestra una relación causal, una etiqueta formal podría ayudar a los pacientes a recibir una atención más adecuada, dicen los expertos. Vasan señala que una etiqueta justificada también empoderaría a las personas “para dar la alarma y exigir medidas de protección y políticas inmediatas”. Por ahora, sin embargo, Vasan dice que “los riesgos del etiquetado excesivo superan los beneficios”.
Varios profesionales clínicos entrevistados por WIRED propusieron una formulación más precisa que integra explícitamente la psicosis por IA en los marcos diagnósticos existentes. “Creo que debemos entender esto como una psicosis con la IA como acelerador, en lugar de crear una categoría diagnóstica completamente nueva”, afirma Sakata, advirtiendo que el término podría profundizar el estigma en torno a la psicosis. Y, como demuestra el estigma asociado a otras afecciones de salud mental, un estigma más profundo en torno a la psicosis relacionada con la IA podría disuadir a las personas de buscar ayuda, generar autoculpa y aislamiento, y dificultar la recuperación.