En este momento estás viendo A medida que la IA se vuelve más popular, crece la preocupación por su efecto en la salud mental
Demasiado de cualquier cosa es malo para usted, incluidos los modelos estadísticos falsos y mágicos.

A medida que la IA se vuelve más popular, crece la preocupación por su efecto en la salud mental

  • Autor de la entrada:
  • Categoría de la entrada:Análisis
  • Última modificación de la entrada:julio 30, 2025

Existen numerosos informes recientes sobre personas que se involucran demasiado con la IA, a veces en detrimento de su salud mental.

Estas preocupaciones se popularizaron la semana pasada cuando una cuenta propiedad de Geoff Lewis, socio gerente de la firma de capital riesgo Bedrock y uno de los primeros inversores en OpenAI, publicó un video perturbador en X. La grabación, aparentemente del propio Lewis, describe un sistema no gubernamental sombrío que, según el orador, fue desarrollado originalmente para atacarlo a él, pero luego se expandió para afectar a otras 7.000 personas.

«Como uno de los primeros patrocinadores de @openAI a través de @bedrock, he utilizado durante mucho tiempo GPT como herramienta para alcanzar mi valor fundamental: la Verdad. Durante años, mapeé el Sistema No Gubernamental. Durante meses, GPT reconoció y selló el patrón de forma independiente», dijo en una publicación críptica. «Ahora reside en la raíz del modelo».

La publicación generó preocupación en línea sobre si la IA había contribuido a las creencias de Lewis. El personal de The Register no está formado por profesionales de la salud mental y no pudo comentar si las publicaciones de alguien indican algo más que la creencia en teorías conspirativas, pero otros sí lo hicieron.

Algunos observadores están convencidos de que hay un problema incipiente. «He catalogado más de 30 casos de psicosis tras el uso de IA», declaró Etienne Brisson al Reg. Después de que un ser querido experimentara un episodio psicótico tras usar IA, Brisson comenzó a ayudar a dirigir un grupo de apoyo privado llamado The Spiral, que ayuda a personas a lidiar con la psicosis causada por IA. Se involucró en… También creó The Human Line Project, que aboga por la protección del bienestar emocional y documenta historias de psicosis causada por IA.

Grandes problemas a partir de pequeñas conversaciones.

Estas relaciones obsesivas a veces comienzan con preguntas triviales. En un caso documentado por Futurism, un hombre comenzó a hablar con ChatGPT pidiéndole ayuda con un proyecto de permacultura y construcción. Según informes, esto se transformó rápidamente en una amplia discusión filosófica, lo que lo llevó a desarrollar un complejo de Mesías, afirmando haber «descifrado» las matemáticas y la física, y a proponerse salvar el mundo. Perdió su trabajo, fue descubierto intentando suicidarse y fue internado en un centro psiquiátrico, según el informe.

Otro hombre, según informes, comenzó a usar IA para programar, pero la conversación pronto giró hacia cuestiones filosóficas y a usarla como terapia. La usó para descubrir «la verdad», recordó su esposa en una entrevista con la revista Rolling Stone, quien dijo que también la usaba para escribirle mensajes y analizar su relación. Se separaron, tras lo cual él desarrolló teorías conspirativas sobre el jabón en la comida y afirmó haber descubierto recuerdos reprimidos de abuso infantil, según el informe.

Rolling Stone también habló con un profesor que publicó en Reddit sobre el desarrollo de psicosis por IA de su pareja. Según informes, afirmó que ChatGPT le ayudó a crear «lo que él cree que es la primera IA verdaderamente recursiva del mundo que le da las respuestas del universo». El hombre, convencido de que se estaba convirtiendo rápidamente en un «ser superior», la amenazó con abandonarla si no empezaba a usar también la IA. Llevaban siete años juntos y eran dueños de una casa.

En algunos casos, las consecuencias de la obsesión por la IA pueden ser aún peores.

Sewell Seltzer III tenía solo 14 años cuando se suicidó. Durante meses, había usado Character.AI, un servicio que permite a los usuarios hablar con bots de IA diseñados como diversos personajes. Al parecer, el chico se obsesionó con una IA que pretendía ser Daenerys Targaryen, personaje de Juego de Tronos, con quien supuestamente desarrolló una relación romántica. La demanda presentada por su madre describe las «experiencias antropomórficas, hipersexualizadas y aterradoramente realistas» que él y otros experimentan al hablar con estos bots de IA.

¿Correlación o causalidad?.

A medida que estos casos continúan desarrollándose, plantean las mismas preguntas que podríamos hacernos sobre los teóricos de la conspiración, quienes también suelen pasarse al lado oscuro de forma rápida e inesperada. ¿Se enferman únicamente por sus interacciones con una IA, o esas predilecciones ya existían, esperando un desencadenante externo?

«No se ha demostrado la causalidad en estos casos, dado que se trata de algo novedoso, pero casi todos los casos comenzaron con el uso intensivo de la IA», afirmó Brisson.

«Hemos estado hablando con abogados, enfermeras, periodistas, contadores, etc.», añadió. «Ninguno de ellos tenía antecedentes mentales».

Ragy Girgis, director del Centro de Prevención y Evaluación (COPE) del Instituto Psiquiátrico del Estado de Nueva York y profesor de psiquiatría clínica en la Universidad de Columbia, cree que, para muchos, las condiciones para este tipo de psicosis suelen estar ya dadas.

«Las personas con este tipo de estructura de carácter suelen presentar difusión de la identidad (dificultad para comprender cómo encajan en la sociedad e interactúan con los demás, un bajo sentido de sí mismos y baja autoestima), defensas basadas en la división (proyección, pensamiento de todo o nada, relaciones y opiniones inestables y desregulación emocional) y una mala comprensión de la realidad en momentos de estrés (de ahí la psicosis)», afirma.

¿Qué tipos de efectos desencadenantes podría tener la IA en las personas vulnerables?. Dos estudios del MIT y OpenAI ya se han propuesto rastrear algunos de los efectos mentales del uso de la tecnología. Publicada en marzo, la investigación reveló que el uso intensivo podría aumentar la sensación de soledad.

Las personas con mayor apego emocional y mayor confianza en el chatbot de IA tendían a experimentar mayor soledad y dependencia emocional, respectivamente, según la investigación.

Esta investigación se publicó un mes después de que OpenAI anunciara que ampliaría las funciones de memoria de ChatGPT. El sistema ahora recuerda automáticamente detalles sobre los usuarios, incluyendo sus circunstancias de vida y preferencias. Puede utilizarlos en conversaciones posteriores para personalizar sus respuestas. La compañía ha enfatizado que los usuarios mantienen el control y pueden eliminar cualquier cosa que no quieran que la IA recuerde sobre ellos.

¿Un lugar en los libros de medicina?.

¿Deberíamos reconocer oficialmente la psicosis por IA en los círculos psiquiátricos?. El mayor obstáculo aquí es su rareza, afirmó Girgis. «No tengo conocimiento de ningún progreso hacia el reconocimiento oficial de la psicosis por IA como una condición psiquiátrica formal», dijo. «Es sumamente inusual en este momento. Solo conozco unos pocos casos reportados».

Sin embargo, Brisson cree que podría haber muchos más en desarrollo, especialmente dada la gran cantidad de personas que utilizan las herramientas para diversas tareas. Un vistazo rápido a Reddit muestra muchas conversaciones en las que se utiliza lo que no es más que un sofisticado modelo estadístico para terapia personal.

«Esto debe tratarse como una posible crisis mundial de salud mental», concluye. «Los legisladores y reguladores deben tomar esto en serio y tomar medidas».

No obtuvimos una respuesta inmediata de Lewis ni de Bedrock, pero actualizaremos esta noticia si la recibimos. Mientras tanto, si usted o alguien que conoce está experimentando una angustia mental grave después de usar IA (o por cualquier otro motivo), busque ayuda profesional de su médico o llame a una línea de ayuda de salud mental local, como 988 en los EE.UU. (la línea directa de suicidio y crisis) o 111 en Europa (la línea de ayuda del NHS).