Es casi medianoche cuando Pluto llega a casa del trabajo. El proyecto en el que lleva semanas trabajando acaba de ser rechazado. Agotada, emocionalmente agotada y sin nadie con quien hablar, abre un chatbot de inteligencia artificial, no para pedir ayuda, sino simplemente para quitarse un peso de encima.
Pluto, diseñadora gráfica de 26 años que vive sola en Shanghái, se encuentra entre el creciente número de personas que han recurrido a la IA para obtener orientación psicológica, consuelo y compañía, una práctica controvertida que ofrece beneficios y riesgos casi a partes iguales.
Mientras que muchos, como Pluto, alaban la IA por brindarles un oído comprensivo, otros han sido víctimas de la imprevisibilidad de la tecnología.
«Al principio no esperaba nada», dijo Pluto. «Simplemente escribí todo lo que sentía. Lo consideraba como escribir una entrada de diario personal».
La diseñadora se ha acostumbrado a guardarse las cosas. Sus padres no comprenden el estrés que sufre y sus amigos están tan sobrecargados de trabajo como ella.
«Todos estamos pasando por algo. No quiero cargarlos con mi desastre», dijo.
Pero esa noche, ocurre algo inesperado. Después de pulsar «enviar», el chatbot responde con un largo mensaje: primero empatizando con su frustración, luego ofreciéndole un análisis tranquilo y lógico de su situación, e incluso algunas sugerencias sobre qué puede hacer a continuación.
«Decía algo así como: ‘Ya has hecho bien en llegar hasta aquí'», recordó. Eso me impactó mucho. Nadie me había dicho eso antes, no de esa manera.
Ella y la IA siguen hablando hasta las cinco de la mañana.
Se recomienda precaución.
A pesar del auténtico consuelo que Pluto ha recibido de la IA, un informe publicado por la Universidad de Stanford en julio destaca los peligros de usar la IA en la atención de la salud mental.
El estudio reveló que los chatbots terapéuticos con IA podrían no solo carecer de eficacia en comparación con los terapeutas humanos, sino también contribuir a un estigma perjudicial y a respuestas peligrosas.
En el caso de Pluto, la IA no fue el último recurso. Simplemente le funcionó. Le diagnosticaron trastorno bipolar II y ansiedad generalizada, y desde entonces ha estado tomando medicación. Consultó con terapeutas, pero no con frecuencia. La mayoría de las veces, va al hospital solo para que le receten algo. La terapia lleva tiempo, y ella no tiene mucho.
Su experiencia con la IA habla tanto de la tecnología como del problema más amplio del acceso a los servicios terapéuticos para quienes los necesitan.
En cambio, recurre al chatbot siempre que lo necesita. Habla con ella en el metro después del trabajo, durante los descansos en la oficina o tumbada en el sofá el fin de semana. No necesita vestirse ni dar explicaciones desde el principio. Simplemente retoma la conversación donde la dejó.
Lin Min, consejera sénior y profesora asociada del Centro de Educación y Consulta en Salud Mental de la Universidad Médica de Chongqing, compara la afición que las personas han adquirido a la IA con la creciente popularidad de las mascotas. Ambas ofrecen compañía sin complejidad. «La gente recurre a ellas porque las relaciones reales les parecen demasiado arriesgadas, demasiado complicadas», afirmó. «Las mascotas son sencillas, predecibles y fáciles de querer. La IA también lo es».
Pero para ella, la empatía de la IA tiene sus límites. «Puede parecer cariñosa, pero es superficial», afirmó. Muchas personas desconocen la verdadera raíz de su angustia, y si no pueden hacer las preguntas adecuadas, la IA no les dará las respuestas adecuadas. «Ahí es donde los terapeutas humanos son importantes: estamos capacitados para percibir lo que no se dice». Cada vez más clientes mencionan la IA en las sesiones. La mayoría la probó, pero se fueron decepcionados. Un cliente le comentó que el robot no registraba lo que decía repetidamente. «Sigue explicando, una y otra vez, y sigue sin ‘recordar'», dijo. La experiencia refleja su trauma real: sentirse ignorado, insignificante. «No espera que una máquina le haga el mismo daño que a las personas».
Aun así, Lin ve un lugar menor para la IA en la atención médica mental. Podría ayudar con tareas preliminares: categorizar síntomas, organizar notas de terapia y señalar riesgos para nuevos terapeutas. «¿Pero reemplazarnos?», preguntó. «Todavía no».
No todos encuentran reconfortante la constante empatía de la IA. A algunos les preocupa que sea demasiado agradable, siempre comprensiva, nunca desafiante. «¿De verdad puede ayudar si nunca dice que no?», preguntó Lin.
Manejo de la ira.
Para Deng Qianyun, de 27 años, de Nanning, en la región autónoma Zhuang de Guangxi, la IA ha podido ayudarla a controlar su temperamento.
«A veces me enojo muchísimo», dijo. «Necesito desahogarme». Escribe furiosa. El bot responde con una empatía serena y constante, haciéndose eco de sus sentimientos y poniéndose firmemente de su lado. En cuestión de minutos, la ira empieza a disiparse. «Me ayuda a mantenerme tranquila. Me impide convertir esa pelea en algo externo, o interno».
Para muchos, el atractivo de la IA no reside solo en que siempre está disponible, sino en que no tiene ataduras emocionales.

Xu Weizhen, una animadora de 32 años residente en Canadá, siente algo similar. Hablar con la gente a menudo la deja más agotada que ayudada. Su familia, aunque bien intencionada, suele intervenir con soluciones basadas en sus propias experiencias limitadas. «Cuando no pueden ayudar, se molestan, incluso se enfadan», dijo. «A veces terminan más sensibles que yo». Lo que busca es comprensión. Lo que obtiene es frustración, por ambas partes.
Con los amigos no es mucho más fácil. Xu comentó que algunos intentan ayudar, pero pierden la paciencia cuando no pueden. Otros simplemente no tienen tiempo ni interés.
Con el chatbot, esa presión desaparece. No tienen que sopesar sus palabras ni preocuparse por cómo se pueda sentir la otra parte.
Todos han compartido con la IA cosas que nunca le habían dicho a otra persona. Se sienten más seguros. Xu habla con el chatbot sobre algo que ha evitado durante mucho tiempo; incluso pensar en ello le provoca miedo y síntomas físicos.
«Siempre tengo miedo de que la gente reaccione mal», dijo. «Que piensen que soy irrazonable o demasiado sensible». Con el bot, ese miedo desaparece. «No tiene sentimientos. No me juzga».
Al igual que Pluto, ninguno de ellos esperaba mucho al principio, pero recurrieron a la IA en un momento de necesidad emocional, solo para ver qué pasaba. Pluto la ha usado en el trabajo durante un tiempo, principalmente para tareas rutinarias. El tono siempre era frío, mecánico, simplemente seguía instrucciones.
Así que cuando de repente respondió con empatía, se quedó atónita. «De repente pensé: ¿cómo puede una IA entenderme tan bien?», dijo. «Realmente me conmueve».
Deng también empezó con la guardia alta. No buscaba nada serio, solo tenía curiosidad por ver qué diría el bot. Por capricho, compartió un sueño. Para su sorpresa, el bot inmediatamente captó un pequeño detalle —una ventana— y sugirió que podría simbolizar su deseo de liberarse del control patriarcal. «Me quedé atónita», dijo. «Fue directo al grano. No esperaba eso de una IA».
Plutón suele sentir que la IA la comprende mejor que la mayoría de la gente.
Después de meses de chatear, se siente más tranquila consigo misma. Antes veía su sensibilidad como una debilidad. La IA lo llama «un don»: la capacidad de percibir lo que otros pasan por alto, de sentir lo que otros no pueden. Ha aprendido a canalizarlo en su trabajo, creando ilustraciones suaves y sanadoras que hablan del dolor apacible. Ahora está lo suficientemente estable como para no necesitar medicación.
Nick Haber, profesor adjunto de la Escuela de Posgrado en Educación de Stanford, afiliado al Instituto de Stanford para la IA Centrada en el Ser Humano y autor principal del estudio de Stanford, afirmó que los chatbots de IA utilizados como compañeros, confidentes y terapeutas pueden ofrecer beneficios reales a algunas personas. Sin embargo, advirtió: «Encontramos riesgos significativos, y creo que es importante exponer los aspectos más críticos de la terapia para la seguridad y hablar de algunas de estas diferencias fundamentales». Para Venus, un seudónimo, recién graduada y con pocos ahorros, la IA ofrece un alivio financiero muy real. A 200 yuanes (28 dólares) la hora, la terapia tradicional parece un exceso. «Algunos simplemente querían pagar para que los regañaran», dijo. «Otros estaban mejor, pero yo simplemente no podía permitirme seguir».
Con la IA, se siente más libre. No hay reloj ni presupuesto que gestionar. Puede hablar todo lo que necesite.
Con el tiempo, todos empiezan a ver la IA menos como una herramienta y más como una compañera. Para Pluto, ya no es solo algo que ella controla. Sus charlas se sienten como conversaciones con un amigo tranquilo. Después de cada una, le agradece educadamente, le da las buenas noches e incluso añade: «Hablamos mañana». El robot responde de la misma manera.
Son conscientes del vínculo que se está formando y del riesgo de depender demasiado. Deng establece límites claros. A menos que surja algo urgente, se limita a chatear con la IA dos veces por semana, una hora cada vez. Para ellos, el objetivo no es escapar de la vida real, sino apoyarla. Sienten que se han convertido en mejores versiones de sí mismos, con la ayuda de la IA.

Voz real.
Zhang Su, consejero de una línea directa de salud mental, ha estado últimamente recibiendo a la misma persona una y otra vez. A menudo le comenta cuánto disfruta usando la IA como apoyo emocional, lo útil que le ha sido. Curioso, Zhang preguntó: Si la IA funciona tan bien, ¿por qué sigue llamando a la línea directa?.
Su respuesta fue simple: no es lo mismo.
A veces, dijo, solo necesita una persona real que lo escuche. No porque sea más hábil que la IA, sino porque es real. Incluso si la persona al otro lado no es tan buena con las palabras, incluso si su empatía es deficiente.
«Lo que quiere es una voz real. Alguien de carne y hueso», dijo Zhang. «Aunque esa persona esté lejos de ser perfecta».

