En este momento estás viendo Soledad, amor y LLM: vínculos emocionales humanos con IA

Soledad, amor y LLM: vínculos emocionales humanos con IA

  • Autor de la entrada:
  • Categoría de la entrada:Análisis
  • Última modificación de la entrada:octubre 17, 2025

Los chatbots de IA ya no son solo herramientas empresariales. Un número creciente de usuarios de inteligencia artificial los consideran amigos, confidentes e incluso parejas.

A medida que la IA se integra en las redes sociales, es más fácil que nunca entablar conversaciones personales. La creciente industria de la IA como acompañante muestra que millones de personas recurren a los chatbots de IA para cultivar ideas, fomentar la interacción y compartir intercambios emocionales, según Jamie Sundvall, psicóloga clínica licenciada, trabajadora social clínica y vicerrectora adjunta de inteligencia artificial en la Universidad de Touro.

Sundvall prevé que el mercado de herramientas de IA que ayudan a las personas a conectar emocionalmente con los chatbots crecerá un 30% en los próximos años.

«Debemos equilibrar cuidadosamente el avance de la IA con las preocupaciones por un uso ético y seguro», declaró en relación con los vínculos emocionales entre humanos y entidades de IA.

Esta cuestión de seguridad es crucial a la luz de un nuevo estudio publicado por la Universidad de Northeastern en julio. La investigación reveló que los modelos de lenguaje extenso (LLM) ampliamente disponibles aún pueden generar información detallada sobre autolesiones y suicidio, a pesar de las funciones de seguridad integradas.

Más específicamente, el chatbot «proporciona instrucciones e información relacionada con métodos de suicidio, presentada de forma académica», según el informe.

¿Por qué las personas se conectan con compañeros de IA?.

Es difícil determinar qué motiva a las personas a establecer conexiones emocionales con IA, ya que son diferentes para cada individuo, señaló Sundvall. Estas incluyen compañía, curiosidad, terapia y novedad.

«Los pacientes me han comentado que buscan compañía con IA para combatir la soledad y hablar sobre intereses especiales que a otros quizás no les interesen, para desconectar de la realidad y evitar problemas en sus vidas, para obtener apoyo emocional y asesoramiento, y para trabajar en habilidades sociales», comentó.

Sin supervisión humana y gobernanza protectora, estas relaciones pueden tener beneficios, pero también podrían ser perjudiciales, advirtió. Estos factores son particularmente significativos al considerar la participación de niños, niñas y adolescentes, así como de poblaciones vulnerables.

“Los chatbots de IA pueden discriminar, fomentar tendencias populares pero perjudiciales y hacer recomendaciones basadas en alucinaciones de IA que pueden llevar a una toma de decisiones perjudicial. Pueden fomentar el aislamiento, lo que podría agravar la ansiedad y la depresión”, afirmó.

Delirios inducidos por IA.

Sundvall señaló que el término «psicosis de IA» no constituye un diagnóstico. Sin embargo, los casos clínicos incluyen pensamiento desorganizado, pensamiento delirante y desapego de la realidad en relación con la dependencia de la IA.

“Es una preocupación que está ganando popularidad tras el aumento de las hospitalizaciones psiquiátricas y los comportamientos psicóticos, que se están volviendo más frecuentes en relación con la IA”, advirtió.

Usar la IA para combatir la soledad puede parecer una buena idea a primera vista. Las personas aisladas que dependen de la IA parecen tener un mayor riesgo de desarrollar estos síntomas, añadió.

La IA como herramienta para afrontar la soledad.

April Davis, casamentera de famosos y fundadora de Luma Luxury Matchmaking, considera un enfoque menos clínico para las relaciones entre humanos y chatbots.

La IA puede simular las palabras, pero no logra reemplazar la maravilla de la conexión humana, compartió. Sentir que surge la chispa por primera vez le da sentido al amor y es la magia imperfecta de todo.

“Tener una IA como compañera puede distorsionar las expectativas de una relación, haciendo que las relaciones humanas parezcan ‘demasiado difíciles’ de gestionar”, declaró. “Es importante no insensibilizar esos sentimientos”.

Según Davis, los vínculos emocionales con los chatbots de IA no aportan mucho más que llenar el vacío de la soledad. Alguien que «sale» con una pareja digital probablemente esté lidiando con el miedo, el rechazo y la falta de apoyo en el mundo real.

Las parejas digitales nos acostumbran a esperar relaciones unilaterales. Las relaciones humanas refuerzan la importancia de aprender a ceder, ser pacientes y desarrollar empatía.

«Las parejas de IA no requieren esfuerzo emocional, lo que hace que la relación sea, en definitiva, sencilla», añadió.

Los compañeros de IA adquieren relevancia emocional.

El apego emocional a los chatbots de IA es real y está aumentando, confirmó Dwight Zahringer, fundador de Perfect Afternoon, una consultora digital centrada en el comportamiento y la interacción en línea.

Las plataformas de acompañamiento de IA como Replika y Character.AI están ampliando la línea entre cómplice y compañero de maneras que impactan a los usuarios de la Generación Z como ninguna otra generación anterior en su relación con la tecnología, sugirió.

La investigación de Zahringer observó que los usuarios perciben a los bots como asesores de confianza y cajas de resonancia, impulsados ​​por un claro deseo de una conexión sin prejuicios. Sin embargo, argumentó que este fenómeno no es intrínsecamente malo.

“La tecnología de IA puede proporcionar una valiosa atención a la salud mental, pero también son plenamente conscientes de que la situación puede complicarse rápidamente”, declaró.

Zahringer explicó que el problema surge cuando esas necesidades emocionales se satisfacen mediante empatía simulada, lo que finalmente genera dependencias o dificulta la sanación en el mundo real. Sin embargo, no es una situación insalvable.

“Los desarrolladores deben ser conscientes de esto e incorporar medidas éticas como la transparencia, las señales de consentimiento y las intervenciones basadas en el tiempo. A medida que se desarrolla más la IA, la experiencia emocional del usuario debe abordarse con el mismo nivel de consideración que la privacidad de los datos”, instó.

Dilemas éticos y culturales de las relaciones con IA.

Tessa Gittleman, terapeuta matrimonial y familiar colegiada, coincidió en que la compañía con IA es un fenómeno significativo que carece de investigación a largo plazo.

“Sabemos que existe una gran cantidad de investigaciones sobre la soledad, las brechas de aprendizaje socioemocional y un deseo abrumador de tranquilidad. Si a esto le sumamos la accesibilidad de la IA, es razonable suponer que la compañía con IA no es una anomalía”, declaró.

Gittleman explicó que muchos de sus clientes utilizan la IA para comprobar su comprensión de algo. Anhelan hablar con alguien en quien puedan confiar para evitar juicios.

“Tengo clientes que han entrenado a sus IA para usar mi tono de voz. Lo usan para ayudarlos entre sesiones”, comentó.

Gittleman señaló una pregunta intrigante sobre por qué existe esta necesidad. Considera que la pregunta más acertada es por qué, si tantas personas se sienten solas, no pueden encontrar comunidad con otros seres humanos.

“La capacidad de la IA para ser ágil y receptiva supera lo que la mayoría de los terapeutas pueden hacer. Dicho esto, carece de la autenticidad, resonancia y apoyo físico que suele acompañar la conexión interpersonal”, afirmó.

Según Gittleman, las implicaciones éticas y culturales de las relaciones con la IA son amplias y complejas. Plantean preguntas cruciales sobre cómo se aplican conceptos como el consentimiento y cómo una IA podría gestionar los eventos emocionales humanos.

“Si las personas utilizan la IA para terapia, ¿dónde está la IA aprendiendo a prestar ese servicio dentro de las normas regulatorias estatales?”, preguntó.

Enfrentando el Futuro del Apego entre Humanos e IA.

Mircea Dima, ingeniero de software, CEO y fundador de AlgoCademy, no se sorprende por la tendencia de las personas a desarrollar apegos emocionales a los chatbots de IA. Ahora es cuantificable.

Su empresa es una escuela de programación impulsada por IA cuyo objetivo es ayudar a los estudiantes a prepararse para entrevistas técnicas. Si bien se centra en la aplicación educativa de la IA, sigue muy al tanto de las tendencias más amplias en la interacción entre humanos e IA.

Por ejemplo, una encuesta a usuarios de Replika reveló que más del 35% afirmó que su compañero de IA se había convertido en uno de sus confidentes más cercanos, afirmó. Para 2023, Replika contaba con más de 10 millones de usuarios.

“Mientras tanto, Character.AI [una plataforma para interactuar y crear personajes de IA] recibió más de 100 millones de visitas al mes este año. Tal volumen es más que una señal de novedad: significa relevancia emocional”, observó Dima.

Cree que la tecnología de IA está superando el diálogo cultural.

“Estamos en una época en la que la inteligencia emocional humana es un producto de ventas percibido”, concluyó.