El uso de herramientas como ChatGPT para el asesoramiento en salud mental ha aumentado debido a la falta de recursos y los altos costos de la terapia.
Los expertos en privacidad de datos se preocupan por los estándares de seguridad, la ética en la terapia y la falta de empatía.
La consejera de salud mental Nicole Doyle se quedó atónita cuando el director de la Asociación Nacional de Trastornos Alimentarios de EE.UU. se presentó en una reunión de personal para anunciar que el grupo reemplazaría su línea de ayuda por un chatbot.
Pocos días después de que la línea de ayuda fuera desconectada, el bot, llamado Tessa, también sería descontinuado por brindar consejos perjudiciales a personas en apuros por enfermedades mentales.
«La gente… descubrió que estaba dando consejos para bajar de peso a quienes le dijeron que luchaban con un trastorno alimentario», dijo Doyle, de 33 años, una de los cinco trabajadores que fueron despedidos en marzo, aproximadamente un año después del lanzamiento del chatbot.
«Aunque Tessa pueda simular empatía, no es lo mismo que la empatía humana real», dijo Doyle.
La Asociación Nacional de Trastornos Alimentarios (NEDA) afirmó que, si bien la investigación detrás del bot arrojó resultados positivos, están determinando qué sucedió con el asesoramiento brindado y «considerando cuidadosamente» los próximos pasos.
La NEDA no respondió directamente a las preguntas sobre los despidos de los consejeros, pero afirmó en comentarios enviados por correo electrónico que el chatbot nunca tuvo la intención de reemplazar la línea de ayuda.
Desde EE.UU. hasta Sudáfrica, los chatbots de salud mental que utilizan inteligencia artificial están ganando popularidad a medida que los recursos sanitarios se agotan, a pesar de las preocupaciones de los expertos en tecnología sobre la privacidad de los datos y la ética de la terapia.
Si bien las herramientas digitales de salud mental existen desde hace más de una década, ahora hay más de 40 chatbots de salud mental en todo el mundo, según el International Journal of Medical Informatics.
Jonah, estudiante de antropología residente en Nueva York, ha recurrido a una docena de medicamentos psiquiátricos y líneas de ayuda para ayudarle a lidiar con su trastorno obsesivo-compulsivo (TOC) a lo largo de los años.
Ahora ha añadido ChatGPT a su lista de servicios de apoyo como complemento a sus consultas semanales con un terapeuta.

Jonah había pensado en hablar con una máquina antes de ChatGPT, porque «ya existe un ecosistema floreciente de desahogo en línea en Twitter o Discord… simplemente parecía obvio», declaró a la Fundación Thomson Reuters.
Aunque el joven de 22 años, que pidió usar un seudónimo, describió ChatGPT como un servicio de «consejos prefabricados», afirmó que sigue siendo útil «si estás realmente alterado y solo necesitas escuchar algo básico… en lugar de preocuparte solo».
Las startups de tecnología de salud mental recaudaron 1.600 millones de dólares en capital de riesgo hasta diciembre de 2020, cuando la COVID-19 puso el foco en la salud mental, según la firma de datos PitchBook.
“La necesidad de asistencia médica a distancia se ha visto aún más acentuada por la pandemia de COVID-19”, afirmó Johan Steyn, investigador de IA y fundador de AIforBusiness.net, una consultora de educación y gestión de IA.
Costo y anonimato.
El apoyo a la salud mental es un desafío creciente en todo el mundo, según los defensores de la salud.
Se estima que mil millones de personas en todo el mundo vivían con ansiedad y depresión antes de la COVID-19; el 82% de ellas en países de ingresos bajos y medios, según la Organización Mundial de la Salud.
La pandemia aumentó esa cifra en aproximadamente un 27%, según estimaciones de la OMS.

El tratamiento de la salud mental también se divide según los ingresos, y el costo es una importante barrera de acceso.
Los investigadores advierten que, si bien la asequibilidad de la terapia con IA puede ser atractiva, las empresas tecnológicas deben ser cautelosas al imponer disparidades en la atención médica.
Según el Brookings Institution, un centro de estudios estadounidense, las personas sin acceso a internet corren el riesgo de quedar rezagadas, o los pacientes con seguro médico podrían acceder a terapia presencial, mientras que quienes no lo tienen se quedan con la opción más económica de un chatbot.
Protección de la privacidad.
A pesar de la creciente popularidad de los chatbots para el apoyo a la salud mental en todo el mundo, las preocupaciones sobre la privacidad siguen siendo un riesgo importante para los usuarios, según descubrió la Fundación Mozilla, una organización sin fines de lucro con sede en EE.UU., en un estudio publicado en mayo.
De 32 aplicaciones de salud mental y oración, como Talkspace, Woebot y Calm, analizadas por la organización tecnológica sin fines de lucro, 28 fueron señaladas por «serias preocupaciones sobre la gestión de datos de los usuarios» y 25 no cumplían con estándares de seguridad como el requisito de contraseñas seguras. Por ejemplo, el estudio destacó a Woebot, un programa de salud mental, por «compartir información personal con terceros».
Woebot afirma que, si bien promociona la aplicación mediante anuncios específicos de Facebook, «no se comparten ni venden datos personales a estos socios de marketing/publicidad» y que ofrece a los usuarios la opción de eliminar todos sus datos si lo solicitan.
El investigador de Mozilla, Misha Rykov, describió las aplicaciones como «máquinas de extracción de datos con apariencia de aplicación de salud mental», lo que abre la posibilidad de que los datos de los usuarios sean recopilados por aseguradoras, corredores de datos y empresas de redes sociales.
Expertos en IA han advertido sobre la posibilidad de que las empresas de terapia virtual pierdan datos confidenciales debido a ciberataques.
«Los chatbots con IA enfrentan el mismo riesgo de privacidad que los chatbots más tradicionales o cualquier servicio en línea que acepte información personal del usuario», declaró Eliot Bendinelli, tecnólogo sénior del grupo de derechos humanos Privacy International.
En Sudáfrica, la aplicación de salud mental Panda lanzará un «compañero digital» generado por IA para chatear con los usuarios, ofrecer sugerencias de tratamiento y, con su consentimiento, compartir puntuaciones e información sobre los usuarios con terapeutas tradicionales, también accesibles desde la aplicación.

«El compañero no reemplaza las formas tradicionales de terapia, sino que las complementa y apoya a las personas en su vida diaria», afirmó el fundador de Panda, Alon Lits.
Panda cifra todas las copias de seguridad y el acceso a las conversaciones de IA es completamente privado, afirmó Lits en comentarios enviados por correo electrónico.
Expertos en tecnología como Steyn esperan que una regulación sólida pueda eventualmente «proteger contra prácticas de IA poco éticas, fortalecer la seguridad de los datos y mantener la coherencia de los estándares de atención médica».
Desde Estados Unidos hasta la UE, los legisladores se apresuran a regular las herramientas de IA e impulsan a la industria a adoptar un código de conducta voluntario mientras se desarrollan nuevas leyes.
La importancia de la empatía.
Sin embargo, el anonimato y la ausencia de juicios percibidos son las razones por las que personas como Tim, un gerente de almacén británico de 45 años, recurrieron a ChatGPT en lugar de a un terapeuta humano.
«Sé que es solo un modelo de lenguaje extenso y que no ‘sabe’ nada, pero esto facilita hablar de temas que no hablo con nadie más», dijo Tim (nombre ficticio), quien recurrió al bot para combatir su soledad crónica.
Las investigaciones demuestran que la empatía de los chatbots puede superar a la de los humanos.

Un estudio de 2023 publicado en la revista estadounidense de medicina interna JAMA evaluó las respuestas de chatbots y médicos a 195 preguntas de pacientes seleccionadas al azar en un foro de redes sociales.
Descubrieron que las respuestas de los bots obtuvieron una calificación «significativamente superior tanto en calidad como en empatía» en comparación con las de los médicos.
Los investigadores dedujeron que «los asistentes de inteligencia artificial podrían ayudar a redactar respuestas a las preguntas de los pacientes», no reemplazar a los médicos por completo.
Pero aunque los bots puedan simular empatía, esta nunca será igual a la empatía humana que las personas anhelan cuando llaman a una línea de ayuda, afirmó Doyle, exconsejera de NEDA.
«Deberíamos usar la tecnología para que colabore con los humanos, no para reemplazarnos», afirmó.

