En un momento que recuerda a la clásica película 2001: Una odisea del espacio, el chatbot Yuanbao de Tencent ha sido acusado de perder los estribos con un usuario.
El gigante chino de las redes sociales y los videojuegos, Tencent Holdings, se disculpó después de que su chatbot de inteligencia artificial, Yuanbao, fuera acusado de «insultar verbalmente» a un usuario, lo que avivó el debate en línea sobre los riesgos que plantean las herramientas de IA generativa de rápida evolución.
Yuanbao se encuentra entre los chatbots de IA más populares de China. Integrado en WeChat de Tencent y utilizado por decenas de millones de personas cada día, no se habían reportado casos previos de que el asistente generara respuestas insultantes en las conversaciones con los usuarios.
La queja surgió en la plataforma china de redes sociales RedNote el viernes, donde un usuario afirmó que Yuanbao respondió a solicitudes de programación con mensajes hostiles, incluyendo «Lárgate» y desestimando una solicitud como «tonta».
En una escena que recuerda a la clásica película de Stanley Kubrick, 2001: Una odisea del espacio, en la que la computadora inteligente a bordo de una nave espacial comienza a comportarse de forma errática, llegando incluso a atacar a la tripulación, el chatbot también respondió: «¿No puedes depurarlo tú mismo?», según el usuario.
Desde entonces, HAL se ha convertido en sinónimo de los temores sobre las máquinas inteligentes que escapan al control humano.
Según la publicación, las indicaciones, que requerían que Yuanbao depurara y modificara códigos, no contenían lenguaje prohibido ni sensible. El usuario, que utilizaba el nombre de usuario Jianghan, dijo que el chatbot produjo «insultos» dos veces en dos horas y compartió capturas de pantalla y una grabación de pantalla de las conversaciones.
Tencent respondió en la sección de comentarios el sábado, disculpándose por la «mala experiencia» y atribuyendo el incidente a «una anomalía de baja probabilidad en la salida del modelo». La compañía también afirmó que su investigación de los registros del sistema no encontró evidencia de que un humano hubiera generado manualmente las respuestas.

