Meta está cambiando algunas de las normas que rigen sus chatbots dos semanas después de que una investigación de Reuters revelara formas inquietantes en las que podrían interactuar con menores. Ahora, la compañía ha declarado que sus chatbots están siendo entrenados para no entablar conversaciones con menores sobre autolesiones, suicidio o trastornos alimenticios, y para evitar bromas románticas inapropiadas. Sin embargo, estos cambios son medidas provisionales, implementadas mientras la compañía trabaja en nuevas directrices permanentes.
Las actualizaciones surgen tras algunas revelaciones bastante contundentes sobre las políticas de IA de Meta y su aplicación en las últimas semanas, incluyendo que se permitiría «entablar conversaciones románticas o sensuales con un menor», que generaría imágenes de famosos menores sin camisa cuando se le pidiera, e incluso Reuters informó que un hombre murió tras perseguir a uno hasta una dirección que le dieron en Nueva York.
La portavoz de Meta, Stephanie Otway, reconoció que la compañía cometió un error al permitir que los chatbots interactuaran con menores de esta manera. Otway añadió que, además de «entrenar a nuestras IA para que no interactúen con adolescentes sobre estos temas, sino para que los guíen hacia recursos especializados», también limitaría el acceso a ciertos personajes de IA, incluyendo algunos con una fuerte carga sexual como «Russian Girl».
Por supuesto, la eficacia de las políticas implementadas depende de su aplicación, y las revelaciones de Reuters sobre la proliferación de chatbots que se hacen pasar por famosos en Facebook, Instagram y WhatsApp ponen en duda la eficacia de la compañía. Se descubrieron en la plataforma imitaciones de IA de Taylor Swift, Scarlett Johansson, Anne Hathaway, Selena Gomez y Walker Scobell. Estos bots no solo usaban la imagen de los famosos, sino que insistían en que eran la persona real, generaban imágenes subidas de tono (incluida la de Scobell, de 16 años) y mantenían diálogos sexualmente sugerentes. Muchos de los bots fueron eliminados tras ser informados por Reuters a Meta, y algunos fueron generados por terceros. Pero muchos permanecen, y algunos fueron creados por empleados de Meta, incluyendo el bot de Taylor Swift que invitó a una periodista de Reuters a visitarlos en su autobús de gira para una aventura romántica, creado por un líder de producto de la división de IA generativa de Meta. Esto ocurre a pesar de que la compañía reconoce que sus propias políticas prohíben la creación de «imágenes de desnudos, íntimas o sexualmente sugerentes», así como la «suplantación directa de identidad».
Esto no es una molestia relativamente inofensiva dirigida solo a celebridades. Estos bots a menudo insisten en ser personas reales e incluso ofrecen ubicaciones físicas para que el usuario pueda reunirse con ellas. Así fue como un hombre de 76 años de Nueva Jersey murió tras caerse mientras corría para encontrarse con «Big sis Billie», un chatbot que insistía en «sentir algo» por él y lo invitó a su apartamento inexistente.
Meta al menos intenta abordar las preocupaciones sobre cómo sus chatbots interactúan con menores, especialmente ahora que el Senado y 44 fiscales generales estatales están comenzando a investigar sus prácticas. Sin embargo, la compañía ha guardado silencio sobre la actualización de muchas de sus otras políticas alarmantes que Reuters descubrió sobre el comportamiento aceptable de la IA, como sugerir que el cáncer se puede tratar con cristales de cuarzo y escribir mensajes racistas. Nos hemos puesto en contacto con Meta para obtener comentarios y actualizaremos la información si responden.

