En este momento estás viendo OpenAI añade herramientas de supervisión parental para adolescentes que usan ChatGPT

OpenAI añade herramientas de supervisión parental para adolescentes que usan ChatGPT

  • Autor de la entrada:
  • Categoría de la entrada:Análisis
  • Última modificación de la entrada:octubre 6, 2025

OpenAI lanzó el lunes nuevos controles parentales para uno de los chatbots de IA generativa más populares de la web.

La compañía anunció que los controles para ChatGPT estarán disponibles para todos los usuarios del chatbot, lo que permitirá a los padres vincular su cuenta con la de su hijo adolescente y personalizar la configuración para una experiencia segura y adaptada a su edad.

Esta medida se produce mientras los padres de Adam Raine tienen una demanda pendiente en el Tribunal Superior de San Francisco, en la que se alega que el joven de 16 años se suicidó tras ser incitado por ChatGPT.

Así funcionan los controles:

Para configurarlos, un padre o tutor envía una invitación a su hijo adolescente para conectar cuentas. Una vez que el adolescente acepta, el padre o tutor puede administrar la configuración desde su propia cuenta. Los adolescentes también pueden invitar a uno de sus padres a conectarse.

Una vez vinculados, los padres pueden personalizar la experiencia de su hijo adolescente en ChatGPT en una sencilla página de control en la configuración de la cuenta. Si un adolescente desvincula su cuenta, se notificará a sus padres.

Además de los controles, OpenAI también introdujo protecciones mejoradas para las cuentas de adolescentes vinculadas. Una vez que los padres y los adolescentes vinculen sus cuentas, la cuenta del adolescente recibirá automáticamente protecciones de contenido adicionales, incluyendo contenido gráfico reducido, desafíos virales, juegos de rol sexuales, románticos o violentos e ideales de belleza extremos.

Los padres tendrán la opción de desactivar estas configuraciones, explicó OpenAI, pero los usuarios adolescentes no podrán realizar cambios.

Funciones principales para padres.

A través de una página de control, los padres tendrán acceso a estas funciones:

  • Establecer horarios de silencio o horarios específicos en los que no se puede usar ChatGPT;
  • Desactivar el modo de voz para eliminar la opción de usar el modo de voz en ChatGPT;
  • Desactivar la memoria para que ChatGPT no guarde ni use memorias al responder;
  • Eliminar la generación de imágenes para que ChatGPT no pueda crear ni editar imágenes; y
  • Desactivar el entrenamiento de modelos para que las conversaciones de sus hijos adolescentes no se utilicen para mejorar los modelos que impulsan ChatGPT.

“Estos controles parentales son un buen punto de partida para que los padres gestionen el uso de ChatGPT por parte de sus hijos adolescentes”, declaró Robbie Torney, director sénior de Programas de IA en Common Sense Media, en un comunicado.

“Sin embargo, los controles parentales son solo una pieza clave para mantener a los adolescentes seguros en línea”, continuó. “Funcionan mejor cuando se combinan con conversaciones constantes sobre el uso responsable de la IA, reglas familiares claras sobre la tecnología y una participación activa para comprender qué hace su hijo adolescente en línea”.

Prevenir la dependencia excesiva de la IA.

Alex Ambrose, analista de políticas de la Fundación de Tecnología de la Información e Innovación, una organización de investigación y políticas públicas con sede en Washington, D.C., sostuvo que los controles parentales son, sin duda, un paso en la dirección correcta para abordar algunos de los problemas de seguridad en línea de los niños con los chatbots. “Esto es especialmente cierto cuando los padres tienen la flexibilidad de elegir las opciones que mejor se adapten a sus necesidades”, declaró.

“Al mismo tiempo, no todos los niños viven en hogares con padres dispuestos o capaces de velar por sus intereses en línea”, añadió. Incluso los padres que tienen el tiempo y las habilidades para supervisar el uso que hacen sus hijos necesitan herramientas que lo faciliten, por eso es fantástico ver plataformas que implementan este tipo de sistemas.

OpenAI está demostrando al mercado que se preocupa por los daños a los adolescentes, un tema candente en estos días, añadió Vasant Dhar, profesor de la Universidad de Nueva York y autor de «Pensando con máquinas: El nuevo mundo de la IA».

Creo que son un buen comienzo, declaró. «Si los niños saben que sus interacciones están siendo monitoreadas, es menos probable que se metan en problemas».

Eric O’Neill, exagente de contrainteligencia del FBI y autor de «Ciberdelito: Tácticas de ciberseguridad para burlar a los hackers y desarmar a los estafadores», señaló que los controles parentales ofrecen a las familias la oportunidad de establecer límites antes de que la IA se convierta en una muleta. «Hay algo mágico en pensar en esa primera línea creativa de un ensayo sin que la IA te la dé», declaró.

“La IA es poderosa, pero usarla en exceso y demasiado pronto puede sofocar la capacidad de un niño para imaginar, esforzarse y crear”, afirmó. “Los padres deben intervenir antes de que sus hijos externalicen su capacidad creativa. Me preocupa un futuro sin páginas en blanco”.

¿Motivado por una demanda?.

Lisa Strohman, fundadora de Digital Citizen Academy en Scottsdale, Arizona, una organización educativa dedicada a promover el uso seguro y responsable de la tecnología entre estudiantes, padres y educadores, coincidió en que los controles parentales son un buen comienzo. “Pero, francamente, tras 20 años en el sector, creo que se trata más bien de una mitigación de riesgos basada en las recientes situaciones difíciles que les han ocurrido”, declaró.

“Creo que están ofreciendo algo que es mejor que nada, pero en mi opinión, no podemos externalizar la crianza”, concluyó.

“Tenemos que ser realistas sobre si alguien que quiere que usemos su producto una y otra vez realmente implementará medidas de seguridad que impidan que la gente lo use”, añadió.

Los controles parentales son “lamentablemente inadecuados”, afirmó Peter Swimm, experto en ética de IA y fundador de Toilville, una agencia de IA conversacional, en Bellevue, Washington. “La única razón por la que implementan esta tecnología es para protegerse de demandas”, declaró.

Explicó que se necesita gobernanza al usar IA porque sus resultados pueden ser aleatorios e impredecibles. Además, continuó: “Los chatbots están diseñados para darte lo que quieres, incluso si lo que quieres es malo”.

“Tengo una hija de 11 años y no la dejaré usar IA sin supervisión”, afirmó. Creo que es muy problemático y peligroso, especialmente si un niño no tiene el contexto necesario para usar estas herramientas de forma saludable. Puede reforzar resultados negativos.

Compañero dudoso.

Giselle Fuerte, fundadora y directora ejecutiva de Being Human With AI, una empresa dedicada a educar a las personas sobre la ética de la inteligencia artificial, en Spokane, Washington, argumentó que los controles parentales para los chatbots de IA son necesarios porque ha quedado claro que el acceso sin supervisión ni moderación a estos sistemas puede conducir a interacciones inapropiadas y perjudiciales.

«Así como protegemos el desarrollo cerebral de los niños con sistemas de clasificación de videojuegos y películas, necesitamos controles para los sistemas de IA», declaró. «Estos sistemas están diseñados con tácticas poderosas y personalizadas para involucrar a los usuarios, sin importar su edad ni su etapa de desarrollo».

Los niños dependen de los chatbots no solo para la escuela y la investigación, sino también para obtener compañía y consejos, añadió Yaron Litwin, director de marketing de Canopy, fabricante de software y herramientas para supervisar los dispositivos y la actividad en línea de los niños. «Pueden verse influenciados por los errores, los sesgos sutiles y la intimidad artificial que genera un chatbot, todo lo cual puede tener muchos efectos negativos», declaró.

«Siempre que un niño tenga acceso a un chatbot», afirmó, «los controles parentales son vitales para mantenerlo seguro, o al menos para minimizar las posibilidades de peligro».

Estableciendo límites saludables para el uso de la IA.

David Proulx, cofundador y director de IA de HoloMD, una empresa de tecnología sanitaria especializada en monitorización terapéutica remota basada en IA y apoyo a la toma de decisiones clínicas, en Rockville, Maryland, enfatizó que los controles parentales para los chatbots no están diseñados para excluir a los niños de las últimas tecnologías. “Su objetivo es establecer límites en torno a una tecnología que, por diseño, nunca dice que no”, declaró.

“Estos sistemas siempre están activos y siempre son agradables”, afirmó. “Eso puede ser arriesgado para un niño que ya se siente vulnerable”.

“Si un niño pasa más tiempo confiando en un bot que en las personas que lo rodean, es una señal de alerta”, continuó. “Medidas sencillas como limitar la duración de las sesiones, establecer límites en las conversaciones o señalar el uso nocturno pueden ayudar a romper patrones de dependencia. Pero los filtros por sí solos no son suficientes. La verdadera necesidad es contar con barreras de seguridad más inteligentes que se centren en el comportamiento, no solo en el contenido”.