En este momento estás viendo Beijing exige revisiones internas de ética de la IA para garantizar una tecnología «controlable»
Una exhibición con temática de IA en el Centro de Exposiciones Zhongguancun en Beijing, el 25 de marzo de 2026.

Beijing exige revisiones internas de ética de la IA para garantizar una tecnología «controlable»

  • Autor de la entrada:
  • Categoría de la entrada:China
  • Última modificación de la entrada:abril 7, 2026

Desde 2022, las grandes empresas tecnológicas, incluidas Alibaba y Baidu, han establecido comités internos de revisión de ética en ciencia y tecnología.

Las empresas chinas que participan en actividades de inteligencia artificial deben establecer “comités de revisión de ética de la IA” internos según las nuevas reglas publicadas por Beijing el jueves, con efecto inmediato.

El aviso llega mientras los responsables de la formulación de políticas buscan garantizar que el rápido progreso de la IA pueda continuar de manera “saludable” en medio de una creciente adopción por parte de consumidores y empresas.

Publicado conjuntamente por 10 organismos e instituciones gubernamentales, incluido el Ministerio de Industria y Tecnología de la Información, la Comisión Nacional de Desarrollo y Reforma y la Academia de Ciencias de China, el aviso pide a los comités que revisen las actividades relacionadas con la IA para determinar su impacto en el bienestar humano, incluida la equidad de los algoritmos de IA y si los sistemas de IA son “controlables” y “explicables”.

Las normas también se aplican a universidades, organismos de investigación e instituciones sanitarias.

Beijing introdujo un sistema unificado de revisión de la ética de la ciencia y la tecnología en 2023, que exigía que las empresas y organizaciones involucradas en actividades de “alto riesgo”, como el desarrollo de modelos de IA que “influyen en el discurso social” o implicaran una “toma de decisiones altamente autónoma”, realizaran revisiones éticas antes de comenzar.

Sin embargo, el sistema ha sido criticado por no mitigar los riesgos en la era de la IA en rápida evolución debido a la ambigüedad en su alcance operativo y estándares de revisión, así como a la falta de mecanismos de aplicación efectivos.