A diferencia de las empresas estadounidenses de IA, que publican los resultados de sus evaluaciones de riesgos fronterizos, las empresas chinas no anuncian dichos detalles.
La startup china de inteligencia artificial DeepSeek ha realizado evaluaciones internas sobre los «riesgos fronterizos» de sus modelos de IA, según una persona familiarizada con el asunto.
Este avance, no informado previamente, se produce en un momento en que Beijing busca promover la concienciación sobre estos riesgos en la industria china de la IA. Los riesgos fronterizos se refieren a los sistemas de IA que representan amenazas potencialmente significativas para la seguridad pública y la estabilidad social.
La empresa con sede en Hangzhou, referente en el desarrollo de IA en China desde que lanzó su modelo de razonamiento R1 en enero, realizó evaluaciones, en particular, de la autorreplicación y las capacidades ciberofensivas de los modelos, según la persona que solicitó el anonimato.
Los resultados no se hicieron públicos. No quedó claro cuándo se completaron las evaluaciones ni qué modelos de la empresa participaron. DeepSeek no respondió a una solicitud de comentarios el martes.

A diferencia de empresas estadounidenses de IA como Anthropic y OpenAI, que publican periódicamente los resultados de sus evaluaciones de riesgos fronterizos, las empresas chinas no han anunciado dichos detalles.

