Según un artículo publicado en la revista académica Nature, se utilizaron tanto pruebas de referencia de la industria como sus propias pruebas para evaluar sus modelos.
DeepSeek ha revelado por primera vez detalles sobre los riesgos que plantean sus modelos de inteligencia artificial, señalando que los modelos de código abierto son particularmente susceptibles a ser fugados de información por actores maliciosos.
La startup con sede en Hangzhou afirmó haber evaluado sus modelos utilizando tanto pruebas de referencia de la industria como sus propias pruebas en un artículo revisado por pares publicado en la revista académica Nature.
Las empresas estadounidenses de IA suelen publicar investigaciones sobre los riesgos de sus modelos, que mejoran rápidamente, y como respuesta, han implementado políticas de mitigación de riesgos, como las Políticas de Escalado Responsable de Anthropic y el Marco de Preparación de OpenAI.
Las empresas chinas fueron menos transparentes sobre los riesgos, a pesar de que sus modelos estaban solo unos meses por detrás de sus equivalentes estadounidenses, según expertos en IA. Sin embargo, DeepSeek ya había realizado evaluaciones de dichos riesgos, incluyendo los «riesgos fronterizos» más graves, según informó el Post anteriormente.
El artículo de Nature proporcionó detalles más detallados sobre el régimen de pruebas de DeepSeek, según Fang Liang, miembro experto de la Alianza de la Industria de IA de China (AIIA), un organismo del sector. Estas incluían pruebas de «equipo rojo» basadas en un marco introducido por Anthropic, en el que los evaluadores intentan que los modelos de IA produzcan lenguaje dañino.

