En este momento estás viendo Ante el avance de los agentes de IA, Hong Kong debería definir las reglas ahora
Una niña juega con un robot durante la Conferencia Mundial de Inteligencia Artificial en el Centro Mundial de Exposiciones y Convenciones de Shanghái el 28 de julio de 2025.

Ante el avance de los agentes de IA, Hong Kong debería definir las reglas ahora

  • Autor de la entrada:
  • Categoría de la entrada:China
  • Última modificación de la entrada:marzo 6, 2026

Al aprovechar el centro de innovación Hong Kong-Shenzhen como campo de pruebas transfronterizo, la ciudad puede establecer el estándar para una gobernanza responsable de la IA.

En enero, el regulador financiero de Hong Kong advirtió al público sobre un esquema de «comercio cuántico de alta frecuencia basado en IA» sin licencia.

Si bien se trataba de un caso de fraude tradicional disfrazado de tecnología moderna, puso de relieve una verdad más profunda: donde la tecnología sofisticada se fusiona con las finanzas, el potencial tanto de innovación como de daño crece exponencialmente.

El verdadero desafío no son estas estafas burdas, sino los poderosos y legítimos agentes de IA que ahora llegan al mercado. Cuando este delegado digital comete un error, ¿quién es responsable?. Los modelos recientes de inteligencia artificial (IA) que convierten indicaciones sencillas en vídeos cinematográficos han cautivado la imaginación del público, pero la tecnología subyacente tiene implicaciones más serias.

El agente de un operador ahora puede generar un vídeo deepfake de un analista de mercado recomendando una operación fallida, o una llamada de audio sintética de un jefe que aparentemente la autoriza. Para los reguladores, será casi imposible discernir dónde termina la auténtica acción humana y dónde comienza el rendimiento generado por máquinas.

Esto no es solo un espectáculo tecnológico; demuestra la rapidez con la que puede derrumbarse el muro que separa la curiosidad de laboratorio de una potente herramienta del mundo real. Para sistemas agénticos como OpenClaw, las implicaciones son aún más pronunciadas.

Con la IA agéntica, la máquina evoluciona de una herramienta pasiva a la que las personas consultan a un delegado activo al que dirigen. Dado un objetivo, un agente de IA puede investigar de forma independiente, consultar a otras IA y construir su propio caso. Aquí radica la paradoja: la autonomía que lo hace poderoso es precisamente lo que lo hace peligroso.

El razonamiento del agente puede ser una caja negra, y cuando se equivoca, la cadena de responsabilidad recae en el humano que dio la orden. El resultado choca con principios legales construidos para una época más simple.

Toda nuestra tradición jurídica se basa en una clara cadena de mando: un actor humano decide y es responsable del resultado. La IA generativa ha comenzado a desvirtuar esta lógica al introducir un «actor» que no es ni persona ni propiedad.