En este momento estás viendo Por qué aún no se puede confiar en la IA para tareas cruciales

Por qué aún no se puede confiar en la IA para tareas cruciales

  • Autor de la entrada:
  • Categoría de la entrada:Resto del Mundo
  • Última modificación de la entrada:agosto 11, 2025

Cada gran anuncio de IA conlleva inevitables críticas de quienes creen que podríamos estar construyendo la herramienta que acabe con la humanidad.

Una frase de un comunicado del Future of Life Institute, en respuesta al lanzamiento de GPT-5 el jueves, destacaba: «Este es un paso peligroso hacia el objetivo declarado de OpenAI de construir superinteligencia, algo que están más cerca de construir que de descubrir cómo controlar».

Esto pone de relieve una verdad sobre la carrera de la IA que no está recibiendo suficiente atención: los modelos actuales ya son suficientemente capaces. La razón por la que aún no han liberado a la humanidad de tareas monótonas ni impulsado la productividad económica es que nadie puede, con una certeza mínima, controlarlos.

Esto no es solo un problema de seguridad de la IA. Es un problema empresarial a largo plazo. Seguimos mejorando los modelos de IA, pero hemos avanzado poco en la comprensión de lo que sucede en segundo plano. Es revelador que OpenAI no mencionara la ciencia para descubrirlo, conocida como «interpretabilidad», en su lanzamiento.

Hasta que comprendamos cómo funcionan los modelos de IA, no podemos confiar en que sigan instrucciones. Si existe incluso un 1% de probabilidad de que alucinen, se descontrolen o sean víctimas de un ataque de jailbreak, no se puede confiar en ellos para tareas cruciales.

La única alternativa es crear sistemas y controles complejos para controlar el cumplimiento de los modelos de IA. Así es como manejamos a los humanos, cuyos cerebros tampoco podemos comprender del todo. Sabemos que las personas se descontrolan, por lo que tenemos leyes para disuadirlas de acciones dañinas y sabemos cómo intentar limitar el daño cuando no cumplen.

Quizás sea posible hacer lo mismo con los modelos de IA. O quizás necesitemos encontrar maneras de decodificar el inmenso conjunto de neuronas que los impulsa a hacer lo que hacen.