En este momento estás viendo Karen Hao habla sobre el imperio de la IA, los evangelistas de la IAG y el coste de la creencia
Karen Hao.

Karen Hao habla sobre el imperio de la IA, los evangelistas de la IAG y el coste de la creencia

  • Autor de la entrada:
  • Categoría de la entrada:Resto del Mundo
  • Última modificación de la entrada:septiembre 15, 2025

En el centro de todo imperio se encuentra una ideología, un sistema de creencias que lo impulsa y justifica su expansión, incluso si el coste de dicha expansión contradice directamente la misión declarada de la ideología.

Para las potencias coloniales europeas, era el cristianismo y la promesa de salvar almas mientras se extraían recursos. Para el imperio actual de la IA, es la inteligencia artificial general para «beneficiar a toda la humanidad». Y OpenAI es su principal promotor, difundiendo su entusiasmo por toda la industria de una manera que ha replanteado cómo se construye la IA.

«Estaba entrevistando a personas cuyas voces temblaban por el fervor de sus creencias en la IAG», declaró Karen Hao, periodista y autora del bestseller «Empire of AI», en un episodio reciente de Equity.

En su libro, Hao compara la industria de la IA en general, y a OpenAI en particular, con un imperio. “La única manera de comprender realmente el alcance y la escala del comportamiento de OpenAI… es reconocer que ya se han vuelto más poderosos que prácticamente cualquier estado-nación del mundo y han consolidado un extraordinario poder no solo económico, sino también político”, afirmó Hao. “Están terraformando la Tierra. Están reconfigurando nuestra geopolítica, nuestras vidas. Por eso solo se puede describir como un imperio”.

OpenAI ha descrito la IAG como “un sistema altamente autónomo que supera a los humanos en la mayoría de las tareas económicamente valiosas”, un sistema que, de alguna manera, “elevará a la humanidad al aumentar la abundancia, impulsar la economía y contribuir al descubrimiento de nuevos conocimientos científicos que transformen los límites de lo posible”.

Estas promesas nebulosas han impulsado el crecimiento exponencial de la industria: su enorme demanda de recursos, sus enormes cantidades de datos extraídos, sus redes energéticas sobrecargadas y su disposición a lanzar al mundo sistemas sin probar. Todo ello al servicio de un futuro que, según muchos expertos, podría no llegar nunca.

Hao afirma que este camino no era inevitable y que la escalabilidad no es la única forma de lograr más avances en IA.

“También se pueden desarrollar nuevas técnicas en algoritmos”, afirmó. “Se pueden mejorar los algoritmos existentes para reducir la cantidad de datos y computación que necesitan utilizar”.

Pero esa táctica habría implicado sacrificar la velocidad.

“Cuando se define la búsqueda de construir una IA general beneficiosa como una donde el vencedor se lo lleva todo —como hizo OpenAI—, entonces lo más importante es la velocidad por encima de todo lo demás”, afirmó Hao. “Velocidad por encima de la eficiencia, velocidad por encima de la seguridad, velocidad por encima de la investigación exploratoria”.

Para OpenAI, afirmó, la mejor manera de garantizar la velocidad era tomar las técnicas existentes y “simplemente hacer lo intelectualmente más económico, que es inyectar más datos y más supercomputadoras en esas técnicas existentes”.

OpenAI sentó las bases, y en lugar de quedarse atrás, otras empresas tecnológicas decidieron seguir su ejemplo. “Y dado que la industria de la IA ha captado con éxito a la mayoría de los mejores investigadores en IA del mundo, y esos investigadores ya no existen en el ámbito académico, tenemos una disciplina entera que ahora está siendo moldeada por la agenda de estas empresas, en lugar de por la exploración científica real”, dijo Hao.

El gasto ha sido, y será, astronómico. La semana pasada, OpenAI anunció que espera gastar 115.000 millones de dólares en efectivo para 2029. Meta anunció en julio que invertiría hasta 72.000 millones de dólares en la construcción de infraestructura de IA este año. Google prevé alcanzar hasta 85.000 millones de dólares en gastos de capital para 2025, la mayoría de los cuales se destinarán a la expansión de la infraestructura de IA y la nube.

Mientras tanto, los objetivos siguen moviéndose, y los mayores «beneficios para la humanidad» aún no se han materializado, a pesar de que los perjuicios aumentan. Perjuicios como la pérdida de empleos, la concentración de la riqueza y los chatbots de IA que alimentan los delirios y la psicosis. En su libro, Hao también documenta a trabajadores en países en desarrollo como Kenia y Venezuela que estuvieron expuestos a contenido perturbador, incluyendo material de abuso sexual infantil, y que recibían salarios muy bajos —entre 1 y 2 dólares por hora— en funciones como moderación de contenido y etiquetado de datos.

Hao afirmó que es una falsa compensación contraponer el progreso de la IA a los perjuicios actuales, especialmente cuando otras formas de IA ofrecen beneficios reales.

Mencionó AlphaFold, de Google DeepMind, ganador del Premio Nobel, que se entrena con datos de secuencias de aminoácidos y estructuras complejas de plegamiento de proteínas, y que ahora puede predecir con precisión la estructura 3D de las proteínas a partir de sus aminoácidos, lo cual resulta sumamente útil para el descubrimiento de fármacos y la comprensión de enfermedades.

«Esos son los tipos de sistemas de IA que necesitamos», afirmó Hao. AlphaFold no genera crisis de salud mental en las personas. AlphaFold no causa daños ambientales colosales… porque está entrenado en una infraestructura considerablemente menor. No genera daños por moderación de contenido porque [los conjuntos de datos no contienen] toda la basura tóxica que se absorbió al rastrear internet.

Junto con el compromiso casi religioso con la IAG, ha existido una narrativa sobre la importancia de competir para vencer a China en la carrera de la IA, para que Silicon Valley pueda tener un efecto liberalizador en el mundo.

“Literalmente, ha ocurrido lo contrario”, afirmó Hao. “La brecha entre Estados Unidos y China se ha seguido acortando, y Silicon Valley ha tenido un efecto antiliberal en el mundo… y el único actor que ha salido indemne, podría decirse, es el propio Silicon Valley”.

Por supuesto, muchos argumentarán que OpenAI y otras empresas de IA han beneficiado a la humanidad con el lanzamiento de ChatGPT y otros grandes modelos de lenguaje, que prometen enormes aumentos de productividad al automatizar tareas como la codificación, la escritura, la investigación, la atención al cliente y otras tareas de conocimiento.

Pero la estructura de OpenAI —en parte sin fines de lucro, en parte con fines de lucro— complica la forma en que define y mide su impacto en la humanidad. Y esto se complica aún más con la noticia de esta semana de que OpenAI llegó a un acuerdo con Microsoft que la acerca a su eventual salida a bolsa.

Dos exinvestigadores de seguridad de OpenAI declararon que temen que el laboratorio de IA haya comenzado a confundir sus misiones con y sin fines de lucro: que, dado que la gente disfruta usando ChatGPT y otros productos basados ​​en LLM, esto cumple con los requisitos para beneficiar a la humanidad.

Hao se hizo eco de estas preocupaciones, describiendo los peligros de estar tan absorbido por la misión que se ignore la realidad.

«Aunque se acumulan pruebas de que lo que están construyendo está perjudicando a un número significativo de personas, la misión sigue ocultándolo todo», dijo Hao. «Hay algo realmente peligroso y siniestro en eso, en estar tan absorto en un sistema de creencias que uno mismo construye, que se pierde el contacto con la realidad».