El frenesí global de financiación de la IA se intensifica, e incluso el gigante neerlandés de la litografía, ASML, se ha sumado a la carrera por los modelos de IA.
El 9 de septiembre, medios británicos informaron que ASML liderará la ronda de financiación de Serie C de Mistral AI, la «versión europea de OpenAI», aportando 1.300 millones de euros (aproximadamente 1.500 millones de dólares, unos 10.800 millones de RMB), convirtiéndose en el mayor accionista de Mistral AI. Esto eleva la financiación total recaudada en esta ronda a 2.000 millones de dólares.
Expertos del sector analizan que la decisión de ASML no es solo una inversión de capital, sino también una apuesta estratégica. La inversión de ASML en Mistral AI unirá a las dos empresas tecnológicas europeas y ayudará a Mistral AI a reducir la dependencia de Europa de los grandes modelos de IA de Estados Unidos y China.
Según informes, esta ronda de financiación convertirá a Mistral AI en la empresa de IA más valiosa de Europa, con una valoración previa a la Serie C de 10.000 millones de euros (11.700 millones de dólares estadounidenses) y una valoración posterior a la financiación de 14.000 millones de dólares.
Mientras tanto, competidores como OpenAI, Anthropic y Databricks no se han quedado atrás, consiguiendo financiación y anunciando cifras de ingresos.
Anthropic consiguió 13.000 millones de dólares en una nueva ronda de financiación, liderada por Iconiq Capital, una de las mayores rondas de financiación de la industria global de la IA hasta la fecha. Su valoración alcanzó los 183 000 millones de dólares (aproximadamente 1,3 billones de yuanes).
OpenAI había recaudado previamente 40.000 millones de dólares en financiación, liderada por SoftBank, con una valoración de 300.000 millones de dólares (aproximadamente 2,1 billones de yuanes), lo que la convierte en la empresa de IA más valiosa del mundo. Se proyecta que los ingresos anualizados de la compañía se acerquen a los 10.000 millones de dólares para 2025, aumentando a 90.000 millones de dólares para 2030.
La noche del 8 de septiembre, la empresa de IA Databricks anunció la finalización de una ronda de financiación Serie K de 1.000 millones de dólares, liderada por a16z, Insight Partners, MGX, Thrive Capital y otros. La valoración de la compañía ha superado los 100.000 millones de dólares (aproximadamente 713.200 millones de yuanes). La compañía espera generar 4.300 millones de dólares en ingresos por productos en el año fiscal que finaliza en enero de 2026.
Varios expertos de la industria de la IA me comentaron que, con el crecimiento explosivo del uso de tokens impulsado por el razonamiento multipaso en agentes de IA, la creciente demanda de computación en la nube e inteligente, y el éxito inicial en los ingresos B2B (empresa a empresa), los inversores están empezando a centrarse en startups de IA que puedan lograr un crecimiento de los ingresos. Los datos de PitchBook muestran que, en el primer trimestre de 2025, de las 1603 operaciones de capital riesgo realizadas a nivel mundial, el 57,9% se destinó a IA y aprendizaje automático, lo que representa casi el 70% del valor total de las operaciones, alcanzando los 50.000 millones de dólares. Para el primer semestre de 2025, la inversión y financiación totales en la industria de la IA superaron los 83.900 millones de dólares. Según una estimación anualizada, se espera que la inversión global de capital riesgo supere este año los 167.800 millones de dólares, lo que podría establecer un nuevo récord para el capital riesgo en el sector de la IA.
La ronda de financiación de 40.000 millones de dólares de OpenAI marcó el camino. OpenAI anunció recientemente que prevé invertir más de 8.000 millones de dólares este año y gastar 115.000 millones de dólares para 2029, principalmente debido a su necesidad de mayor potencia de cálculo para el entrenamiento de la IA.
Sam Altman, director ejecutivo de OpenAI, ha afirmado repetidamente que la razón principal de la elevada financiación de la empresa es la necesidad de mayor potencia informática para atender al gran número de empresas y consumidores que utilizan productos como ChatGPT, así como para entrenar y ejecutar modelos de IA. Dada la creciente demanda de GPT-5, la empresa priorizará la potencia informática y planea duplicar su capacidad de cómputo en los próximos cinco meses.
Zhu Xiaohu, socio director de GSR Ventures, declaró recientemente que el consumo diario de tokens en China supera los 10.000 millones de yuanes, un aumento múltiple respecto al año pasado, lo que demuestra que la IA ya está teniendo un impacto en las empresas. Sin embargo, la barrera de entrada para aplicaciones de crecimiento verdaderamente explosivo es alta. Muchos proyectos de IA, tras la experiencia real, pueden producir solo presentaciones o informes de investigación de 60 puntos. Si bien estos productos pueden ser adecuados para el uso personal ocasional, conseguir que los usuarios inviertan en ellos es un desafío.
«Invertir en startups de IA es como soltar una bandada de palomas. Quizás una o dos vuelen al cielo, pero la mayoría aterrizarán en tierra. El éxito es extremadamente raro», afirmó Zhu Xiaohu.
Tres emprendedores nacidos después de los 90, favorecidos por Jensen Huang y Tim Cook, están a punto de crear el mayor unicornio de IA de Europa.
Mistral AI, fundada en abril de 2023, es el mayor unicornio de IA de Europa y compite con gigantes estadounidenses como OpenAI y Google AI.
La empresa fue fundada por tres emprendedores nacidos después de los 90: Arthur Mensch, exinvestigador de Google DeepMind; Timothée Lacroix, exinvestigador de Meta; y Guillaume Lample.
Los tres cofundadores se conocieron mientras estudiaban en la École Polytechnique de París. El nombre de Mistral AI proviene del francés y significa «viento fuerte que sopla desde Francia»; su objetivo es crear una empresa de IA con un profundo impacto.

Desde su fundación, Mistral AI se ha centrado en modelos de IA de código abierto, lanzando docenas de ellos en la nube, el edge y diversas escalas, incluyendo modelos de voz, programación y multimodales. Entre los más potentes se encuentran los múltiples modelos de IA de extremo a extremo de 8B desarrollados por Mistral AI, que ofrecen una sólida competitividad en el mercado en comparación con otros modelos de tamaño similar.
En febrero de este año, Mistral AI lanzó Le Chat, un chatbot que compite con ChatGPT. A las dos semanas de su lanzamiento, la aplicación contaba con más de un millón de descargas, liderando la lista de descargas gratuitas en la App Store francesa de iOS.
La ventaja de Mistral AI reside en que permite a las empresas implementar Le Chat en entornos privados y admite modelos e interfaces de usuario personalizados para satisfacer las necesidades de uso intensivo de datos de las empresas. Actualmente, los modelos de Mistral AI (Nemo, Small y Large) se aplican a tres tipos de tareas: atención al cliente, generación de texto, extracción de datos, resumen de documentos, redacción de correos electrónicos, generación de código y RAG o agentes. En abril de este año, Mistral AI y el gigante naviero francés CMA CGM lanzaron una alianza estratégica de IA de cinco años y 100 millones de euros, que integra la tecnología de Mistral AI en la logística y el servicio al cliente de CMA CGM.
En cuanto a financiación, Mistral AI ha completado cuatro rondas de financiación hasta la fecha, convirtiéndose en una empresa unicornio global de IA a gran escala, con una valoración de más de 100.000 millones de dólares estadounidenses. Entre los inversores se encuentran Eric Schmidt, exdirector ejecutivo de Google, Databricks, Nvidia, Microsoft, Salesforce, a16z y otros, con una financiación total superior a los 1.100 millones de dólares estadounidenses (aproximadamente 8.400 millones de RMB).
En junio de 2023, menos de dos meses después de su fundación, Mistral AI consiguió 105 millones de euros (aproximadamente 130 millones de dólares, aproximadamente 900 millones de RMB) en financiación, la mayor ronda de capital semilla de la historia europea hasta ese momento.
En diciembre de 2023, Mistral AI completó una ronda de financiación Serie A de 415 millones de dólares (aproximadamente 3.000 millones de RMB).
En junio de 2024, obtuvo 600 millones de euros (aproximadamente 700 millones de dólares, aproximadamente 5.000 millones de RMB) en una ronda de financiación Serie B, lo que elevó su valoración a 6.000 millones de euros (aproximadamente 7.000 millones de dólares, aproximadamente 50.100 millones de RMB).
Reuters informó que Bank of America asesoró a ASML en su inversión en Mistral AI. Además de ASML, Mistral AI está en conversaciones con MGX y otros inversores para completar esta ronda de financiación lo antes posible.
Esta transacción es especialmente destacable porque ASML es un fabricante de equipos upstream en las industrias de IA y semiconductores. Desarrolla múltiples máquinas de litografía utilizadas para fabricar chips de vanguardia, y las máquinas de litografía EUV de ASML son el único proveedor de equipos de litografía EUV a empresas como TSMC e Intel. Sin embargo, ASML no ofrece productos ni servicios de modelos de IA.
Reuters cree que, al invertir en Mistral AI, ASML podría aprovechar sus capacidades de análisis de datos e IA para mejorar el rendimiento de herramientas como la metrología litográfica y la litografía computacional. Utilizando la IA para optimizar la eficiencia de las herramientas e impulsar el desarrollo continuo y la comercialización de más equipos litográficos, el equipo continúa desarrollando y comercializando más equipos litográficos.
Además de centrarse en modelos y productos, Mistral AI también está desarrollando infraestructura de IA. En colaboración con NVIDIA, planea construir un centro de datos de 40 GW (megavatios) cerca de París, alimentado por 18.000 chips NVIDIA AI.
Se prevé que los ingresos comerciales de Mistral AI alcancen decenas de millones de euros en 2024. Mensch declaró en junio que los ingresos de la compañía se habían triplicado desde principios de 2025.
Mensch afirmó recientemente que las personas siguen siendo cruciales y que las herramientas de IA generativa deben considerarse una forma de mejorar la productividad y la creatividad. Solo con la motivación adecuada o la aplicación inteligente se puede generar contenido interesante. Tanto los desarrolladores como los creadores tienen mucho trabajo por delante para producir resultados realmente prácticos y valiosos. Mensch cree que para 2025, el enfoque de los productos de la industria de la IA pasará de los modelos a los «sistemas» que integran modelos y datos empresariales contextuales. Señaló que los futuros sistemas de IA se beneficiarán de sus amplios modelos de lenguaje integrados. Al conectar estos modelos con datos contextuales relevantes, los sistemas de IA podrán ofrecer soluciones personalizadas basadas en diversas necesidades empresariales.
«Aquí es donde se está produciendo el cambio», afirmó Mensch, añadiendo que la IA es una tecnología de infraestructura que puede transformarse en cualquier tipo de aplicación.
Mensch enfatizó: «Creemos firmemente que los desarrolladores de aplicaciones necesitan diferenciarse y comprender a fondo esta tecnología. La única manera de lograrlo es acceder a toda la pila de productos. La manera de impulsar esta transformación es convencer a la gente de que el modelo de código abierto de Mistral AI les permitirá crear aplicaciones más económicas, rápidas y de mejor calidad, aportando un valor significativo a nuestros clientes».
Esta transacción de inversión transfronteriza ha recibido críticas mixtas en línea. En Hacker News, algunos expresaron su descontento con la financiación, creyendo que diluirá el accionariado de ASML.
Esta decisión es indignante. ASML es una empresa excelente con un negocio sólido y un rendimiento bursátil consistentemente sólido, pero esta inversión podría diluir el capital social y exponer a la empresa a los riesgos potenciales de una burbuja de IA. Si ASML tiene exceso de efectivo, pero considera que no tiene margen para más inversiones para mantener su liderazgo tecnológico, lo más sensato sería devolver los fondos a los accionistas y dejar que decidan si invierten en Mistral. Sin embargo, creo que puede haber factores ajenos a la empresa tras esta inversión, tal vez la presión de Europa para apoyar a este unicornio de IA. Este enfoque de toma de decisiones socava la lógica establecida del mercado —afirmó el usuario sin rodeos.
Algunos expertos del sector han especulado sobre si ASML aprovechará la IA de Mistral para impulsar sus máquinas de litografía EUV, de forma similar a la colaboración entre TSMC, la empresa de EDA Synaptics y Nvidia, que integra la tecnología de IA en las fundiciones de obleas.
La potencia de cálculo es clave para el desarrollo de la IA.
El mercado, en general, cree que la escasez de potencia de cálculo se ha convertido en un gran reto para el desarrollo de la IA generativa.
Entonces, ¿cuánto cuesta entrenar un modelo de IA de vanguardia?
Los datos públicos muestran que el coste de entrenar modelos de IA de vanguardia se ha multiplicado por dos o tres cada año (un promedio de 2,4 veces) en los ocho años transcurridos desde 2016. Esto significa que, para 2027, se espera que el coste de los modelos más grandes supere los mil millones de dólares.

Tomando como ejemplo los costos de modelos como GPT-4 y Gemini, incluyendo el personal de I+D y los costos de computación experimental, observamos que la mayor parte de los costos de desarrollo de modelos se destina al hardware, representando entre el 47% y el 67% de los gastos totales; los costos de personal de I+D representan entre el 29% y el 49%; y el 2%-6% restante corresponde al consumo de energía.
Al observar clústeres de supercomputadoras de IA de mayor tamaño (centros de computación inteligente), las estadísticas muestran que el rendimiento de las supercomputadoras de IA se duplica cada nueve meses, con un costo de miles de millones de dólares y un consumo de electricidad equivalente al de una ciudad mediana. A nivel regional, Estados Unidos posee aproximadamente el 75% de la potencia informática mundial, seguido de China con el 15%.
Claramente, el rápido crecimiento de los costos de entrenamiento de modelos plantea desafíos significativos para el desarrollo de la IA. Solo unas pocas grandes empresas y «gigantes financieros» como OpenAI pueden afrontar estos gastos, mientras que los desarrolladores de IA de tamaño pequeño y mediano deben abordar estos desafíos financieros y de infraestructura para sostener la innovación futura. A menos que los inversores crean que los costes y la IA de estas empresas pueden alcanzar el punto de equilibrio, las pequeñas y medianas empresas tendrán dificultades para recaudar fondos suficientes para seguir adquiriendo hardware informático.
Por lo tanto, los costes de formación y la potencia de cálculo son cruciales para la innovación de modelos de IA de vanguardia. Elon Musk publicó el 7 de septiembre que él y el equipo de diseño del chip informático Tesla AI5 tuvieron una fantástica revisión de diseño hoy. Este será un chip excepcional, y se espera que el próximo AI6 sea el mejor chip de IA hasta la fecha.
«Creo que para modelos con menos de 250.000 millones de parámetros, AI5 probablemente será el mejor chip de inferencia de cualquier tipo. Además, el chip tendrá el coste más bajo hasta la fecha, con un rendimiento y un consumo de energía excelentes», añadió Musk.

En los últimos años, Tesla ha dependido en mayor medida de socios externos para la adquisición de chips y recursos informáticos. Nvidia, AMD, Samsung Electronics y otras empresas han suministrado GPU de alta gama, chips de IA y soporte de fabricación, lo que ha liberado a Tesla de tener que asumir todos los costes de I+D y construcción de hardware, manteniendo así un sólido rendimiento en el entrenamiento de IA.
Sin embargo, Tesla decidió recientemente disolver su equipo de supercomputadoras Dojo, responsable de la construcción de su plataforma interna de computación de alto rendimiento. Esta decisión supone un revés para Tesla en sus esfuerzos por desarrollar de forma independiente chips para la tecnología de conducción autónoma, obligándola a depender en mayor medida de recursos externos. Según se informa, aproximadamente 20 miembros clave del equipo Dojo se han unido a Density AI, una startup de IA de reciente creación, mientras que el resto de los empleados de Tesla serán reasignados a otros centros de datos de Tesla o proyectos informáticos.
En agosto de este año, Musk declaró en una publicación que no tenía sentido que Tesla dividiera recursos y desarrollara dos diseños de chips de IA distintos simultáneamente. Los chips AI5, AI6 y posteriores de Tesla destacarán en inferencia, o al menos significativamente en entrenamiento, y todos los esfuerzos se centrarán en ello.
Según informes, el AI5 será fabricado por TSMC, con producción en masa prevista para finales de 2026 o principios de 2027. El AI6 será fabricado por Samsung, utilizando un proceso de 2 nm. Se espera que las primeras muestras entren en producción en Corea del Sur en 2025, seguidas de la producción en masa en las instalaciones de Samsung en Texas.
Los analistas creen que el gran pedido de Tesla ofrece a Samsung una importante oportunidad para restablecerse en la fabricación de chips de IA y podría ser un punto de inflexión clave en la recuperación del negocio de fundición de la compañía.
Elon Musk declaró que el cambio de desarrollar dos arquitecturas de chip simultáneamente a centrarse en una sola significó que todo el talento en chips se centró en la construcción de un único e impresionante chip, una decisión que, en retrospectiva, fue sin duda acertada.
No se trata solo de Musk; El competidor de xAI, OpenAI, también está intensificando sus esfuerzos para desarrollar sus propios chips.
El 5 de septiembre se supo que OpenAI se había asociado con el gigante estadounidense de semiconductores Broadcom para diseñar conjuntamente su propio chip de IA, con planes de iniciar oficialmente la producción en masa el próximo año. Esta iniciativa busca superar los cuellos de botella en la capacidad de procesamiento y reducir la dependencia excesiva de Nvidia.
El director ejecutivo de Broadcom, Hock Tan, anunció que la compañía ha conseguido un cuarto cliente importante para su negocio de chips de IA personalizados, comprometiéndose a un pedido de 10.000 millones de dólares. Fuentes familiarizadas con el asunto confirmaron que este misterioso nuevo cliente no es otro que OpenAI.
Hoy en día, la infraestructura informática se ha convertido en una herramienta crucial para estas grandes empresas que invierten en IA.
Un informe publicado el 31 de agosto por el reconocido banco de inversión Jefferies reveló que, en los últimos 12 meses, los cuatro mayores proveedores de servicios en la nube de China (Alibaba Cloud, ByteDance Volcano Engine, Tencent Cloud y Baidu AI Cloud) invirtieron aproximadamente 45.000 millones de dólares en inversiones de capital, mientras que los principales proveedores de servicios en la nube estadounidenses, como Microsoft y Meta, invirtieron la asombrosa cifra de 291.000 millones de dólares, principalmente en infraestructura de computación de IA. Esta cifra para China representa solo el 15% de la de sus homólogos estadounidenses, una diferencia significativa.
Yao Xin, cofundador y director ejecutivo de PPIO, me comentó anteriormente que, a largo plazo, la potencia de computación de inferencia representará el 95%, y el entrenamiento solo el 5%. Por lo tanto, una gran cantidad de futuros centros de datos requerirán computación distribuida y una optimización masiva de la inferencia. Optimizar el uso de cientos de miles de GPU es una tendencia tecnológica clave. En cuanto a la potencia de computación de IA de China, la base fundamental son las redes informáticas y el procesamiento de datos.
Los fabricantes chinos de modelos a gran escala quieren generar más ingresos porque han descubierto que monetizarlos no es fácil. El mercado nacional de modelos a gran escala es increíblemente competitivo. Y, siendo sinceros, aún existe una brecha de rendimiento entre China y los modelos estadounidenses más avanzados, afirmó Yao Xin.
Según el director financiero de Nvidia, el gasto global en infraestructura de computación de IA alcanzará entre 3 y 4 billones de dólares para 2030, con un crecimiento anual superior al 50%.
Con base en una tasa de crecimiento anual de cuatro veces para la computación de entrenamiento, para 2030, el entrenamiento de modelos de IA de vanguardia a ultragran escala requerirá casi 20 millones de GPU de clase H100. Sin embargo, la capacidad de producción global deberá alcanzar casi 100 millones de GPU de clase H100, superando con creces la capacidad de producción. Por lo tanto, la industria necesita acelerar la expansión de la capacidad de producción de GPU.
Se prevé que la industria mundial de semiconductores supere el billón de dólares para 2030.

