A pesar de los miles de millones gastados en IA generativa, la mayoría de las empresas aún no logran obtener un retorno de la inversión mensurable. Un nuevo análisis sugiere que el problema no radica en los algoritmos o la ambición, sino en la capa oculta que se encuentra debajo: la infraestructura de datos. Los expertos dicen que los cuellos de botella de almacenamiento, escalabilidad y rendimiento están impidiendo que la IA empresarial avance más allá de los proyectos piloto y se convierta en una producción que genere ganancias.
Un estudio reciente del Instituto Tecnológico de Massachusetts (MIT) encontró que a pesar de que las empresas estadounidenses invirtieron entre 30 y 40 mil millones de dólares en inteligencia artificial generativa (GenAI), el 95% no ha obtenido ningún retorno mensurable, y solo el 5% ha implementado con éxito herramientas a escala. La cuestión no es la infraestructura ni el talento sino la tecnología en sí.
Según los investigadores, los sistemas de IA actuales carecen de memoria, adaptabilidad y capacidad de integrarse en flujos de trabajo de misión crítica. Numerosos medios informaron sobre el estudio del MIT, pero no está disponible directamente en el MIT.
Un hallazgo clave reveló que existe un gran abismo entre un pequeño grupo de empresas que extraen millones de dólares en valor de la IA y la gran mayoría, que no tiene ningún impacto mensurable en sus estados de pérdidas y ganancias. Cuatro razones principales respaldan esta afirmación.
Escollos que descarrilan los proyectos GenAI.
La mayoría de las iniciativas GenAI suelen fracasar en la etapa piloto. Solo el 5% de más de 300 implementaciones públicas alcanzan la producción con éxito y tienen un impacto mensurable. La integración empresarial defectuosa, no la calidad de los modelos de IA en sí, es el resultado de herramientas que no aprenden de la retroalimentación y no están bien integradas en las operaciones diarias.
Otro factor que contribuye a los bajos resultados de ROI es que los empleados utilizan herramientas de “economía sumergida de IA”, como ChatGPT, de forma independiente. Otra razón del fracaso es la discrepancia en las prioridades a la hora de asignar los presupuestos de IA. Las ventas y el marketing reciben aproximadamente el 50% de la financiación, aunque es más probable que la automatización administrativa produzca retornos significativos y mensurables.
La falla del retorno de la inversión se extiende a todas las capas corporativas, según Björn Kolbeck, director ejecutivo y cofundador de Quobyte. Señaló que algunos provienen de productos que los directores ejecutivos imponen a los usuarios o de “funciones de inteligencia artificial” a medias. En el aspecto técnico, los modelos a menudo se retrasan o no están suficientemente capacitados debido a una infraestructura débil, siendo el almacenamiento el principal cuello de botella.
«Todos sufren si no se puede alimentar las GPU a escala, [en términos de] memoria, adaptabilidad e integración», dijo.
Por qué un almacenamiento débil paraliza el retorno de la inversión en IA.

Kolbeck considera que las empresas que invierten miles de millones y pasan por alto el almacenamiento adecuado para respaldar su infraestructura de IA es uno de los principales errores que cometen las corporaciones. Dijo que la supervisión conduce a tres factores clave de falla: silos enconados, falta de rendimiento y dilemas sobre el tiempo de actividad.
El recurso más crítico para la IA es el entrenamiento de datos. Cuando las empresas almacenan datos en múltiples silos, los científicos de datos carecen de acceso a detalles esenciales.
«Los sistemas de almacenamiento deben poder escalar y proporcionar acceso unificado para permitir un lago de datos de IA, un almacenamiento centralizado y eficiente para toda la empresa», observó.
La falta de rendimiento se produce cuando el sistema de almacenamiento no puede satisfacer las demandas de las GPU utilizadas para entrenamiento o ajuste. Esto hace que recursos costosos queden inactivos, frustra a los científicos de datos y retrasa los proyectos.
«Del mismo modo, cuando las soluciones de almacenamiento no están diseñadas para ofrecer el máximo rendimiento y disponibilidad, como muchos sistemas de almacenamiento HPC, se termina con el mismo problema: proyectos retrasados», advirtió.
Riesgos del almacenamiento tradicional Flujos de trabajo de IA de misión crítica.
El informe del MIT señaló que las implementaciones exitosas de IA se integran a escala. Eso requiere un almacenamiento tolerante a fallos.
El almacenamiento tradicional suele significar almacenamiento empresarial. Si bien son confiables, no pueden ampliarse, advirtió Kolbeck.
«Los primeros proyectos de IA pueden funcionar bien, pero tan pronto como estos proyectos crecen en tamaño [como en más GPU], estos conjuntos se inclinan, y es entonces cuando los flujos de trabajo de misión crítica se detienen», dijo.
Kolbeck explicó la diferencia entre una arquitectura de escalamiento horizontal y un enfoque de escalamiento horizontal como una mejor opción para manejar las demandas de datos masivas e impredecibles de la IA y el aprendizaje automático modernos. Citó la experiencia de su empresa al realizar esa transición.
Quobyte proporciona un sistema de archivos paralelo que convierte los servidores básicos en una solución de almacenamiento escalable y de alto rendimiento. En el pasado, las soluciones de ampliación siempre han fracasado.
Entonces Quobyte terminó con el escalamiento horizontal. Señaló que la compañía vio la tensión en HPC, donde las máquinas vectoriales dieron paso a clusters, en los chips de computadora, donde las CPU modernas son escalables, y también en la nube.
El mismo principio se aplica al entrenamiento de IA. Si no puede escalar, está limitado en cuanto a la cantidad y el tamaño de los modelos que puede entrenar o ajustar.
«El almacenamiento debe mantenerse al día con esta escala horizontal. Cuando agrega GPU, su almacenamiento debe poder ampliarse al mismo tiempo», dijo.
Resolviendo los desafíos de datos más difíciles.
Los flujos de trabajo de IA implican una combinación de archivos pequeños y grandes. Considere los enormes requisitos de rendimiento que surgen cuando muchas GPU acceden a datos en paralelo, así como la administración de múltiples usuarios con diferentes requisitos en el mismo sistema de almacenamiento.
«Desarrollar y entrenar tecnología de IA sigue siendo un proceso muy experimental y requiere que la infraestructura (incluido el almacenamiento) se adapte rápidamente cuando los científicos de datos desarrollen nuevas ideas», señaló Kolbeck.
Los análisis de rendimiento en tiempo real son fundamentales. Los administradores de almacenamiento deben poder identificar con precisión cómo las aplicaciones, como la capacitación u otras fases del proceso, impactan el almacenamiento. La mayoría de los científicos de datos carecen de una visibilidad profunda del almacenamiento y los administradores de almacenamiento necesitan esta información para tomar decisiones informadas sobre cómo modificar, optimizar y ampliar el sistema de almacenamiento.
El motor de gestión de datos basado en políticas de Quobyte se adapta rápidamente a los requisitos cambiantes de la empresa, los usuarios y las cargas de trabajo, proporcionando un control total. Los usuarios pueden cambiar cómo y dónde almacenan archivos y organizarlos con unos pocos clics, añadió.
Resolviendo problemas de vieja tecnología.
Kolbeck describió el almacenamiento empresarial tradicional como construido en torno a tecnología de 30 años de antigüedad, incluido el protocolo NFS, que Sun Microsystems diseñó en 1984. Este enfoque de la vieja escuela no puede mantenerse al día con los requisitos de escalamiento horizontal de la IA.
Sus ejemplos favoritos son Yahoo y Google. Yahoo construyó su infraestructura sobre dispositivos de almacenamiento empresarial basados en NFS. Google, por otro lado, construyó toda su infraestructura sobre almacenamiento de software utilizando tecnología de sistemas distribuidos en servidores baratos.
«Pensar que la misma tecnología de almacenamiento reciclado permitirá ahora a las empresas ejecutar una IA exitosa es más bien una ilusión», sugirió.
Construir la infraestructura para proyectos de IA exitosos requiere pensar como un hiperescalador, una filosofía central en el enfoque de Quobyte. El sistema de almacenamiento definido por software de la empresa aplica algoritmos de sistemas distribuidos para ofrecer un rendimiento confiable en servidores básicos, escalando sin problemas desde un puñado de máquinas hasta centros de datos completos.

