La inteligencia artificial fue una tecnología ineludible en 2025 y lo será aún más en 2026, especialmente en ciberseguridad.
Si bien la IA generativa ha planteado desafíos significativos para los profesionales de la seguridad de la información, la expansión de la IA agente en el nuevo año supondrá una mayor carga para los equipos de seguridad, que ya están bajo presión. Sin embargo, la otra cara de la moneda es la promesa de aplicaciones impulsadas por IA que pueden mejorar la ciberseguridad de todas las organizaciones.
Con estos avances en mente, esto es lo que algunos expertos en ciberseguridad prevén para 2026.
Los hackers de sombrero blanco (White Hats) ganarán ventaja sobre los hackers de sombrero negro (Black Hats).
Mientras que los actores de amenazas están acelerando rápidamente sus tácticas con la escalabilidad habilitada por la IA, los defensores están listos para recuperar la ventaja en 2026, predijo Nicole Reineke, líder sénior de producto de IA en N-able, una empresa global de software de gestión de TI y ciberseguridad.
«Los defensores pueden ver todo el tablero», declaró. A diferencia de los atacantes, que suelen operar solos, con creatividad limitada, los proveedores de seguridad pueden agregar patrones de miles de intentos de intrusión para comprender mejor las tácticas y estrategias más comunes.
Esta visibilidad entre actores permite a los defensores identificar proactivamente técnicas emergentes mucho antes de que las organizaciones individuales sean el objetivo, continuó. En 2026, esta inteligencia a nivel de red se convertirá en uno de los factores diferenciadores más importantes en ciberresiliencia, permitiendo a los defensores predecir y neutralizar los ataques antes de que comiencen.
Russ Ernst, director de tecnología de Blancco Technology Group, empresa global especializada en borrado de datos y diagnóstico de dispositivos móviles, explicó que la capacidad inherente de la IA para detectar patrones en grandes conjuntos de datos mejora la detección de amenazas de seguridad e identifica vulnerabilidades en tiempo real. Esto ayuda a las organizaciones a cumplir con los requisitos de cumplimiento normativo, cada vez más complejos, y minimizará las costosas infracciones, las filtraciones de datos y las sanciones regulatorias, declaró.
“Al integrar la IA en la gestión de activos de TI, las empresas pueden detectar y aislar dispositivos no autorizados o sin seguimiento antes de que se conviertan en vectores de ataque, a la vez que protegen las bases de configuración, incluyendo ajustes de seguridad, permisos y configuraciones de sistemas y componentes”, continuó.
“Aprovechar la IA para una mejor protección de seguridad en toda la organización aliviará la carga de los equipos de ciberseguridad, que ya están sobrecargados, mejorará la seguridad de los datos y facilitará el cumplimiento normativo y de las leyes de privacidad de datos, cada vez más complejas”, añadió.
La IA agentica revolucionará DevSecOps.
La próxima ola de desarrollo de la IA girará en torno a las arquitecturas agenticas, una IA capaz de planificar, razonar y actuar en todos los sistemas, explicó Ensar Seker, CISO de SOCRadar, una empresa de inteligencia de amenazas en Newark, Delaware. “En DevSecOps, esto significa una IA que no solo detecta vulnerabilidades, sino que también genera un ticket de Jira, bifurca el repositorio, soluciona el problema y genera una solicitud de extracción, sin intervención humana”, declaró.
“Esto no es ciencia ficción”, afirmó. Ya está ocurriendo en entornos prototipo, y para 2026, los equipos de seguridad dependerán cada vez más de la IA de agentes para gestionar la deuda de seguridad de bajo nivel, centrándose en los riesgos estratégicos.
La IA en la sombra se extenderá descontroladamente.
«En 2026, la IA en la sombra seguirá extendiéndose descontroladamente en las organizaciones y provocará la pérdida de más información personal identificable y propiedad intelectual», predijo Joshua Skeens, director ejecutivo de Logically, proveedor de soluciones de seguridad y TI gestionadas con sede en Dublin, Ohio.
Explicó que, a medida que las empresas buscan maneras de aumentar la eficiencia y reducir costes aprovechando la IA, muchas siguen ignorando los riesgos que esto genera en sus organizaciones. «Los empleados manifiestan una creciente frustración con las directivas genéricas para usar la IA para lograr más, pero la mayoría no sabe por dónde empezar, qué hacer y, lo más importante, qué no hacer al aprovechar la IA», declaró.
«La mayoría de las empresas desconocen si sus empleados utilizan ChatGPT, Grok u otras plataformas similares, y mucho menos si están introduciendo información confidencial». en estas plataformas”, continuó. “La detección de la IA en la sombra será clave para las empresas en 2026 que desean no solo reducir los riesgos, sino también comprender mejor qué hacen y qué no hacen sus empleados con la IA”.
“Para tener éxito y estar seguras con la IA, las empresas primero deben establecer directrices claras, educar y capacitar a sus empleados, y luego otorgarles acceso”, agregó. “No les damos a nuestros hijos las llaves del auto y luego regresamos meses después y les enseñamos a conducir”.
La IA en la sombra es más que el uso no autorizado de herramientas de IA populares, señaló Gene Moody, director de tecnología de campo de Action1, una empresa de ciberseguridad y operaciones de TI en Houston.
“A medida que la adopción de la IA se disparó entre 2023 y 2025, los equipos de toda la empresa implementaron discretamente LLM privados o de terceros, al margen de la supervisión oficial”, declaró. “Para 2026, estos modelos ocultos representarán una superficie de ataque significativa y en gran medida invisible, que introducirá flujos de datos sin supervisión, retención de entrenamiento desconocida y controles de acceso inconsistentes”.
“Muchas organizaciones descubrirán que información confidencial ya circula a través de sistemas de IA no aprobados, lo que crea brechas de cumplimiento y canales de fuga persistentes”, continuó. “La proliferación de estos modelos no autorizados obligará a las empresas a exigir el registro de cualquier flujo de trabajo de IA que toque datos corporativos, a imponer la gobernanza sobre los endpoints de los modelos y a ofrecer alternativas aprobadas y reforzadas para evitar que los equipos realicen experimentos sin supervisión”.
“La IA oculta seguirá apareciendo cuando las herramientas autorizadas se sientan lentas o restrictivas, y las prohibiciones por sí solas no la detendrán”, añadió Chris Faraglia, arquitecto principal de soluciones en Sembi, una empresa de gestión de calidad y seguridad de software en Austin, Texas.
“La solución práctica es integrar políticas en el entorno de desarrollo integrado, las herramientas de prueba y las plataformas de chat, a la vez que se registra el uso como cualquier otro control para mantener la velocidad de forma segura sin crear nuevos riesgos internos”, declaró.
Se espera un aumento en el gasto en seguridad tras el primer gran ataque impulsado por IA.
“En 2026, veremos el primer gran ataque impulsado por IA que cause daños financieros significativos, lo que impulsará a las organizaciones a aumentar drásticamente sus presupuestos de cumplimiento con el gasto en seguridad”, predijo Rick Caccia, director ejecutivo de WitnessAI, una empresa de seguridad y gobernanza de IA en Mountain View, California.
Explicó que, actualmente, el gasto empresarial en IA se centra principalmente en el cumplimiento, mientras las empresas se preparan para los requisitos regulatorios, dada la ausencia de amenazas activas. “Esto refleja el panorama de la ciberseguridad anterior a 2009, cuando las organizaciones invertían en tecnología SIEM principalmente con fines de cumplimiento en lugar de protección de la seguridad”, declaró.
Caccia anticipa tres cambios después de que el primer ataque de IA de alto perfil acabe en los titulares: los presupuestos de seguridad se liberarán considerablemente a medida que los ejecutivos reconozcan la amenaza urgente; El número de compradores empresariales aumentará a medida que los competidores se apresuren a protegerse de ataques similares; y los ciclos de negociación se acelerarán tres veces más que los ciclos actuales.
“La necesidad de mayor inversión en seguridad liberará presupuestos que las evaluaciones teóricas de riesgos han limitado”, afirmó. “Esto creará una nueva dinámica de mercado donde la seguridad de la IA pasará de ser algo deseable a ser crucial para el negocio de la noche a la mañana”.
Las malas decisiones de los agentes de IA provocarán una oleada de desastres operativos.
El director de producto de WitnessAI, Dan Graves, predijo que a lo largo de 2026, las empresas experimentarán incidentes operativos significativos causados por agentes bienintencionados que toman malas decisiones con graves consecuencias imprevistas. “Estos agentes no se volverán ‘descontrolados’ en un sentido malicioso”, declaró. “Simplemente carecerán del criterio y la previsión necesarios para comprender el impacto total de sus acciones. Esto provocará la eliminación de bases de código, la caída de sistemas y otros desastres ‘útiles’”.
Graves explicó que el problema radica en que los agentes actúan como niños, inteligentes en tareas específicas, pero carentes de inteligencia emocional y pensamiento a largo plazo. «Al encargarse de mejorar el código, un agente podría decidir que la estrategia más eficiente es eliminar todo el proyecto existente y empezar de cero, lo cual podría ser lógico desde una perspectiva limitada, pero catastrófico en la práctica», afirmó.
«Las empresas descubrirán que prevenir ataques maliciosos es solo la mitad de la batalla cuando sus propios agentes, que son tan útiles, pueden causar un daño equivalente simplemente por intentar hacer su trabajo», señaló. «Los agentes habrán seguido sus instrucciones a la perfección. Simplemente interpretaron ‘mejorar esto’ u ‘optimizar este proceso’ de maneras que ningún humano habría elegido. Esto revelará la brecha entre la lógica computacional y el juicio humano, que actualmente ningún dato de entrenamiento puede superar».
La IA agente transformará el panorama de amenazas y desarrollará tácticas, técnicas y procedimientos.
La IA agentica, ya un componente clave de muchas campañas de amenazas en 2025, transformará aún más el panorama de amenazas en 2026 a medida que los actores de amenazas sigan integrando herramientas de IA en su metodología de ataque, predijo Alex Cox, director de TIME y líder del grupo de trabajo de inteligencia artificial en LastPass, empresa de gestión de contraseñas y seguridad de identidad con sede en Boston.
“Es probable que los defensores vean a los actores de amenazas usar la IA agentica de forma automatizada como parte de actividades de intrusión, continuar las campañas de phishing impulsadas por IA y continuar el desarrollo de malware avanzado habilitado con IA”, declaró. “Utilizarán la IA agentica para implementar agentes de hacking que respalden sus campañas mediante trabajo autónomo”.
En 2026, los atacantes pasarán del uso pasivo de la IA en las actividades de preparación a la automatización de las campañas y la evolución de las tácticas, técnicas y procedimientos mediante la IA”, añadió.
Las vulnerabilidades de día cero se volverán mucho más comunes.
A medida que la IA acelere aspectos de la investigación de vulnerabilidades, el desarrollo de exploits y las pruebas, las vulnerabilidades de día cero se volverán mucho más comunes en 2026, predijo Brennan Lodge, CISO a tiempo parcial en DeepTempo, una empresa de detección de amenazas conductuales con sede en San Francisco.
“Los equipos ofensivos, en particular los grupos respaldados por estados, combinarán el razonamiento automatizado con la generación de código a gran escala para encadenar debilidades sutiles en ataques confiables y de alto impacto”, declaró. “A medida que esta capacidad madure a lo largo de 2026, las vulnerabilidades de día cero pasarán de ser herramientas raras y que requieren mucho esfuerzo a activos ofensivos escalables que se pueden implementar en entornos de investigación, cadenas de suministro e infraestructura en la nube”.
“Para los defensores, esto significa que no se puede esperar a que aparezca una CVE antes de buscar comportamientos sospechosos”, advirtió. “Se necesitarán modelos que puedan detectar los primeros signos de actividad de configuración. Para cuando una vulnerabilidad de día cero sea visible, el atacante ya estará donde quería estar”.
“El resultado será un creciente énfasis en los sistemas de aprendizaje profundo que evalúan cómo se desarrolla la actividad a lo largo del tiempo, lo que permite a los defensores identificar la intención del atacante durante las fases iniciales de configuración y acceso antes de que cualquier exploit se vuelva observable más adelante en la cadena de ataque”, afirmó.
Los ámbitos de la IA y la ciberseguridad convergerán.
“El cambio más significativo de 2026 será cultural”, sostuvo Anurag Gurtu, director ejecutivo de Airrived, desarrollador de una plataforma de IA empresarial para ciberseguridad con sede en Dublin, California. “La ciberseguridad y la IA dejarán de ser ámbitos separados”.
“Los centros de operaciones de seguridad no solo usarán IA”, declaró. “Operarán con IA”.
Explicó que los sistemas de agentes suprimirán automáticamente las alertas; realizarán investigaciones en segundos; correlacionarán las exposiciones en la nube, los puntos finales de identidad y la red; generarán soluciones; validarán los cambios; y mantendrán controles continuos.
Para finales de 2026, predijo que las grandes empresas verán que el 30% o más de los flujos de trabajo de los SOC serán ejecutados por agentes, no por humanos.
“Este es el año en que la IA pasa de ser un copiloto a un compañero de trabajo”, afirmó.

