No es ningún secreto que las herramientas de IA facilitan a los ciberdelincuentes el robo de datos confidenciales y la extorsión posterior de las organizaciones víctimas. Sin embargo, dos desarrollos recientes ilustran con precisión cómo las herramientas de gestión de vulnerabilidades (LMS) reducen el riesgo de ransomware y otros delitos informáticos con fines financieros, y ofrecen a los defensores una idea de lo que se avecina.
Los investigadores de malware de ESET, Anton Cherepanov y Peter Strýček, alertaron recientemente sobre lo que denominaron el «primer ransomware conocido impulsado por IA», al que llamaron PromptLock. Si bien el malware no parece ser completamente funcional todavía, «en teoría, podría usarse contra organizaciones», declaró Cherepanov. «Pero por ahora, parece una prueba de concepto».
Los investigadores encontraron variantes de Windows y Linux cargadas en VirusTotal. «Y sabemos que, a veces, los ciberdelincuentes o los creadores de malware cargan su malware para comprobar si VirusTotal lo detecta y si los antivirus lo detectan», añadió Cherepanov.
Para ser justos, el ransomware no está a la altura de Qilin o INC. PromptLock tiene una capacidad de cifrado limitada y, según nos han dicho, sigue siendo bastante lento para bloquearlos.
Pero su aparición debería advertir a los defensores de que el desarrollo de ransomware mediante IA ya no es solo una amenaza teórica.
Casi al mismo tiempo que los cazadores de malware de ESET detectaron PromptLock, Anthropic advirtió que un grupo de cibercriminales utilizó su herramienta de IA Claude Code en una operación de extorsión de datos que afectó a 17 organizaciones. Los delincuentes exigieron rescates que oscilaban entre 75.000 y 500.000 dólares por los datos robados.
El creador del modelo afirmó que los extorsionadores utilizaron Claude Code en todas las fases de la operación, desde el reconocimiento automatizado y el descubrimiento de objetivos hasta la explotación y la creación de malware.
Anthropic respondió baneando algunas de las cuentas infractoras, añadiendo un nuevo clasificador a su sistema de seguridad y compartiendo información sobre los delincuentes con sus socios. No es difícil imaginar cómo los atacantes podrían eludir estas protecciones.
A medida que tanto los defensores de la red como los ciberdelincuentes se apresuran a incorporar la IA a sus arsenales, este tipo de amenazas solo empeorará, especialmente con la creciente incorporación de agentes.
«También debemos esperar que los actores maliciosos pronto utilicen la IA agéntica para orquestar y escalar sus actividades delictivas», declaró Nick Biasini, director de divulgación de Cisco Talos. «Si les resulta más económico, fácil y eficaz crear agentes virtuales que identifiquen y contacten con posibles víctimas, probablemente lo harán».
«Nueva era de riesgo».
Durante una audiencia en el Congreso a principios de este verano sobre «Inteligencia Artificial y Explotación Criminal: Una Nueva Era de Riesgo», Ari Redbord, director global de políticas de la firma de inteligencia blockchain TRM Labs, testificó ante los legisladores que su compañía ha documentado un aumento del 456 % en las estafas basadas en GenAI en el último año.
Actualmente, esto incluye el uso de tecnología deepfake para crear videos de extorsión y, por supuesto, IA generativa para crear correos electrónicos de phishing más realistas. Teme que el próximo paso sea el uso de agentes de IA para autoinfectar máquinas.
«Lo que vemos que la IA hace hoy en día es potenciar la actividad delictiva que hemos observado desde hace tiempo», declaró Redbord ante el Subcomité Judicial de la Cámara de Representantes. Pero en el futuro, prevé operaciones de ciberdelincuencia que «no necesitan afiliados de ransomware, ya que se pueden tener agentes de IA que implementen malware automáticamente».
Entrevistamos a Redbord, exfiscal adjunto de EE.UU., después de la audiencia en el Congreso, y advirtió que los delincuentes, al igual que el resto del mundo, están acelerando el ritmo de desarrollo de su IA.
«Ya estamos viendo a equipos de ransomware experimentar con IA en diversas partes de sus operaciones; quizás todavía no con agentes totalmente autónomos, pero definitivamente con elementos de automatización y contenido sintético que se están implementando a gran escala», afirmó Redbord.
«Actualmente, la IA se utiliza para phishing, ingeniería social, clonación de voz y scripting de mensajes de extorsión: herramientas que reducen la barrera de entrada y aumentan el alcance», continuó. «Si bien el modelo de afiliados aún predomina, la brecha entre las operaciones tradicionales dirigidas por humanos y las potenciadas por IA se está acortando rápidamente. No es difícil imaginar que los agentes de IA se utilicen para reconocimiento, selección de objetivos o incluso negociación automatizada».
Cuando se le preguntó con qué rapidez espera que esto suceda, con los equipos de ransomware eliminando a los intermediarios (también conocidos como afiliados) y utilizando agentes de IA para maximizar sus ganancias, Redbord respondió: «Dudo en cuantificarlo».
Pero, añadió, «este cambio se siente menos como una posibilidad lejana y más como una progresión inevitable».
Los operadores de ransomware y extorsionadores ya están empleando algunos de estos casos de uso nefastos de IA, según Michelle Cantos, analista sénior del Grupo de Inteligencia de Amenazas de Google.
«La IA de Agentic aún no es lo suficientemente avanzada como para reemplazar por completo a los afiliados del ransomware, pero puede mejorar su capacidad para encontrar información, crear comandos e interpretar datos», declaró Cantos. «En cambio, estamos viendo a actores con motivaciones económicas que utilizan LLM y herramientas deepfake para desarrollar malware, crear contenido engañoso para phishing, realizar investigación y reconocimiento, y explotar vulnerabilidades».
Chatbots de extorsión.
Global Group, una nueva operación de ransomware como servicio —y posible cambio de nombre de Black Lock— que surgió en junio, envía a sus víctimas una nota de rescate que les indica que accedan a un portal de negociación independiente basado en Tor, donde un chatbot de IA interactúa con las víctimas.
«Una vez que acceden, la víctima es recibida por un chatbot impulsado por IA, diseñado para automatizar la comunicación y aplicar presión psicológica», señaló Picus Security en un informe de julio. «Las transcripciones de chat revisadas por analistas muestran demandas que alcanzan sumas de siete cifras, como 9,5 BTC (1 millón de dólares en ese momento), con crecientes amenazas de publicación de datos».
En este caso, la integración de IA reduce la carga de trabajo de los afiliados del ransomware y acelera el proceso de negociación incluso sin operadores humanos, lo que permite a Global escalar su modelo de negocio con mayor rapidez.
Los modelos de lenguaje extensos también pueden ayudar a los desarrolladores a escribir y depurar código con mayor rapidez, lo que también aplica al desarrollo de malware, según declaró Fernando Martínez, director de LevelBlue Labs. El investigador principal de la firma de inteligencia de amenazas explicó que los usos comunes de la IA incluyen «reescribir muestras de malware conocidas en diferentes lenguajes de programación, incorporar mecanismos de cifrado y solicitar explicaciones sobre el funcionamiento de fragmentos específicos de código malicioso».
Citaba el ransomware FunkSec como ejemplo. «Sus herramientas, incluido el ransomware basado en Rust, muestran indicios de haber sido escritas o perfeccionadas con agentes LLM, como lo demuestra su código excepcionalmente bien documentado en un inglés perfecto», afirmó Martínez. «Según se informa, los operadores de FunkSec han proporcionado el código fuente a los agentes de IA y publicado el resultado generado, lo que permite un desarrollo rápido con un mínimo esfuerzo técnico». En una línea similar, Jamie Levy, directora de tácticas adversarias en Huntress, contó cómo ella y su equipo detectaron recientemente a delincuentes que usaban Make.com, que cuenta con varias herramientas y funciones de IA integradas en su plataforma sin código, para conectar aplicaciones y API y realizar estafas con fines financieros.
«Estaban aprovechándolo al máximo para desarrollar diferentes bots para campañas de vulneración de correo electrónico empresarial y otras actividades», afirmó Levy.
Además, añadió, la IA facilita la detección de errores y exploits funcionales, lo que agiliza el proceso de infección de sistemas vulnerables para los atacantes de ransomware.
«Existe una tendencia a usar la IA para detectar estas vulnerabilidades mucho más rápido», afirmó Levy. «Es como un fuzzer con esteroides».
Como ocurre con cualquier tecnología emergente, si esta puede hacer que sus estafas sean más escalables y creíbles, y por lo tanto, más probables de obtener un pago económico, los delincuentes encontrarán formas creativas de incorporarla a sus herramientas. Si bien la IA es el próximo objeto nuevo y brillante, ciertamente no será el último.

