Ciber Seguridad
13 de febrero de 2026
7 min de lectura
Intemedio

Hackers Patrocinados por Estados que utilizan IA en sus ataques

Xifrat Studio

Escrito por

Xifrat Studio

Hackers Patrocinados por Estados que utilizan IA en sus ataques

Hackers Patrocinados por Estados que utilizan IA en sus ataques: El Nuevo Frente en la Ciberseguridad Según Google

En un mundo digital en constante evolución, la línea que separa la innovación tecnológica de la amenaza cibernética se vuelve cada vez más difusa. Un reciente informe del Google Threat Intelligence Group (GTIG) , publicado el 12 de febrero de 2026, ha encendido todas las alarmas: hackers patrocinados por estados de Irán, Corea del Norte, China y Rusia están utilizando activamente inteligencia artificial, incluyendo modelos como Gemini de Google, para potenciar y refinar sus ciberataques. Como experto en ciberseguridad, quiero compartir contigo un análisis detallado de esta nueva realidad, las tácticas empleadas y, lo más importante, cómo podemos prepararnos para defender nuestros activos digitales.

El informe trimestral «AI Threat Tracker» de GTIG revela una tendencia que, aunque esperada, supone un salto cualitativo en las capacidades ofensivas de los actores de amenazada persistente avanzada (APT). La inteligencia artificial ya no es solo un tema de conversación, sino una herramienta operativa fundamental en el ciclo de vida de un ataque: desde el reconocimiento inicial y la ingeniería social, hasta el desarrollo de malware.

El Nuevo Arsenal de la Ingeniería Social: Precisión y Realismo sin Precedentes

Uno de los hallazgos más preocupantes del informe es cómo la IA está siendo utilizada para crear campañas de phishing y suplantación de identidad casi perfectas. Tradicionalmente, uno de los mayores indicadores de un correo fraudulento eran las faltas de ortografía o una sintaxis extraña. Esos «red flags» están desapareciendo.

  • APT42 de Irán: Este grupo ha sido detectado usando Gemini para aumentar sus operaciones de reconocimiento e ingeniería social. Los analistas de GTIG observaron cómo APT42 utilizaba la IA para crear direcciones de correo electrónico con una apariencia oficial y, lo que es más crítico, para investigar y construir pretextos creíbles para sus objetivos. La IA les permite redactar mensajes en varios idiomas con frases y giros lingüísticos naturales, lo que aumenta drásticamente la probabilidad de que la víctima interactúe con el atacante.
  • UNC2970 de Corea del Norte: Centrado en el sector de la defensa, este grupo ha utilizado la IA para perfilar a víctimas de alto valor. Su método es particularmente insidioso: investigan empresas de ciberseguridad y defensa, identifican roles técnicos específicos y recopilan información salarial. Todo este trabajo de investigación, que difumina la línea entre la prospección laboral rutinaria y el reconocimiento malicioso, les permite disfrazarse de reclutadores corporativos de manera extremadamente convincente para acercarse a sus objetivos.

Ataques de Extracción de Modelos: La Propiedad Intelectual en la Mira

Más allá del uso operativo, Google DeepMind y GTIG han identificado un incremento en los intentos de ataques de extracción de modelos, también conocidos como «destilación». El objetivo de estos ataques es robar la propiedad intelectual incrustada en los propios modelos de IA.

En una campaña dirigida contra las capacidades de razonamiento de Gemini, los atacantes utilizaron más de 100,000 indicaciones (prompts) diseñadas para forzar al modelo a revelar sus procesos de razonamiento internos. La amplitud de las preguntas sugiere un intento de replicar la capacidad de razonamiento de Gemini para tareas en otros idiomas. Aunque GTIG no observó ataques directos a los modelos más avanzados por parte de APTs, sí se detectaron y frustraron múltiples intentos de extracción por parte de entidades del sector privado a nivel global, lo que demuestra el alto valor comercial de esta tecnología.

Malware Potenciado por IA: HONESTCUE y COINBAIT

La integración de la IA en el malware representa un cambio de paradigma. Ya no hablamos de código estático, sino de software capaz de «externalizar» parte de su funcionalidad a modelos de IA en tiempo real.

  • HONESTCUE: Rastreado por GTIG, este malware es un framework descargador y lanzador que utiliza la API de Gemini para generar su propio código. Funciona de la siguiente manera: envía indicaciones a través de la API de Gemini y recibe código fuente en C# como respuesta. Este código se compila y ejecuta directamente en la memoria de la máquina infectada, sin llegar a tocar el disco duro. Esta técnica «fileless» (sin archivos) dificulta enormemente su detección por parte del software de seguridad tradicional basado en firmas.
  • COINBAIT: En este caso, GTIG identificó un kit de phishing diseñado para suplantar a un importante exchange de criptomonedas. La construcción de este kit se vio acelerada por herramientas de generación de código basadas en IA, como la plataforma Lovable AI. Esto demuestra cómo la IA no solo potencia el malware, sino que acelera todo el ciclo de desarrollo de las herramientas de ataque.

Nuevas Superficies de Ataque: El Abuso de Plataformas de IA y el Mercado Negro de Claves API

Los atacantes también están explotando las propias plataformas de IA como vector de ataque. En diciembre de 2025, Google observó una campaña que abusaba de las funciones de compartir chats públicos de servicios como Gemini, ChatGPT, Copilot, DeepSeek y Grok. Los atacantes manipulaban los modelos para crear instrucciones realistas para tareas informáticas comunes, incrustando scripts maliciosos como parte de la «solución». Al compartir enlaces a estas transcripciones, utilizaban la confianza en los dominios de estas plataformas para alojar la fase inicial de su ataque, distribuyendo malware como ATOMIC dirigido a sistemas macOS.

Paralelamente, los foros subterráneos en inglés y ruso muestran una demanda persistente de herramientas y servicios de IA. Sin embargo, GTIG observa que los propios hackers, incluso los patrocinados por estados, a menudo carecen de la capacidad para desarrollar sus propios modelos de IA personalizados. En su lugar, recurren a productos comerciales maduros a los que acceden mediante claves API robadas. Un ejemplo claro es «Xanthorox», un toolkit anunciado como una IA personalizada para la generación autónoma de malware. La investigación de GTIG reveló que Xanthorox no era más que un paraguas para varios productos comerciales de IA, incluyendo Gemini, a los que accedía precisamente con credenciales robadas.

La Respuesta de Google y el Camino a Seguir para las Empresas

Ante esta creciente amenaza, Google ha adoptado una postura proactiva. Las acciones incluyen:

  • Deshabilitar cuentas y activos asociados a actores maliciosos identificados.
  • Fortalecer los clasificadores y los modelos de Gemini para que sean más resistentes a este tipo de abusos, negando asistencia para tareas claramente maliciosas.

Es crucial destacar que, a pesar de estos avances en las tácticas ofensivas, GTIG enfatiza que ningún actor APT ha logrado, por ahora, capacidades que alteren fundamentalmente el panorama de amenazas. No estamos ante un «apocalipsis» digital inminente, sino ante una evolución natural que debemos comprender y contra la que debemos prepararnos.

Conclusión: La Vigilancia es la Clave

Este informe de Google es un llamado de atención para todos. La era de los ataques de phishing con malas traducciones ha quedado atrás. Hoy nos enfrentamos a enemigos que utilizan la inteligencia artificial para ser más precisos, más rápidos y más convincentes.

Para los equipos de seguridad empresarial, especialmente en regiones como Asia-Pacífico, donde la actividad de grupos norcoreanos y chinos es elevada, este es un recordatorio vital para reforzar las defensas contra la ingeniería social aumentada por IA. La formación de los empleados debe actualizarse para incluir estas nuevas tácticas, y las soluciones de seguridad deben evolucionar para detectar anomalías de comportamiento, no solo firmas de malware conocidas.

La carrera armamentística en ciberseguridad ha entrado en una nueva fase. Los atacantes tienen nuevas herramientas, pero los defensores también. La clave estará, como siempre, en la información, la preparación y la capacidad de adaptación. Mantente informado, mantén tus sistemas actualizados y, ante la duda, verifica siempre la fuente. La confianza digital se construye con escepticismo y conocimiento.