La inteligencia artificial (IA) dejó de ser solo una herramienta para la innovación, hoy también se ha convertido en un recurso con el que se realizan ciberataques.
Los llamados modelos de lenguaje a gran escala, modificados para eliminar restricciones de seguridad, (conocidos como dark LLMs, por sus siglas en inglés) están impulsando una nueva era de ataques automatizados.
Mismos que pueden ejecutarse con rapidez y precisión, incluso por actores con poca experiencia técnica.
Según lo reveló el reciente análisis de Unit 42, el equipo de inteligencia de amenazas de Palo Alto Networks.
¿Por qué resultan tan efectivos?
Estos modelos están diseñados para generar contenido sin filtros y se comercializan en canales clandestinos como foros en la dark web y grupos de Telegram.
Se encuentran bajo nombres como WormGPT, FraudGPT o KawaiiGPT y ofrecen capacidades de creación de correos de phishing altamente convincentes.
También ofrecen generación de código malicioso funcional y scripts para crear ciberataques automatizados.
Lo más alarmante es que su instalación puede realizarse en cuestión de minutos, sin necesidad de conocimientos avanzados de programación.
Un antes y un después en la ciberseguridad
Los investigadores destacan que esta tendencia marca un cambio radical en la ciberseguridad mundial, pues los cibercriminales ya no dependen de habilidades especializadas para diseñar ataques complejos.
Ahora, con un modelo de IA sin restricciones, pueden producir campañas masivas con mensajes persuasivos y malwares listos para operar, reduciendo costos y tiempo de ejecución.
Incluso, se han detectado esquemas de comercialización similares a los de plataformas legítimas, con suscripciones mensuales y “soporte al cliente”, lo que evidencia un mercado subterráneo cada vez más sofisticado.
Este fenómeno se suma a un precedente inquietante ocurrido en septiembre de 2025, revelado por Anthropic como el primer ciberataques global orquestado casi por completo con IA.
Modelo que ejecutó entre el 80% y el 90% de las operaciones tácticas sin intervención humana sustancial.
Ciberataque que apuntó a 30 organizaciones en sectores críticos como tecnología, finanzas y gobierno.
Este caso confirma que la autonomía de la IA no es una hipótesis, sino una realidad que amplifica la escala y velocidad de las amenazas.
México, un riesgo
Para México, donde la digitalización avanza en sectores estratégicos como salud, educación y comercio, este panorama representa un riesgo creciente.
La facilidad para desplegar herramientas automatizadas amplía la superficie de ataque y eleva la probabilidad de incidentes que comprometan datos sensibles, afecten operaciones y dañen la reputación de empresas y organismos públicos.
“Estamos frente a un punto de inflexión en la ciberseguridad. La aparición de modelos de IA diseñados para fines maliciosos reduce las barreras de entrada para los atacantes y aumenta la escala de las amenazas. Las organizaciones en México deben adoptar estrategias proactivas que integren inteligencia artificial defensiva y monitoreo continuo para anticiparse a este nuevo tipo de riesgos”, señaló Dula Hernández, gerente de ingeniería de sistemas para Canales en Latinoamérica de Palo Alto Networks.
Además del impacto técnico, los expertos subrayan las implicaciones sociales y económicas que involucra la automatización de ciberataques con IA.
Lo anterior, considerando que pueden incrementar el volumen de fraudes dirigidos a usuarios comunes, quienes pueden enfrentarse a correos electrónicos que imitan a instituciones financieras e incluso mensajes que aparentan provenir de autoridades gubernamentales.
Esto significa que cualquier persona conectada a internet podría convertirse en objetivo, lo que exige mayor conciencia y educación digital.
Unit 42 advierte que la disponibilidad masiva de estos modelos no es un experimento aislado, sino el inicio de un mercado clandestino basado en la automatización de ataques.
Ante esta situación, la prevención se vuelve crítica para fortalecer la infraestructura de seguridad e implementar controles basados en identidad.
Además, capacitar a los equipos y colaboradores para reconocer señales de ataques impulsados por IA es un buen primer paso para mitigar el impacto de esta tendencia en el país.