La inteligencia artificial (IA) ya no es solo una herramienta para la innovación; hoy también se ha convertido en un recurso para el cibercrimen. Según el reciente análisis de Unit 42, del equipo de inteligencia de amenazas de Palo Alto Networks, los llamados modelos de lenguaje a gran escala modificados para eliminar restricciones de seguridad (conocidos como dark LLMs, por sus siglas en inglés), están impulsando una nueva era de ataques automatizados que pueden ejecutarse con rapidez y precisión, incluso por actores con poca experiencia técnica.
Estos modelos están diseñados para generar contenido sin filtros y se comercializan en canales clandestinos como foros en la dark web y grupos de Telegram. Se encuentran bajo nombres como WormGPT, FraudGPT o KawaiiGPT y ofrecen capacidades de creación de correos de phishing altamente convincentes, así como generación de código malicioso funcional y scripts para crear ciberataques automatizados. Lo más alarmante es que su instalación puede realizarse en cuestión de minutos, sin necesidad de conocimientos avanzados de programación.
Los investigadores destacan que esta tendencia marca un cambio radical en la ciberseguridad mundial, pues los cibercriminales ya no dependen de habilidades especializadas para diseñar ataques complejos. Ahora, con un modelo de IA sin restricciones, pueden producir campañas masivas con mensajes persuasivos y malwares listos para operar, reduciendo costos y tiempo de ejecución. Incluso se han detectado esquemas de comercialización similares a los de plataformas legítimas, con suscripciones mensuales y “soporte al cliente”, lo que evidencia un mercado subterráneo cada vez más sofisticado.
Este fenómeno se suma a un precedente inquietante ocurrido en septiembre de 2025, revelado por Anthropic como el primer ciberataque global orquestado casi por completo por IA, donde el modelo ejecutó entre el 80% y el 90% de las operaciones tácticas sin intervención humana sustancial, apuntando a 30 organizaciones en sectores críticos como tecnología, finanzas y gobierno. Este caso confirma que la autonomía de la IA no es una hipótesis, sino una realidad que amplifica la escala y velocidad de las amenazas.
Para Perú, donde la digitalización avanza en sectores estratégicos como salud, educación y comercio, este panorama representa un riesgo creciente. La facilidad para desplegar herramientas automatizadas amplía la superficie de ataque y eleva la probabilidad de incidentes que comprometan datos sensibles, afecten operaciones y dañen la reputación de empresas y organismos públicos.