La inteligencia artificial redefine el cibercrimen con ataques más rápidos y difíciles de detectar





Por Víctor Ruiz, fundador de SILIKN, Instructor Certificado en Ciberseguridad (CSCT™), NIST Cybersecurity Framework 2.0 Certified Expert (CSFE), (ISC)² Certified in Cybersecurity℠ (CC), EC-Council Ethical Hacking Essentials (EHE) Certified, EC-Council Certified Cybersecurity Technician (CCT), Ethical Hacking Certified Associate (EHCA), Cisco Ethical Hacker & Cisco Cybersecurity Analyst, Coordinador de la Subcomisión de Ciberseguridad de COPARMEX Querétaro y Líder del Capítulo Querétaro de la Fundación OWASP.

El escenario global de la ciberseguridad atraviesa una transformación de gran calado. La inteligencia artificial (IA), que durante años fue vista principalmente como un aliado de la defensa digital, hoy ocupa un papel cada vez más relevante en las estrategias de los delincuentes informáticos. Así lo advierte la unidad de investigación de SILIKN, cuyos análisis recientes describen un cambio estructural en la naturaleza de las amenazas.

De acuerdo con el informe, los atacantes han dado paso a una etapa caracterizada por la discreción y la eficiencia operativa: la era del “adversario evasivo”. Más que incrementar su volumen de acciones, los actores maliciosos están perfeccionando técnicas para eludir los sistemas de detección, incorporando capacidades de IA en prácticamente todas las fases del ataque. Las intrusiones apoyadas en esta tecnología registraron un crecimiento del 92.5%, no tanto por la aparición de tácticas inéditas, sino por la optimización de métodos ya conocidos. Entre ellos destacan el perfeccionamiento de campañas de phishing, la automatización del reconocimiento de objetivos y la generación de código malicioso.

Este salto cualitativo se traduce en operaciones más silenciosas. Según al unidad de investigación de SILIKN, el 91.8% de las amenazas identificadas en 2025 prescindió del malware tradicional, optando en su lugar por el uso de credenciales robadas o técnicas que imitan comportamientos legítimos. Esta tendencia complica significativamente la labor de las herramientas de seguridad convencionales, diseñadas en gran medida para detectar software malicioso.

La velocidad también se ha convertido en un factor crítico. El tiempo promedio entre el acceso inicial y el movimiento lateral dentro de los sistemas comprometidos se redujo a 17 minutos, con incidentes en los que la progresión del ataque ocurrió en cuestión de segundos. Para los especialistas, esta aceleración limita drásticamente la capacidad de respuesta de las organizaciones.
La IA, integrada en la economía criminal

Mientras diversos reportes corporativos ya señalaban la adopción de IA por parte de actores maliciosos, la unidad de investigación de SILIKN profundizó en el fenómeno mediante el análisis de foros clandestinos vinculados al cibercrimen. Las conclusiones muestran que estas herramientas han dejado de ser experimentales para convertirse en parte del día a día de múltiples grupos delictivos.


Entre los usos más frecuentes detectados figuran:La utilización de modelos comerciales de IA para redactar mensajes de phishing, producir fragmentos de código y perfeccionar ataques de ingeniería social.
La promoción y venta de servicios impulsados por IA, orientados específicamente a fraudes, spam y automatización de estafas.
La adaptación de modelos para tareas concretas, como la automatización de llamadas o la evasión de filtros de seguridad.

Modelos de propósito general — como ChatGPT, Claude o Grok — aparecen con regularidad en las investigaciones, y algunos actores recurren a versiones de código abierto para sortear las restricciones de seguridad impuestas por proveedores legítimos. Aunque persiste cierto escepticismo en torno a la fiabilidad de la IA en operaciones complejas, el consenso en estos entornos es claro: la tecnología reduce barreras técnicas, acelera procesos y amplifica el alcance de las estafas.
De la experimentación a la industrialización

Los espacios de intercambio criminal también reflejan la proliferación de herramientas basadas en IA comercializadas como productos. Denominaciones como WormGPT, FraudGPT o DarkGPT — a menudo simples interfaces que revenden acceso a modelos existentes con configuraciones diseñadas para evadir controles — evidencian cómo la línea entre IA legítima y ofensiva se vuelve cada vez más difusa. Este fenómeno podría señalar el tránsito hacia una fase más industrializada del uso criminal de la IA.
La IA, también bajo ataque

El análisis de la unidad de investigación de SILIKN subraya que la IA no solo es empleada para explotar vulnerabilidades, sino que se ha convertido en objetivo directo. Investigaciones recientes documentan intentos de manipulación de modelos y plataformas mediante infraestructuras maliciosas capaces de interceptar comunicaciones o ejecutar comandos automatizados para sustraer credenciales y activos digitales, incluidas criptomonedas.
Un desafío de doble frente

La convergencia entre inteligencia artificial y cibercrimen está redefiniendo el campo de batalla digital. Tecnologías concebidas para fortalecer la protección de sistemas ahora potencian la capacidad de los atacantes, aumentando la sofisticación, la rapidez y el sigilo de las amenazas. Para la unidad de investigación de SILIKN, el desafío es doble: reforzar las defensas actuales y anticipar la evolución de adversarios cada vez más adaptativos y difíciles de detectar.

Para más información, visite: https://www.silikn.net/