La inteligencia artificial da a los criminales una ventaja de 3.5 años sobre los defensores
Imagen: Zdzisław Beksiński
Por Víctor Ruiz, fundador de SILIKN, Instructor Certificado en Ciberseguridad (CSCT™), (ISC)² Certified in Cybersecurity℠ (CC), EC-Council Ethical Hacking Essentials (EHE) Certified, EC-Council Certified Cybersecurity Technician (CCT), Ethical Hacking Certified Associate (EHCA), Cisco Ethical Hacker & Cisco Cybersecurity Analyst y líder del Capítulo Querétaro de la Fundación OWASP.
La inteligencia artificial (IA) se ha convertido en una herramienta poderosa tanto para los delincuentes como para los defensores en el ámbito de la ciberseguridad. Sin embargo, según un reciente informe de la unidad de investigación de SILIKN, los criminales que utilizan IA para perpetrar fraudes están aproximadamente tres años y medio por delante de los profesionales encargados de proteger los sistemas, lo que plantea un desafío significativo para las organizaciones en todo el mundo.
Los delincuentes están aprovechando la IA para diseñar ataques más sofisticados y difíciles de detectar. Desde la creación de deepfakes hasta el uso de algoritmos avanzados para el phishing personalizado, las técnicas de los ciberdelincuentes han evolucionado rápidamente. Estas herramientas les permiten explotar vulnerabilidades en los sistemas financieros, robar datos sensibles y eludir las medidas de seguridad tradicionales con mayor eficacia.
Un ejemplo destacado es el uso de modelos de lenguaje avanzados para generar correos electrónicos de phishing que imitan perfectamente el tono y el estilo de una persona o empresa confiable. Además, los criminales emplean IA para analizar grandes volúmenes de datos robados, identificar patrones y ejecutar ataques dirigidos con una precisión alarmante.
De igual forma, los cibercriminales utilizan la inteligencia artificial (IA) para potenciar sus ataques, haciéndolos más sofisticados, precisos y difíciles de detectar, tales como:
- Phishing personalizado: La IA permite crear correos electrónicos, mensajes de texto o comunicaciones que imitan el estilo y tono de personas o entidades confiables. Los modelos de lenguaje avanzados analizan datos de víctimas para generar contenido hiperpersonalizado, aumentando la probabilidad de éxito.
- Creación de deepfakes: Los delincuentes usan IA para generar videos, audios o imágenes falsificados que parecen auténticos. Estos deepfakes se emplean en fraudes como suplantación de identidad, extorsión o engaño a sistemas de verificación biométrica.
- Análisis de datos robados: La IA procesa grandes volúmenes de datos obtenidos en brechas de seguridad para identificar patrones, como hábitos de consumo o vulnerabilidades específicas, que luego se explotan en ataques dirigidos.
- Ataques automatizados y escalables: Los cibercriminales utilizan bots impulsados por IA para realizar ataques masivos, como el credential stuffing (prueba de credenciales robadas) o la generación automática de malware que evade sistemas de detección.
- Evasión de sistemas de seguridad: La IA ayuda a desarrollar malware polimórfico, que cambia constantemente su código para evitar ser detectado por antivirus. También se usa para identificar y explotar debilidades en sistemas de seguridad en tiempo real.
- Ingeniería social avanzada: Algoritmos de IA analizan perfiles en redes sociales y otras fuentes públicas para recopilar información detallada sobre víctimas, permitiendo ataques de ingeniería social más convincentes y dirigidos.
Estos usos aprovechan la capacidad de la IA para automatizar, personalizar y optimizar los ataques, lo que los hace más efectivos y desafiantes para los sistemas de defensa.
A pesar de los avances en ciberseguridad, los defensores enfrentan obstáculos significativos para mantenerse al día. La brecha de tres años y medio se debe a varios factores:
- Falta de recursos: Muchas organizaciones carecen del presupuesto o del personal capacitado para implementar soluciones de IA de vanguardia en sus defensas.
- Evolución rápida de las amenazas: Los delincuentes adaptan sus métodos constantemente, lo que obliga a los defensores a reaccionar en lugar de anticiparse.
- Regulaciones y ética: Mientras que los criminales operan sin restricciones éticas, los defensores deben cumplir con normativas estrictas, lo que puede ralentizar el desarrollo e implementación de nuevas tecnologías.
Para contrarrestar esta desventaja, los expertos sugieren que las organizaciones adopten un enfoque proactivo:
- Inversión en IA defensiva: Las empresas deben priorizar el desarrollo de sistemas de IA capaces de detectar y responder a amenazas en tiempo real.
- Capacitación continua: Los equipos de ciberseguridad necesitan formación regular para comprender las últimas tácticas de los delincuentes.
- Colaboración global: Compartir inteligencia sobre amenazas entre organizaciones y gobiernos puede ayudar a identificar y neutralizar ataques antes de que causen daños significativos.
- Regulaciones más ágiles: Los marcos regulatorios deben evolucionar para permitir una adopción más rápida de tecnologías defensivas sin comprometer la privacidad o la ética.
La carrera entre los criminales y los defensores en el ámbito de la IA no muestra signos de desaceleración. Si bien los delincuentes actualmente tienen la ventaja, las organizaciones pueden reducir la brecha invirtiendo en innovación, colaboración y educación. La ciberseguridad del futuro dependerá de la capacidad de los defensores para adaptarse rápidamente y anticiparse a las tácticas de los adversarios.
En un mundo cada vez más digital, cerrar esta brecha es una prioridad tecnológica y una necesidad crítica para proteger la economía global y la confianza pública en los sistemas digitales.
Para más información, visite: https://www.silikn.com/