La Inteligencia Artificial, nueva arma en el arsenal del cibercrimen. ¿Están las empresas preparadas?


Imagen: Zdzisław Beksiński


Por Víctor Ruiz, fundador de SILIKN, Instructor Certificado en Ciberseguridad (CSCT™), (ISC)² Certified in Cybersecurity℠ (CC), EC-Council Ethical Hacking Essentials (EHE) Certified, EC-Council Certified Cybersecurity Technician (CCT), Ethical Hacking Certified Associate (EHCA) y líder del Capítulo Querétaro de la Fundación OWASP.

La Inteligencia Artificial (IA), que está revolucionando el mundo y la ciberseguridad no es una excepción. Los ciberdelincuentes están aprovechando las nuevas tecnologías, como los grandes modelos de lenguaje (LLM) como ChatGPT, para lanzar ataques más sofisticados.

Los cibercriminales están aprovechando la IA para mejorar sus capacidades y lanzar ataques más sofisticados. Esto representa una nueva y peligrosa amenaza para la ciberseguridad, ya que la IA puede ayudar a los actores de amenazas a:

- Desarrollar malware: La IA puede automatizar la creación de malware, lo que permite a los cibercriminales crear código malicioso con un conocimiento limitado de los lenguajes de programación.

- Generar nuevas ideas: La IA puede ayudar a los cibercriminales a encontrar nuevas formas de atacar a sus víctimas, por ejemplo, generando ideas sobre nuevos TTP (Técnicas, Tácticas y Procedimientos).

- Redactar textos convincentes: La IA puede ser utilizada para crear textos muy realistas que pueden ser utilizados en ataques de ingeniería social, aumentando las posibilidades de éxito.

- Aumentar su productividad: La IA puede automatizar tareas repetitivas, lo que permite a los cibercriminales ser más eficientes y lanzar más ataques.

Los grandes modelos de lenguaje (LLM) como ChatGPT se están convirtiendo en una nueva herramienta para los cibercriminales. Estos modelos, capaces de generar texto realista y convincente, están siendo modificados y adaptados para lanzar ataques más sofisticados.

En foros clandestinos, se observa un creciente interés por eludir las medidas de seguridad de ChatGPT y desarrollar LLM especializados para diferentes tipos de delitos cibernéticos.

Desde mediados de 2023, han surgido algunas herramientas de estilo ChatGPT que se están utilizando para:

Ingeniería social: FraudGPT y WormGPT están diseñadas para crear correos electrónicos y mensajes de phishing altamente convincentes.

Ataques de código: WolfGPT se centra en la generación de código malicioso y exploits.

Si bien las herramientas centradas en código aún no son muy populares, su desarrollo representa un riesgo creciente de ataques más sofisticados en el futuro.

Otro punto a señalar es que las credenciales de ChatGPT comprometidas se están vendiendo en la web oscura, lo que representa un nuevo riesgo de seguridad para las empresas. Esto se debe a que cada vez más empleados utilizan ChatGPT para optimizar su trabajo y almacenan sus interacciones pasadas en la plataforma.

Si un atacante obtiene acceso a una cuenta de ChatGPT comprometida, podría obtener información confidencial como: información de clientes, propiedad intelectual y datos financieros, entre otros.

Cabe mencionar que en 2023, se detectaron más de 338,000 registros a la venta en la web oscura que contenían credenciales de ChatGPT comprometidas.

El año 2023 marcó un punto de inflexión en la ciberseguridad, con la IA emergiendo como una herramienta poderosa tanto para las empresas legítimas como para los cibercriminales. El uso indebido de ChatGPT y el desarrollo de herramientas clandestinas de LLM han elevado el potencial de ataques sofisticados, poniendo en riesgo la información confidencial de las organizaciones.

El panorama actual presenta una serie de desafíos:

- Aumento del uso de la IA en el cibercrimen: Los cibercriminales están utilizando la IA para automatizar tareas, generar malware personalizado y lanzar ataques más precisos.

- Herramientas clandestinas de LLM: Se están desarrollando herramientas que aprovechan las capacidades de la IA para evadir las medidas de seguridad y crear ataques más sofisticados.

- Credenciales de ChatGPT comprometidas: La venta de credenciales de ChatGPT en la web oscura expone información confidencial y aumenta el riesgo de ataques.

Las organizaciones deben tomar medidas proactivas para protegerse:

- Reconocer la amenaza: Es fundamental que las organizaciones comprendan los riesgos que la IA representa para la ciberseguridad.

- Fortalecer las medidas de seguridad: Implementar medidas de seguridad robustas que puedan detectar y prevenir ataques basados en IA.

- Capacitar a los empleados: Concientizar a los empleados sobre los riesgos de la IA y cómo protegerse.

- Monitorear la actividad de la cuenta de ChatGPT: Implementar mecanismos para detectar y prevenir el uso indebido de cuentas de ChatGPT.

La ciberseguridad es un desafío constante, y la IA ha introducido una nueva dimensión en la lucha contra el cibercrimen. Las organizaciones que no se adapten a este nuevo panorama estarán en mayor riesgo de sufrir ataques sofisticados y costosos.

Para más información, visite: https://www.silikn.com/