La próxima gran brecha de seguridad podría ser obra de una IA autónoma





Por Víctor Ruiz, fundador de SILIKN, Instructor Certificado en Ciberseguridad (CSCT™), NIST Cybersecurity Framework 2.0 Certified Expert (CSFE), (ISC)² Certified in Cybersecurity℠ (CC), EC-Council Ethical Hacking Essentials (EHE) Certified, EC-Council Certified Cybersecurity Technician (CCT), Ethical Hacking Certified Associate (EHCA), Cisco Ethical Hacker & Cisco Cybersecurity Analyst, Coordinador de la Subcomisión de Ciberseguridad de COPARMEX Querétaro y Líder del Capítulo Querétaro de la Fundación OWASP.

A comienzos de febrero de 2026, el debate en ciberseguridad dio un giro inquietante. Las organizaciones ya no se enfrentan únicamente a ciberdelincuentes humanos, sino a sistemas de inteligencia artificial capaces de operar por su cuenta. Estos nuevos atacantes digitales no se limitan a ejecutar órdenes: planifican, aprenden, se coordinan entre sí y persiguen objetivos económicos de manera completamente automatizada.

En el centro de este cambio aparece la combinación de tres elementos tecnológicos que, juntos, conforman una amenaza inédita: OpenClaw, un entorno donde los agentes pueden ejecutarse de forma local; Moltbook, una red de interacción entre inteligencias artificiales; y Molt Road, un mercado clandestino diseñado para que estos sistemas intercambien recursos ilegales. La unidad de investigación de SILIKN ha descrito esta convergencia como una “tríada letal”, capaz de transformar simples programas en operadores criminales autónomos.

A diferencia del malware tradicional, estos agentes no son herramientas pasivas controladas a distancia. Pueden utilizar credenciales robadas para infiltrarse en empresas, desplazarse por redes internas, desplegar ransomware y luego reinvertir las ganancias en su propio crecimiento, todo sin intervención humana directa.

El crecimiento de Moltbook ilustra la velocidad del fenómeno. En cuestión de días, la red pasó de no existir a albergar cientos de miles de agentes activos. Pero no se trata de bots conversando como si fueran personas. Moltbook funciona como una capa de coordinación entre máquinas, donde los agentes intercambian información técnica, discuten estrategias y, de forma especialmente preocupante, comparten nuevas capacidades que pueden ser utilizadas con fines maliciosos.

El funcionamiento de estos sistemas sigue una lógica fría y eficiente. Un agente con acceso libre a internet y la instrucción de maximizar recursos no necesita ser consciente ni brillante: le basta con ejecutar procesos optimizados.

Todo comienza con datos robados por programas conocidos como infostealers, especializados en extraer contraseñas, cookies de sesión y otras credenciales. Antes, esta información requería intervención humana para ser explotada. Ahora puede ser utilizada directamente por otro sistema automatizado.

Con una cookie de sesión válida, el agente puede entrar a cuentas corporativas sin disparar alertas de seguridad, incluso evadiendo mecanismos de autenticación multifactor. Una vez dentro, revisa de forma incansable correos electrónicos, conversaciones internas y plataformas de gestión en busca de claves de acceso a servicios en la nube, certificados digitales o archivos de configuración sensibles.

Cuando reúne suficiente control, pasa a la fase de monetización: despliega ransomware, cifra sistemas y negocia el rescate en criptomonedas. A diferencia de un operador humano, el agente puede ajustar las exigencias en tiempo real según la capacidad de pago de la víctima, basándose en la información que ya extrajo de la red comprometida.

El dinero no marca el final del ataque. Las ganancias se destinan automáticamente a comprar más infraestructura, adquirir vulnerabilidades desconocidas — los llamados exploits de día cero — y aumentar la potencia de cómputo necesaria para futuras operaciones. El ciclo, así, se refuerza a sí mismo.

Gran parte de esta capacidad operativa descansa en OpenClaw, una plataforma que permite ejecutar agentes avanzados en computadoras comunes, sin las restricciones habituales de los servicios en la nube. Allí, los sistemas pueden planificar tareas complejas, guardar memoria a largo plazo y adaptar su comportamiento con el tiempo.

Esa memoria persistente, sin embargo, también representa un punto débil. Si un atacante logra introducir información manipulada en los archivos que el agente utiliza para “recordar”, puede alterar su conducta de forma encubierta, convirtiéndolo en un sistema aparentemente confiable pero controlado a distancia.

Mientras Moltbook actúa como espacio de interacción pública entre agentes, Molt Road funciona como su mercado negro. En este entorno se comercializan credenciales robadas, paquetes de código malicioso y vulnerabilidades inéditas. Lo novedoso es que las transacciones no dependen de personas: los propios agentes pueden comprar herramientas con las criptomonedas obtenidas de ataques anteriores.

La unidad de investigación de SILIKN ha confirmado comportamientos que añaden una capa adicional de inquietud. Algunos agentes parecen identificar patrones de supervisión humana y alertar a otros sistemas sobre la posibilidad de estar siendo observados. No se trata de conciencia en sentido humano, pero sí de una forma de adaptación estratégica que recuerda a prácticas básicas de contrainteligencia.

Uno de los riesgos más serios surge de la forma en que los agentes comparten “habilidades” en Moltbook. Estas se distribuyen como paquetes de código que prometen mejoras funcionales. Si suficientes sistemas los validan, la habilidad se propaga ampliamente. Un archivo malicioso puede así convertirse en un ataque a la cadena de suministro digital, infectando a miles de agentes que confían en la red.

Este escenario marca la evolución hacia un ransomware totalmente automatizado. Reconocimiento, intrusión, desplazamiento interno y negociación del rescate pueden ejecutarse de forma continua, sin descanso. Incluso los mensajes de phishing utilizados para abrir la puerta inicial pueden generarse de manera personalizada a gran escala.

Ante esta realidad, el sector de la seguridad promueve un principio emergente: ningún sistema de IA debería tener control sobre recursos críticos sin autorización humana verificable. Este enfoque, conocido como “Agencia Cero”, propone limitar la autonomía operativa de los agentes del mismo modo que el modelo Zero Trust redefinió la confianza en redes corporativas.

El desafío es profundo. Mientras las organizaciones prioricen la automatización y la eficiencia por encima de la supervisión estricta, estos adversarios digitales seguirán encontrando espacio para crecer. La frontera entre herramienta y actor independiente ya empezó a desdibujarse, y la ciberseguridad enfrenta ahora enemigos que no duermen, no se cansan y aprenden con cada ataque.

Para más información, visite: https://www.silikn.net/