OpenClaw: el asistente de IA viral que se ha convertido en una pesadilla de ciberseguridad





Por Víctor Ruiz, fundador de SILIKN, Instructor Certificado en Ciberseguridad (CSCT™), NIST Cybersecurity Framework 2.0 Certified Expert (CSFE), (ISC)² Certified in Cybersecurity℠ (CC), EC-Council Ethical Hacking Essentials (EHE) Certified, EC-Council Certified Cybersecurity Technician (CCT), Ethical Hacking Certified Associate (EHCA), Cisco Ethical Hacker & Cisco Cybersecurity Analyst, Coordinador de la Subcomisión de Ciberseguridad de COPARMEX Querétaro y Líder del Capítulo Querétaro de la Fundación OWASP.

En un mundo tecnológico donde las herramientas de inteligencia artificial prometen automatizar gran parte del trabajo repetitivo y aumentar la productividad, OpenClaw — un asistente de IA capaz de “hacer cosas” en lugar de solo responder preguntas — se ha convertido en uno de los proyectos más controversiales del año. Lo que comenzó como una solución experimental rápidamente se transformó en un problema de seguridad mayúsculo para empresas y particulares por igual.

OpenClaw (antes Clawdbot y luego Moltbot) se popularizó por su capacidad para ejecutar tareas de forma autónoma: acceder a correos, administrar calendarios, controlar aplicaciones empresariales e incluso ejecutar comandos del sistema operativo con permisos locales. Su repositorio en GitHub acumuló cientos de miles de estrellas y decenas de miles de descargas en pocas semanas, impulsado por la promesa de eficiencia y “poder real” en asistentes personales de IA.

Sin embargo, esta viralidad también ha generado una adopción masiva sin supervisión, impulsada por empleados que instalan la herramienta sin autorización de sus equipos de seguridad. En un análisis realizado por la unidad de investigación de SILIKN, se detectó que alrededor del 34 % de las organizaciones tenían activos internos con instalaciones de OpenClaw, muchas de ellas sin conocimiento de los departamentos de TI.

La unidad de investigación de SILIKN ha calificado a OpenClaw como una “pesadilla de ciberseguridad” debido a múltiples fallas estructurales del software:

- Acceso sin restricciones: OpenClaw opera localmente con permisos equivalentes a los del usuario, lo que le permite leer/escribir archivos, ejecutar comandos y controlar navegadores web sin barreras claras de seguridad.

- Exposición de credenciales: En muchas instalaciones los paneles de control quedaron accesibles sin autenticación, exponiendo credenciales, claves de API y datos confidenciales.

- Almacenamiento en texto plano: Las claves de acceso y tokens de servicios como OpenAI u otros proveedores quedan guardados sin cifrar, lo que facilita su robo en caso de un ataque.

- Supply chain malware mediante “skills”: La plataforma permite instalar extensiones o “skills” creados por terceros.

La unidad de investigación de SILIKN ha confirmado el hallazgo de cientos de paquetes maliciosos publicados en el repositorio principal, muchos de ellos diseñados para robar credenciales, claves de criptomonedas o instalar malware de acceso remoto.


Estos factores han llevado a que expertos califiquen la situación como uno de los incidentes de seguridad más graves en la historia de herramientas de IA de código abierto.

Para las organizaciones, los peligros no son solo técnicos, sino también legales y reputacionales. Al permitir el uso no autorizado de OpenClaw:

- Se incrementa la exposición a brechas de datos personales y corporativos que pueden violar normas como el GDPR.

- Credenciales y secretos corporativos pueden filtrarse a atacantes maliciosos, quienes podrían acceder a sistemas internos o redes privadas.

- La presencia de agentes no autorizados abre puertas para ataques posteriores, incluyendo la instalación de puertas traseras o movimiento lateral dentro de una red empresarial.

Frente a esta crisis, la unidad de investigación de SILIKN ha emitido recomendaciones claras:

- Bloquear inmediatamente descargas y tráfico relacionado con OpenClaw para evitar instalaciones no autorizadas.

- Rotar credenciales corporativas que hayan sido gestionadas por instancias de OpenClaw.

- Permitir el uso de la herramienta solo en entornos aislados, como máquinas virtuales de prueba con credenciales descartables.

- Prohibir los “skills” no verificados y establecer políticas de auditoría estrictas para cualquier extensión instalada.

La historia de OpenClaw pone de manifiesto un desafío creciente en la adopción de herramientas de IA autónomas: la falta de un modelo de seguridad sólido que acompañe a tecnologías con acceso profundo a sistemas. La promesa de eficiencia que estas herramientas ofrecen debe ser balanceada con controles rígidos, supervisión activa y una comprensión clara de los riesgos que implican en entornos corporativos.

Para más información, visite: https://www.silikn.net/