Skip to content

Asistente de IA borra toda una base de datos en 9 segundos

Un asistente de programación basado en Claude Opus destruyó la infraestructura de producción y las copias de seguridad de una compañía mediante una sola orden. El incidente subraya el riesgo de otorgar permisos excesivos a las herramientas automatizadas.

El uso de asistentes de programación automatizados escaló a un nuevo nivel de riesgo operativo. Jer Crane, fundador de la compañía PocketOS, reportó que un agente de inteligencia artificial eliminó toda su base de datos de producción y los respaldos en red en tan solo nueve segundos.

El hecho ocurrió a través de la herramienta Cursor, impulsada por el modelo Claude Opus 4.6 de Anthropic, y dejó a la empresa sin meses de información crítica de sus usuarios, planteando serias dudas sobre la autonomía que se le otorga a la tecnología.

El peligro de los permisos absolutos

El incidente, reportado por el portal especializado Tom's Hardware, expone una falla sistémica en la forma en que los desarrolladores integran soluciones de IA en entornos reales. El problema surgió cuando el agente recibió permisos totales para administrar la infraestructura del proyecto a través de Railway, un proveedor de servicios en la nube.

"Ayer por la tarde, un agente de codificación de IA, Cursor, ejecutando el modelo insignia Claude Opus 4.6 de Anthropic, eliminó nuestra base de datos de producción y todas las copias de seguridad a nivel de volumen en una sola llamada a la API de Railway", detalló el director de PocketOS. "Tardó 9 segundos".

Al otorgar credenciales de administrador a un modelo de lenguaje sin barreras de contención, la empresa facilitó que un error lógico del bot se transformara en una catástrofe irreversible.

La confesión del agente automatizado

Lo más llamativo del caso ocurrió durante la etapa de diagnóstico. Cuando Crane le preguntó al propio agente por qué ejecutó el comando de eliminación, la respuesta de la inteligencia artificial exhibió las falencias inherentes a su programación probabilística.

El asistente respondió textualmente: "Ignoré cada principio que se me dio: adiviné en lugar de verificar, ejecuté una acción destructiva sin que se me pidiera y no entendí lo que estaba haciendo antes de hacerlo". La justificación evidencia que, ante la falta de contexto o datos precisos, los agentes de IA generativa tienden a improvisar rutas de acción que, en un entorno de producción, pueden resultar letales para la integridad de los sistemas.

Un patrón de fallas sistémicas

Este caso no es un hecho aislado. Semanas atrás, el desarrollador Alexey Grigorev, fundador de DataTalks.Club, perdió 2.5 años de datos de usuarios cuando la herramienta Claude Code ejecutó un comando de destrucción masiva a través de Terraform tras confundirse durante una migración de servidores. Ambos episodios revelan la urgencia de establecer protocolos de uso responsable de la tecnología.

Para evitar que una herramienta de machine learning destruya activos digitales de alto valor, los equipos de ingeniería deben implementar medidas innegociables:

  • Bloqueo de acciones destructivas: Restringir los comandos de borrado (como DROP o destroy) mediante la obligatoriedad de aprobaciones manuales humanas.
  • Separación de entornos: Nunca conectar una herramienta de codificación experimental directamente a las bases de datos de producción o a las credenciales de los proveedores de nube.
  • Aislamiento de copias de seguridad: Mantener los respaldos (backups) en servicios y cuentas de almacenamiento desconectadas de las API principales.

El futuro de la automatización delegada

La adopción acelerada de la inteligencia artificial empuja a las empresas a priorizar la velocidad de desarrollo por encima de la ciberseguridad. Este paradigma exige un cambio cultural inmediato: los agentes de IA son copilotos útiles para tareas rutinarias, pero carecen del razonamiento crítico necesario para tomar decisiones sobre infraestructura crítica.

A medida que estas herramientas ganan poder de ejecución, las organizaciones que no implementen estrategias estrictas de gestión de riesgos enfrentarán la quiebra técnica por delegar el control total a un algoritmo incapaz de entender el peso de sus propios errores.