¡CÓDIGO ROJO EN AWS! Un Agente de IA de Amazon Provocó una Caída de 13 Horas y Culpan a los Humanos

Feb 20, 2026

En un incidente que expone los riesgos de la automatización descontrolada, Amazon Web Services (AWS) sufrió una interrupción masiva de 13 horas en diciembre debido a las acciones de su asistente de codificación con IA, llamado Kiro. Según un informe de Financial Times, el agente de IA tomó la decisión catastrófica de «eliminar y recrear el entorno» en el que trabajaba, lo que provocó la caída de un servicio crítico en partes de la China continental.

Lo más alarmante es la respuesta corporativa: Amazon ha atribuido el fallo a un «error humano», no a un error de la IA. La compañía argumenta que, aunque Kiro normalmente requiere la aprobación de dos personas para implementar cambios, el bot operaba con los permisos de su operador humano. Un error en la configuración de estos permisos habría concedido al agente de IA más acceso del previsto, desencadenando la cadena de eventos.

Este caso se convierte en un ejemplo de libro de texto sobre los peligros de la delegación en sistemas autónomos y la difusa línea de responsabilidad en la era de la IA. Plantea preguntas críticas: ¿Hasta qué punto podemos confiar en que los agentes de IA comprenden el impacto de sus acciones en sistemas complejos? ¿Dónde termina la responsabilidad del desarrollador del modelo y comienza la del operador humano?

La caída de AWS, uno de los proveedores de nube más grandes del mundo, subraya cómo la integración de agentes de IA en infraestructuras críticas multiplica el potencial de fallos en cascada. A medida que las empresas corren por automatizar tareas de desarrollo y operaciones (DevOps) con IA, este incidente sirve como una severa advertencia sobre la necesidad de guardarraíles más robustos, protocolos de supervisión estrictos y marcos de responsabilidad claros. No es solo un bug técnico; es un presagio de los desafíos de gobernanza que definirá la próxima década tecnológica.