El Pentágono Revela su Plan Más Polémico: Usar IA como ChatGPT para Decidir A Quién Bombardear

Mar 13, 2026

En una revelación que mezcla la frontera de la tecnología con profundas cuestiones éticas, un alto funcionario del Departamento de Defensa de EE.UU. ha confirmado que el ejército está explorando el uso de chatbots de IA generativa, similares a ChatGPT o Claude, para asistir en una de las decisiones más críticas y sombrías de la guerra: la selección de blancos.

Según un reporte exclusivo de MIT Technology Review, estos sistemas de inteligencia artificial podrían ser utilizados para «clasificar listas de objetivos y hacer recomendaciones» sobre cuáles atacar primero. La información proviene de un funcionario del Pentágono con conocimiento directo del asunto, quien habló bajo condición de anonimato.

La propuesta operativa, tal como fue descrita, no dejaría la decisión final en manos de la máquina. Las recomendaciones generadas por la IA serían «revisadas por humanos» antes de cualquier acción. Sin embargo, este planteamiento abre un debate sin precedentes sobre la automatización de la guerra, la responsabilidad moral y el papel de los algoritmos en conflictos donde cada decisión puede costar vidas humanas.

Esta revelación llega en un momento de máxima tensión y escrutinio para el Pentágono. La institución se enfrenta actualmente a una demanda interpuesta por Anthropic, la empresa creadora del modelo Claude, que alega que el Departamento de Defensa está tratando de «contaminar su cadena de suministro» al etiquetar su modelo de IA como un riesgo debido a su «constitución» ética interna. El Pentágono argumenta que la integración de principios éticos en el propio diseño de Claude la hace «incompatible» con las necesidades de la defensa nacional, una postura que los críticos tachan de absurda.

La noticia no solo es técnicamente impactante por el uso propuesto de la IA de vanguardia, sino que también tiene un enorme peso geopolítico y ético. Plantea preguntas urgentes: ¿Puede un algoritmo valorar correctamente el contexto humano, político y legal de un objetivo? ¿Quién es responsable si la IA se equivoca? ¿Estamos cruzando una línea que no deberíamos cruzar? Este desarrollo marca un punto de inflexión en la militarización de la inteligencia artificial y seguramente generará un intenso debate público y regulatorio en las próximas semanas.