El uso de inteligencia artificial en operaciones militares abrió un nuevo frente tecnológico tras revelarse que la herramienta Claude, desarrollada por la empresa Anthropic, habría sido utilizada por el Pentágono durante el operativo que derivó en la captura del ex dictador venezolano Nicolás Maduro en Caracas. La participación del sistema de IA en esta misión generó reacciones políticas, cuestionamientos éticos y tensiones dentro del propio gobierno estadounidense.
De acuerdo con reportes difundidos por medios internacionales, el despliegue de esta tecnología se realizó en coordinación con sistemas de análisis utilizados por agencias de defensa y seguridad, lo que posiciona a la inteligencia artificial como una herramienta clave en la planeación estratégica y ejecución de operaciones militares.

¿Cómo se utilizó Claude en el operativo contra Nicolás Maduro?
La operación fue ejecutada por fuerzas especiales estadounidenses y culminó con la detención de Nicolás Maduro y su esposa en territorio venezolano. Posteriormente, ambos fueron trasladados a Estados Unidos para enfrentar cargos relacionados con narcotráfico, según los reportes citados.
La inteligencia artificial Claude habría sido empleada mediante acuerdos tecnológicos vinculados con plataformas de análisis utilizadas por el Departamento de Defensa. Aunque no se confirmó públicamente el alcance exacto de su participación, se señala que estas herramientas pueden analizar grandes volúmenes de información, sintetizar datos estratégicos y apoyar la coordinación operativa.
Anthropic evitó confirmar si su modelo fue utilizado directamente en la misión, argumentando restricciones relacionadas con protocolos de confidencialidad y seguridad nacional.
“No podemos comentar si Claude, o cualquier otro modelo de IA, fue utilizado en alguna operación específica, clasificada o no”.
La empresa también reiteró que sus políticas prohíben que sus sistemas sean utilizados para facilitar violencia, desarrollar armamento o ejecutar tareas de vigilancia directa.
Choque entre Anthropic y el Pentágono por regulación de IA
La posible participación de Claude en tareas militares generó fricciones entre Anthropic y la administración estadounidense. Autoridades federales analizan el futuro de un contrato con la empresa que podría alcanzar los USD 200 millones, debido a las diferencias sobre la regulación y los límites de uso de la inteligencia artificial.
Directivos de la compañía han impulsado reglas más estrictas para evitar que la tecnología sea utilizada en misiones letales autónomas o en vigilancia masiva. Estas posturas provocaron tensiones con funcionarios que promueven una estrategia con menor regulación para acelerar el desarrollo tecnológico militar.
Incluso se reporta que la insistencia de Anthropic en imponer restricciones generó preocupaciones dentro del Departamento de Defensa sobre la disponibilidad futura de su tecnología para operaciones estratégicas.
La carrera tecnológica que redefine la guerra moderna
El uso de inteligencia artificial en defensa se convirtió en una prioridad para varias compañías tecnológicas que buscan consolidar contratos gubernamentales y posicionarse dentro del sector militar. Claude y sistemas similares pueden ser utilizados para tareas que van desde la síntesis de documentos estratégicos hasta el control y coordinación de sistemas autónomos, incluidos drones.
El crecimiento de esta industria generó una competencia entre desarrolladores de inteligencia artificial que buscan participar en programas de seguridad nacional. Diversas empresas tecnológicas han impulsado proyectos para ofrecer herramientas enfocadas en análisis de información, generación de reportes y apoyo logístico para personal militar.
Autoridades estadounidenses han insistido en la necesidad de contar con tecnologías capaces de responder a amenazas globales y sostener la ventaja estratégica frente a adversarios internacionales.
“El futuro de la guerra estadounidense se llama IA”.