La Inteligencia Artificial en el tablero de guerra global: ¿herramienta o protagonista?
- Alfredo Arn
- hace 11 horas
- 6 Min. de lectura

En las últimas décadas, la tecnología ha transformado todos los aspectos de la vida humana, y el arte de la guerra no ha sido la excepción. Hoy, la Inteligencia Artificial se ha convertido en un actor silencioso pero determinante en los conflictos contemporáneos, redefiniendo cómo las naciones planifican, ejecutan y perciben las operaciones militares. Lejos de ser una promesa futurista, la IA ya está siendo desplegada en zonas de guerra activas, desde las fronteras de Ucrania hasta los territorios palestinos, marcando un antes y un después en la historia de los enfrentamientos armados. Lo que antes requería semanas de análisis humano ahora puede resolverse en segundos, pero esta velocidad plantea preguntas incómodas sobre quién —o qué— está tomando realmente las decisiones.
El caso más documentado y controversial del uso de IA en conflictos recientes ocurre en Gaza, donde el ejército israelí ha empleado sistemas de inteligencia artificial no solo para procesar datos, sino para generar listas de objetivos militares a escala masiva. Investigaciones periodísticas revelaron que sistemas como "Lavender" y "Gospel" fueron utilizados para identificar objetivos humanos y estructuras, aumentando exponencialmente el ritmo de selección de blancos tras el ataque del 7 de octubre de 2023. Las autoridades israelíes han calificado esta tecnología como un "factor decisivo" para acelerar la localización de objetivos, pero organizaciones de derechos humanos advierten que la velocidad no siempre equivale a precisión. En septiembre de 2025, Microsoft confirmó mediante una revisión interna que unidades del Ministerio de Defensa israelí utilizaron sus servicios de nube e IA para vigilancia masiva, violando sus términos de servicio, lo que llevó a la suspensión parcial de ciertos servicios y evidenció la complicidad tecnológica en operaciones militares controvertidas.
En este complejo ecosistema, la alianza tecnológica entre Anthropic y Palantir ha emergido como un punto de inflexión que ilustra las tensiones entre ética corporativa y presiones gubernamentales. Según documentos filtrados y reportes de prensa de 2024-2025, el modelo Claude fue integrado por Palantir en las redes clasificadas del Comando Central de Estados Unidos (CENTCOM) para operaciones relacionadas con Irán y sus aliados. La plataforma Gotham de Palantir actuó como el sistema nervioso que permitió a los analistas militares acceder a las capacidades de Claude para evaluación de inteligencia, identificación de objetivos y simulación de escenarios de combate. Esta colaboración representó un salto cualitativo en el procesamiento de información militar, pero también expuso las contradicciones de una industria que promete responsabilidad mientras sus creaciones se despliegan en zonas de conflicto.
La controversia alcanzó su punto máximo en febrero de 2026, cuando el Departamento de Defensa de Estados Unidos —recientemente rebautizado como Departamento de Guerra— exigió a Anthropic un acceso sin restricciones a su tecnología para "todos los usos legales", incluyendo potencialmente operaciones ofensivas. La empresa, fundada por exmiembros de OpenAI con un fuerte discurso ético sobre seguridad en IA, se negó a ceder en dos líneas rojas fundamentales: prohibir el uso de su tecnología en sistemas de armas autónomas letales y para la vigilancia masiva de ciudadanos estadounidenses. La respuesta del gobierno fue inmediata y severa: amenazaron con rescindir un contrato de 200 millones de dólares, designar a Anthropic como un "riesgo para la cadena de suministro" e incluso invocar la Ley de Producción de Defensa de la era de la Guerra de Corea para forzar el cumplimiento. Dario Amodei, CEO de Anthropic, declaró que no podían "en conciencia" aceptar las demandas, desatando un intenso debate sobre los límites éticos en la industria tecnológica y la soberanía corporativa frente al poder estatal.
Paralelamente, en el este de Europa, Ucrania se ha convertido en un laboratorio viviente para el desarrollo de capacidades bélicas basadas en inteligencia artificial. Desde el verano de 2025, las fuerzas ucranianas han estado utilizando sistemas como el TFL-1, módulos de IA equipados en drones FPV que pueden tomar el control durante la fase final de vuelo cuando el piloto pierde el enlace radioeléctrico debido a interferencias o terreno. Estos sistemas autónomos han demostrado capacidad para fijar objetivos en movimiento desde 400 metros de distancia, representando una evolución desde el simple procesamiento de datos hacia la toma de decisiones tácticas en tiempo real. Mientras tanto, las grandes potencias tecnológicas compiten por posicionarse en este nuevo mercado de la defensa inteligente. Estados Unidos ha consolidado iniciativas como GenAI.mil en colaboración con Google y ha firmado contratos de hasta 200 millones de dólares con cuatro empresas de IA fronteriza —Anthropic, OpenAI, Google y xAI— en julio de 2025, mientras que Europa desarrolla capacidades soberanas con proyectos como IndraMind en España. Esta carrera armamentista algorítmica no solo involucra a gobiernos, sino también a corporaciones que deben navegar la tensión entre sus principios éticos y los lucrativos contratos militares.
Más allá de los campos de batalla físicos, la IA está librando una guerra paralela en el terreno de la información que adquirió dimensiones críticas durante el ciclo electoral global de 2024. La capacidad de generar deepfakes hiperrealistas y desinformación a escala industrial ha convertido la inteligencia artificial en un arma de propaganda sin precedentes. Durante las elecciones presidenciales estadounidenses de 2024, se documentaron casos de llamadas robocalls con voces sintéticas imitando al presidente Biden para disuadir a votantes, así como imágenes generadas por IA de figuras políticas en contextos falsos. Operaciones de influencia atribuidas a actores estatales utilizaron ChatGPT y otras herramientas para crear noticias falsas dirigidas a audiencias específicas. Aunque el impacto directo en resultados electorales fue menor de lo anticipado, según la comunidad de inteligencia estadounidense, estas campañas lograron "mejorar y acelerar" operaciones de desinformación sin revolucionarlas completamente. Esta guerra cognitiva explota las vulnerabilidades psicológicas de las sociedades, sembrando confusión y polarizando opiniones a una velocidad que supera cualquier capacidad humana de verificación.
Sin embargo, el entusiasmo por las capacidades de la IA oculta riesgos profundos que han quedado expuestos en conflictos recientes. Los sistemas actuales carecen de verdadera comprensión contextual; pueden identificar patrones pero no interpretar significados culturales, distinguir consistentemente entre un combatiente y un civil, o evaluar consecuencias humanitarias. Herramientas supuestamente neutrales como los traductores automáticos han mostrado tendencias a "alucinar", inventando contenido violento donde no existía, lo que en entornos de alta tensión podría desencadenar tragedias evitables. El caso de Anthropic y el Departamento de Guerra ilustra perfectamente este dilema; incluso cuando una empresa intenta establecer límites éticos estrictos, la infraestructura tecnológica que crea puede terminar siendo utilizada en operaciones militares controversiales, como la captura del presidente venezolano Nicolás Maduro en enero de 2026, donde Claude habría sido empleado según reportes del Wall Street Journal, aunque la empresa no encontró violaciones a sus políticas en su revisión interna.
La comunidad internacional ha comenzado a reaccionar ante estos desafíos, aunque con lentitud preocupante. En diciembre de 2024, la Asamblea General de las Naciones Unidas adoptó una resolución sobre Sistemas de Armas Autónomas Letales con 166 votos a favor, 3 en contra y 15 abstenciones, marcando un paso hacia un enfoque de dos niveles que prohíba ciertos sistemas y regule otros. El Secretario General António Guterres ha llamado repetidamente a una prohibición global de las "máquinas asesinas", describiéndolas como "políticamente inaceptables" y "moralmente repugnantes", y fijando 2026 como fecha límite para un tratado vinculante. Sin embargo, el Grupo de Expertos Gubernamentales de la Convención sobre Ciertas Armas Convencionales sigue atascado en un modelo de consenso que paraliza el progreso, mientras que la Unión Europea, a través de su AI Act, excluye explícitamente de su alcance los sistemas de IA utilizados exclusivamente para fines militares, de defensa o seguridad nacional, creando un vacío regulatorio preocupante.
La inteligencia artificial ha dejado de ser una herramienta pasiva para convertirse en un factor activo que redefine la naturaleza misma de los conflictos contemporáneos. La historia de Anthropic enfrentándose al Departamento de Guerra mientras su tecnología, a través de Palantir, llegaba a operaciones militares en Venezuela y potencialmente a otras zonas de conflicto, simboliza las contradicciones de una industria que promete construir un futuro mejor mientras sus creaciones se despliegan en campos de batalla. La estrategia de IA del Pentágono de enero de 2026, que exige la eliminación de salvaguardas corporativas específicas en un plazo de 180 días, representa un punto de no retorno en la relación entre el estado y la tecnología. A medida que más naciones incorporen estas capacidades y sistemas como los drones autónomos ucranianos demuestren su efectividad letal, la comunidad internacional enfrenta el desafío urgente de establecer límites que preserven el control humano significativo sobre las decisiones de vida o muerte. La pregunta sobre quién será responsable cuando un algoritmo cometa un error fatal sigue sin respuesta clara, y el caso de Anthropic nos recuerda que, en la era de la IA bélica, las líneas rojas éticas son tan necesarias como frágiles ante la presión de los intereses geopolíticos y comerciales.



Comentarios