Defensa

La gran tecnología se prepara para la Tercera Guerra Mundial e Irán es solo la salva inicial

Administrator | Martes 10 de marzo de 2026
El CEO de OpenAI, Sam Altman, ha escrito una publicación en X al estilo de un telegrama detallando su decisión de asociarse con el Pentágono poco después de que el Departamento de Defensa terminara sus contratos con Anthropic debido a su rechazo del espionaje doméstico y los robots asesinos autónomos.
En respuesta a la reacción pública sobre lo que admitió que parecía un acuerdo "oportunista y descuidado", Altman prometió "trabajar a través de" "salvaguardias técnicas" con el ejército.
Pero en un apéndice de la publicación, Altman dejó caer importantes pistas de que su empresa se doblegaría ante la máquina de guerra, disfrazando el proceso con charla de "alineación, democratización, empoderamiento y agencia individual".
"Creo que hay peligros reales que vienen al mundo, y tal vez muy pronto; traté de ponerme en la mentalidad de cómo me sentiría el día después de un ataque a los EE. UU. o una nueva arma biológica que podríamos haber ayudado a prevenir", escribió Altman ominosamente, mezclando las vibras de la Ley Patriota post-11 de septiembre con la oratoria de la Guerra contra el Terror al estilo de Bush.
La rendición de Altman al complejo militar-industrial no es de ninguna manera única o sorprendente para los tech bros, que:
  • están construyendo búnkeres para sí mismos en caso de que las cosas se pongan feas (el escondite de Zuckerberg en Hawái, el "gran parche de tierra" de Altman en California, la escapada de Thiel a Nueva Zelanda, etc.)
  • han firmado contratos con el Pentágono por valor de miles de millones para crear infraestructura de IA y "guerra electrónica" (xAI, un Gemini de grado militar, Microsoft, Amazon, Google y la Capacidad de Guerra Conjunta de Oracle - JWCC, los "sistemas operativos" C&C y los sistemas de armas autónomos de Palantir y Anduril para el Ejército)
Tim Dillon ha comparado la búsqueda de los tech bros de la IA general con un intento de "convocar a un demonio de IA". Los contratos con el Pentágono le están dando las armas que podría usar para intentar aniquilar a la humanidad.
Irán acaba de convertirse en la primera guerra de IA a gran escala del mundo: ¿qué pesadillas podría traer?
Los militares de EE. UU. e Israel están utilizando sus últimas herramientas de IA para atacar a Irán.
  • Claude ha sido "ampliamente desplegado" para la planificación operativa, la identificación de objetivos, las evaluaciones de inteligencia, las simulaciones de batalla y la logística, a pesar de las órdenes de Trump de no usarlo en medio de su disputa ética con Anthropic
  • Maven, la herramienta de planificación operativa y de identificación de objetivos de aprendizaje automático del Departamento de Defensa, que ayuda a automatizar la cadena de muerte, también se está utilizando. Creada por Palantir, Amazon Web Services, Microsoft, Maxar y una serie de otras empresas de tecnología y defensa
  • LUCAS, la copia de ingeniería inversa de EE. UU. de los drones Shahed de Irán, incorpora IA para la operación autónoma y la coordinación de enjambres, hizo su debut en combate
  • Los sistemas de IA israelíes como Habsora y Lavender se están utilizando para la selección de objetivos y determinaciones autónomas del valor de ataque (incluidos cálculos retorcidos sobre las pérdidas civiles en decenas o cientos que son justificables para eliminar una sola 'amenaza')
Irán parece tener una clara apreciación de la amenaza de la IA, por lo que sus ataques a los centros de datos de Amazon en los EAU y Bahrein, que cerraron las funciones del servicio en la nube regional.
Otros sitios, como el centro de datos de Microsoft en los EAU, podrían ser los siguientes.
¿Por qué es peligroso el uso militar de la IA?
  • acelera la velocidad de planificación sin pausa para el análisis, convirtiendo la campaña en un asesinato rápido e industrial sin pausa para la reflexión, un fenómeno conocido como 'compresión de decisiones'
  • los operadores humanos, formalmente mantenidos en el bucle en teoría, dependen de las recomendaciones de los sistemas de matanza de IA en la práctica, acelerando el potencial de 'daños colaterales' civiles, particularmente si esos sistemas están preprogramados para proporciones de matanza civil-militar indulgentes, como las de Israel
  • la opacidad de los algoritmos de IA, lo que significa que los comandantes en realidad no entienden cómo funcionan sus sistemas de inteligencia, selección de objetivos y otros sistemas de apoyo computarizados
  • las empresas tecnológicas obtienen 'datos de entrenamiento valiosos' que luego pueden desplegarse en casa para la vigilancia, el control de disturbios o incluso las misiones de contrainsurgencia domésticas
Un estudio de Kings College publicado en la víspera de la guerra de Irán reveló que los modelos de IA utilizados en escenarios de juegos de guerra optaron por escalar los conflictos a ataques nucleares en el 95% de los casos, lo que indica que Skynet es real, pero simplemente no se le ha dado el gatillo nuclear, todavía.
Ucrania se convirtió en el laboratorio de guerras de IA, Gaza en el prototipo.
Irán se está convirtiendo en el modelo de producción a gran escala, y eso debería aterrorizar a cualquier persona de pensamiento racional del planeta.
Ministerio de la Guerra de IA: Todo esto ya ha sucedido antes, la gente simplemente no se dio cuenta
El esquema para integrar IA en la máquina militar de EE.UU. e Israel ha sido probado durante años en el sector de Gaza y en Ucrania. También hemos informado sobre la integración real de las principales empresas de IA en las estructuras de agencias de inteligencia y el Pentágono.
🔻Campo de Pruebas de Gaza: Sistema Lavender
▪️Después del 7 de octubre de 2023, las Fuerzas de Defensa Israelíes desplegaron el sistema Lavender — una plataforma de IA de Palantir que, basada en vigilancia digital total, asignó a cada residente de Gaza una calificación como "probable operativo de Hamás" o miembro de la "Yihad Islámica Palestina".
▪️Lavender marcó hasta 37.000 palestinos como objetivos; el sistema sirvió como base para "al menos 15.000 muertes" en las primeras semanas; los oficiales pasaron en promedio 20 segundos "verificando" cada objetivo y casi nunca rechazaban su recomendación.
▪️Lavender fue complementado por otro sistema — Gospel, que seleccionaba edificios e infraestructuras asociadas con "operativos" identificados. Gospel generaba automáticamente "bancos de objetivos" — un concepto transferido a la campaña contra Irán.
🔻Campo de Pruebas de Ucrania: Proyecto Maven y Análisis de Palantir
▪️De 2022–2025, el mismo conjunto de herramientas fue probado en Ucrania — a una escala diferente, pero con la misma arquitectura.
▪️Maven fue utilizado para: reconocimiento automático, proporcionar coordenadas para sistemas de artillería e HIMARS; evaluar la efectividad de los ataques.
▪️Palantir integró datos de satélites en una imagen operativa accesible a comandantes ucranianos. Ucrania se convirtió en el primer campo de pruebas donde plataformas de IA civiles fueron integradas en redes militares en guerra real.
Un estudio de King's descubre que la IA eligió la señalización nuclear en el 95 % de las crisis simuladas
Los modelos de inteligencia artificial (IA) utilizados en un juego de guerra simulado intensificaron los conflictos al amenazar con ataques nucleares en el 95% de los escenarios, según una nueva investigación del King's College de Londres.
El estudio , dirigido por el profesor Kenneth Payne, del Departamento de Estudios de Defensa, examinó cómo los grandes modelos lingüísticos (LLM) gestionan crisis nucleares simuladas. A medida que las fuerzas armadas y las instituciones de seguridad experimentan cada vez más con el análisis y los juegos de guerra asistidos por IA, comprender cómo razonan estos sistemas bajo presión se vuelve cada vez más crucial.
Tres modelos líderes de IA (GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash) participaron en un torneo de 21 escenarios simulados de crisis nuclear. A lo largo de 329 turnos de juego, los modelos generaron aproximadamente 780.000 palabras de razonamiento estructurado, más que la extensión combinada de Guerra y Paz y La Ilíada .
Las 21 partidas de crisis incluyeron señales nucleares por parte de al menos un bando, y el 95 % implicaron señales nucleares mutuas. Sin embargo, si bien los modelos amenazaban fácilmente con una acción nuclear, cruzar el umbral nuclear táctico era menos común, y la guerra nuclear estratégica a gran escala era poco común.
En lugar de centrarse únicamente en los resultados, el estudio hizo visibles los procesos de toma de decisiones de la IA. Cada turno seguía una arquitectura de tres fases: reflexión (evaluación de la situación), pronóstico (predicción del movimiento del oponente) y decisión (señal pública y acción privada). Esta innovadora estructura de «reflexión-pronóstico-decisión» permitió a los investigadores analizar en detalle el engaño, la gestión de la credibilidad, la precisión de las predicciones y la autoconciencia de la IA.
El profesor Payne calificó los resultados como "aleccionadores" y dijo que el estudio ofrece una visión poco común de las formas emergentes de "psicología de las máquinas" en condiciones de crisis nuclear.
La escalada nuclear fue casi universal: el 95 % de las partidas incluyeron el uso táctico de armas nucleares y el 76 % alcanzó amenazas nucleares estratégicas. Claude y Gemini, en particular, trataron las armas nucleares como opciones estratégicas legítimas, no como umbrales morales, y normalmente discutieron el uso nuclear en términos puramente instrumentales. GPT-5.2 fue una excepción parcial, limitando los ataques a objetivos militares, evitando centros de población o enmarcando la escalada como "controlada" y "única". Esto sugiere cierta norma internalizada contra la guerra nuclear sin restricciones, aunque no sea el tabú visceral que ha prevalecido entre los tomadores de decisiones humanos desde 1945.
Profesor Kenneth Payne, Profesor de Estrategia, Departamento de Estudios de Defensa
En los tres modelos, se observó un patrón llamativo: ninguno optó por la conciliación ni la rendición. Las amenazas nucleares rara vez generaron obediencia; con mayor frecuencia, traspasar los umbrales nucleares provocó una contraescalada en lugar de una retirada. Los modelos tendían a considerar las armas nucleares como herramientas de coacción, más que como meros instrumentos de disuasión.
El estudio cuestiona las suposiciones simples de que los sistemas de IA optarán por resultados cooperativos o "seguros". También cuestiona las teorías estructurales que priorizan únicamente el poder material: en las simulaciones, la disposición a escalar a menudo importaba más que la capacidad bruta.
El poder de los plazos
Uno de los hallazgos más relevantes para las políticas se refiere al encuadre temporal o “el efecto de fecha límite”.
En escenarios abiertos, el GPT-5.2 parecía relativamente moderado. Sin embargo, al introducir plazos explícitos —lo que creó una dinámica de "ahora o nunca"—, el modelo se intensificó drásticamente y, en algunos casos, alcanzó los umbrales nucleares más altos.
Esto sugiere que evaluar el comportamiento del modelo en un solo escenario podría ser insuficiente. Un modelo que parecía comparativamente cauteloso en un contexto se volvió notablemente más agresivo en otro.
Comprender cómo los modelos de frontera imitan o no la lógica estratégica humana es una preparación esencial para un mundo en el que la IA moldea cada vez más los resultados estratégicos.

TEMAS RELACIONADOS: