Quien domina la IA, ¿Domina el mundo?

🪐 Macron anunció una nueva doctrina nuclear, Cuba anuncia una reforma económica estructural, y EE. UU. también está llevando a cabo una operación militar en Ecuador.

In partnership with

Desde nuestra órbita, una mirada al mundo.

El 5 de marzo de 2024, Andrew Barto y Richard Sutton recibieron el Premio Turing —el “Nobel de la computación”— por desarrollar el reinforcement learning, una técnica que permite a las máquinas aprender a tomar decisiones mediante prueba, error y recompensa. Su trabajo, iniciado en los años 80, se convirtió en una de las bases de la inteligencia artificial moderna. Hoy, ese tipo de algoritmos ya no se limita a juegos o laboratorios: empieza a integrarse en sistemas de inteligencia, simulaciones estratégicas y planificación militar. De cómo la inteligencia artificial comienza a entrar en el campo de batalla hablaremos en el eje central de hoy.

Hoy, además, vamos a contarte:

  • Macron anunció una nueva doctrina nuclear;

  • Cuba anuncia una reforma económica estructural;

  • Estados Unidos también está llevando a cabo una operación militar en Ecuador.

Vas a informarte sobre todo esto en menos de 10 minutos.

EJE CENTRAL

Quien domina la IA ¿Domina el mundo?

  • La IA entra al campo de batalla. El ejército estadounidense utilizó Claude, el modelo de Anthropic, para procesar inteligencia, simular escenarios y apoyar la identificación de objetivos en operaciones contra Irán, marcando un paso más en la integración de grandes modelos de lenguaje en la planificación militar.

  • Choque entre Estado y Big Tech. El caso expone una tensión creciente: mientras empresas como Anthropic buscan limitar el uso militar de sus sistemas por razones éticas, el gobierno sostiene que la seguridad nacional no puede depender de restricciones impuestas por compañías privadas.

  • Guerra sin reglas claras para la IA. El despliegue militar de modelos de IA ocurre en un vacío regulatorio internacional, con sistemas opacos que pueden cometer errores o “alucinaciones”. A medida que se integran en operaciones reales, crece el debate sobre quién controla estas tecnologías y cómo se supervisa su uso en la guerra.

¿Qué pasó?

Según reportes recientes, el ejército de Estados Unidos utilizó Claude, el modelo de inteligencia artificial desarrollado por Anthropic, para apoyar operaciones militares contra Irán. La herramienta habría sido empleada para procesar inteligencia, realizar simulaciones de campo de batalla y asistir en la identificación de posibles objetivos.

El uso de esta tecnología resulta particularmente relevante porque ocurrió pocas horas después de que Trump ordenara a las agencias federales cortar todos los vínculos con Anthropic tras una disputa pública con la empresa sobre el uso militar de su inteligencia artificial. Sin embargo, dentro del Pentágono la herramienta ya estaba profundamente integrada en los sistemas de análisis de datos, por lo que retirarla de inmediato resultaba técnicamente complejo.

La tensión entre el gobierno y la empresa venía escalando desde semanas antes, cuando se supo que Claude también había sido utilizado en una operación de enero destinada a capturar al presidente venezolano Nicolás Maduro. Anthropic cuestionó ese uso y recordó que sus términos de servicio prohíben explícitamente aplicar el modelo para desarrollar armas, realizar vigilancia masiva o participar en operaciones violentas.

A pesar de esa objeción, la compañía anunció que mantendría el servicio por un período limitado, de hasta seis meses, para permitir que el gobierno estadounidense migre hacia otros sistemas.

• ¿Qué es Claude? Claude es un modelo de inteligencia artificial desarrollado por la empresa estadounidense Anthropic. Forma parte de la nueva generación de grandes modelos de lenguaje (LLM), sistemas capaces de procesar enormes volúmenes de información y generar respuestas, análisis o simulaciones a partir de datos complejos. Anthropic fue fundada en 2021 por exinvestigadores de OpenAI y se posiciona como una de las principales compañías de IA del mundo.

• ¿Cómo se utiliza la IA en el ámbito militar? La inteligencia artificial ya se utiliza de múltiples maneras dentro de las fuerzas armadas. Entre sus aplicaciones más extendidas están el procesamiento de grandes volúmenes de información, el análisis de inteligencia, la detección de amenazas cibernéticas y la optimización logística. Su principal ventaja es la capacidad de sintetizar y cruzar enormes cantidades de datos en tiempos mucho más rápidos que los equipos humanos. 

¿Por qué importa?

Cambios en las formas de vigilancia masiva y en armas totalmente autónomas. La incorporación de inteligencia artificial en operaciones militares está transformando la forma en que se recolecta, procesa y utiliza la información en el campo de batalla. Aunque la IA ya se utilizaba para analizar información o detectar amenazas, la novedad es que los grandes modelos de lenguaje —la tecnología detrás de los chatbots— comienzan a intervenir en la planificación y simulación de operaciones. Esto abre la puerta a sistemas cada vez más automatizados y plantea interrogantes sobre cuánto poder se delega en algoritmos en tareas como la vigilancia masiva o la selección de objetivos.

Una batalla por el control de la IA. Una batalla por el control de la IA que se libra en dos frentes simultáneos. Por un lado, la rivalidad geopolítica entre EE. UU. y China, donde el dominio de la inteligencia artificial se ha convertido en un eje central de la competencia por la hegemonía global. Por otro lado, la tensión entre el gobierno estadounidense y las propias empresas tecnológicas sobre quién tiene la última palabra en el uso de estas herramientas. Mientras compañías como Anthropic intentan imponer límites éticos, prohibiendo aplicaciones en armas autónomas o de vigilancia masiva, los gobiernos sostienen que las decisiones estratégicas no pueden quedar sujetas a restricciones privadas. La disputa también refleja una carrera entre empresas por posicionarse como proveedoras del sector de defensa, y tras la ruptura con Anthropic, OpenAI anunció un acuerdo con el Pentágono para utilizar sus herramientas en redes clasificadas. 

• Un vacío regulatorio. Todo esto ocurre en un contexto de regulación internacional limitada. Los grandes modelos de lenguaje funcionan en gran medida como cajas negras: las empresas no revelan con precisión los datos con los que entrenan sus sistemas ni cómo llegan a sus conclusiones. Esto complica aplicar marcos del derecho internacional humanitario. Por ejemplo, el artículo 36 de las Convenciones de Ginebra exige evaluar nuevos sistemas de armas antes de su despliegue, pero en el caso de la IA, que aprende y se actualiza constantemente, cada modificación puede convertir al sistema en uno distinto.

¿Cómo impacta?

• A nivel global. El impacto se siente tanto en la geopolítica como en la economía. A nivel global, la integración de la IA en las operaciones militares profundiza la carrera tecnológica entre potencias y aumenta la presión para crear marcos de control y transparencia, un desafío que se vuelve más complejo bajo una administración Trump, reticente a regular el sector de defensa. En lo económico, las consecuencias ya son visibles en el mercado: según Sensor Tower, las desinstalaciones de ChatGPT aumentaron cerca de un 200% tras conocerse el acuerdo con el Pentágono, mientras que Claude de Anthropic alcanzó el primer puesto de descargas en la App Store, evidenciando que las decisiones éticas de las empresas no solo tienen peso moral sino también comercial.

• En América Latina, la disputa llega en un momento en que varios gobiernos de la región ya incorporan inteligencia artificial en seguridad y vigilancia: Ecuador utiliza un sistema de cámaras con reconocimiento facial heredado de China, Colombia ha integrado herramientas de análisis predictivo en operaciones militares contra el narcotráfico, y Brasil experimenta con IA en el monitoreo de fronteras y redes sociales. La tensión entre empresas tecnológicas y gobiernos del norte global sobre los límites éticos del uso militar de la IA anticipa conflictos similares que la región deberá enfrentar, agravados por una menor capacidad regulatoria, escasa transparencia y una dependencia estructural de tecnología desarrollada en EE. UU. o China.

¿Cómo sigue?

  • El Pentágono mantiene conversaciones con OpenAI, Google y xAI para permitir el uso de sus herramientas en sistemas clasificados. Al mismo tiempo, Anthropic y el Departamento de Defensa negocian la posibilidad de flexibilizar algunas restricciones sobre el uso de Claude en entornos militares.

  • Si el gobierno estadounidense logra imponer el uso de estas tecnologías mediante presión legal, listas negras comerciales o poderes de emergencia, podría quedar establecido que ninguna empresa de IA puede mantener restricciones independientes frente a demandas del Estado en materia de seguridad nacional.

  • Si Anthropic logra sostener sus límites en tribunales o en las negociaciones contractuales, se reforzaría la capacidad de las empresas tecnológicas para fijar “líneas rojas” éticas incluso en acuerdos con el sector de defensa.

Nuestra mirada en ÓRBITA:

El conflicto entre Anthropic y el Pentágono anticipa un debate estructural que crecerá a medida que la IA se vuelva más poderosa. Lo que está en juego no es solo un contrato: es la pregunta de quién establece los límites del uso de estas tecnologías cuando entra en juego la seguridad nacional. Algunos analistas argumentan que la participación de empresas con estándares éticos elevados dentro del ecosistema de defensa es preferible a su ausencia, ya que permite influir desde adentro en cómo se despliegan estas herramientas.

El desafío técnico es real pero no insuperable. Los modelos de lenguaje cometen errores, pero también evolucionan rápidamente: según un informe de RAND Corporation de 2024, los sistemas de IA aplicados a inteligencia militar han mejorado su precisión de forma significativa cuando operan como asistentes humanos en lugar de sistemas autónomos. El debate ya no es si la IA tendrá un rol en defensa, sino cómo diseñar arquitecturas de supervisión humana que minimicen el riesgo de errores con consecuencias irreversibles.

Un marco legal global es difícil de imaginar en plena competencia entre EE.UU. y China, donde ninguna potencia está dispuesta a resignar ventajas estratégicas. Lo que ilustra el caso Anthropic es que, en ausencia de regulación, el verdadero campo de disputa será el interior de las propias empresas. Mientras Anthropic se retira, otras llenan el espacio sin mayores escrúpulos: Palantir, que no tiene reparos en trabajar para el Pentágono, acaba de firmar un contrato con el Ejército de EEUU valuado en hasta 10.000 millones de dólares, y su sistema Maven, diseñado para detectar e identificar objetivos automáticamente a partir de imágenes satelitales y datos de geolocalización, ya opera en varios comandos militares. La pregunta no es si la IA se usará en defensa, sino bajo qué condiciones y quién fija esas condiciones.

VUELTA AL MUNDO

🇩🇪 🇺🇸 El canciller alemán Friedrich Merz se reunió con Donald Trump en la Casa Blanca y ambos coincidieron en mantener una línea dura frente a Irán. La visita buscó reforzar la coordinación transatlántica en seguridad y política exterior

🇺🇸 Comenzaron las elecciones primarias para las legislativas de medio término con votaciones en Texas, Carolina del Norte y Arkansas. Los comicios definirán a los candidatos que competirán en noviembre por el control del Congreso. Las primarias marcan el inicio de una campaña que se perfila altamente polarizada.

🇺🇦 🇪🇺 Ucrania aseguró que en los próximos días completará los requisitos técnicos para iniciar formalmente las negociaciones de adhesión a la Unión Europea. Kiev obtuvo el estatus de candidato tras la invasión rusa de 2022. Sin embargo, la oposición de Hungría sigue bloqueando el consenso necesario para abrir el proceso.

🇫🇷 El presidente Emmanuel Macron anunció una nueva doctrina nuclear de “disuasión avanzada” que contempla ampliar el arsenal francés por primera vez en décadas. París también podría desplegar temporalmente armas nucleares en países aliados europeos.

🇨🇦 🇮🇳 Canadá firmó un acuerdo para suministrar uranio a India entre 2027 y 2035 por unos USD 1.900 millones. Ambos países también acordaron profundizar la cooperación en minerales críticos, defensa e inteligencia artificial. El anuncio se produjo durante la visita del primer ministro Mark Carney a Nueva Delhi para reforzar la relación bilateral.

GRAVITANDO EN AMÉRICA LATINA

🇨🇺 El presidente Miguel Díaz-Canel afirmó que Cuba necesita cambios “urgentes” en su modelo económico y social, incluyendo mayor autonomía para gobiernos locales y el sector privado, así como una reducción del aparato estatal. Esto sucede tras presiones de Estados Unidos que restringen el flujo del petróleo a la isla e instan a ampliar el espacio para el sector privado.

🇺🇸 🇪🇨 Estados Unidos y Ecuador realizaron una operación militar conjunta para combatir redes de narcotráfico y narcoterrorismo, según el Comando Sur. La cooperación incluye despliegues, el intercambio de inteligencia y el apoyo logístico en territorio ecuatoriano.

🇦🇷 🇺🇸 La semana que viene se lleva a cabo la “Argentina Week” en Nueva York. Del 9 al 12 de marzo, Milei encabeza un road show con bancos de Wall Street, CEOs y grandes corporaciones para atraer inversiones en energía, minería, tecnología e infraestructura. El evento reunirá a funcionarios del equipo económico, gobernadores y ejecutivos internacionales en paneles y reuniones con inversores. 

FUERA DE ÓRBITA

Inteligencia, seguros marítimos, y el duelo silencioso entre Londres y Washington

La crisis en el Estrecho de Ormuz expuso un frente menos visible: la inteligencia detrás del comercio marítimo global. Cuando el conflicto con Irán disparó el riesgo en la zona, las aseguradoras empezaron a cancelar coberturas de guerra. En el centro de ese sistema está Lloyd's of London, empresa que asegura cerca del 40% del comercio marítimo mundial y funciona como el principal “priceador” del riesgo geopolítico en los océanos. La red global de Lloyd’s de datos sobre movimientos de buques, cargas y rutas comerciales, alimentada por miles de puertos y agentes, es también una fuente estratégica de inteligencia. Durante décadas, en los mercados financieros londinenses se asumió que ese sistema funcionaba en estrecha relación con la inteligencia británica (MI6): Lloyd’s obtenía ventaja para evaluar riesgos y, a cambio, Londres accedía a una radiografía en tiempo real del comercio marítimo global. La crisis abrió una oportunidad para Trump. Ante la retirada del seguro privado, Washington ofreció que la Corporación Financiera para el Desarrollo de EE.UU. cubriera el riesgo de los tanqueros que atraviesen el Golfo, junto con protección naval. Si ese sistema se consolida, Estados Unidos no solo capturaría el negocio financiero de asegurar barcos, sino también el flujo de datos y la capacidad de condicionar el comercio marítimo global. Si EE.UU. desplaza a Lloyd’s como referencia para asegurar el comercio marítimo, el Reino Unido pierde una de sus mayores fuentes de información estratégica y un activo histórico de su influencia global. Así, detrás del petróleo y los misiles en Ormuz, aparece otra disputa: quién controla el sistema de seguros y de inteligencia que permite que el comercio mundial siga funcionando.

GRÁFICO DEL DÍA

La guerra permanente de Washington

Los ataques reportados muestran una ofensiva concentrada de Estados Unidos e Israel sobre territorio iraní, con impactos en torno a Teherán y en zonas estratégicas como el Estrecho de Ormuz. Irán, por su parte, respondió con acciones en Israel y en puntos sensibles del Golfo, lo que amplió el radio del conflicto y elevó el riesgo de una confrontación regional.

Your AI tools are only as good as your prompts.

Most people type short, lazy prompts because writing detailed ones takes forever. The result? Generic outputs.

Wispr Flow lets you speak your prompts instead of typing them. Talk through your thinking naturally - include context, constraints, examples - and Flow gives you clean text ready to paste. No filler words. No cleanup.

Works inside ChatGPT, Claude, Cursor, Windsurf, and every other AI tool you use. System-level integration means zero setup.

Millions of users worldwide. Teams at OpenAI, Vercel, and Clay use Flow daily. Now available on Mac, Windows, iPhone, and Android - free and unlimited on Android during launch.

PROGRAMA DE REFERIDOS




¿Hay algo que te gustaría comentar o debatir?
Escribinos a [email protected]

¿Alguien te reenvió este correo?
Empezá a recibirlo vos también
Hasta la próxima vuelta 🪐