Estados Unidos, la lucha mundial por la hegemonía y el espejismo de la inteligencia artificial
Roberto Iannuzzi.
Mientras llega el desafío chino de DeepSeek, Silicon Valley mira cada vez más hacia el sector militar, proponiendo una alianza al establishment estadounidense que teme perder la hegemonía mundial.
DeepSeek, una start-up china hasta ahora prácticamente desconocida, sacudió a finales de enero las creencias del mundo de la inteligencia artificial (IA) al lanzar un gran modelo lingüístico ( LLM) con capacidades comparables a los mejores modelos de empresas estadounidenses punteras como OpenAI, Anthropic y Meta.
Durante años, muchos dieron por sentado que las empresas de Silicon Valley estaban a la vanguardia del desarrollo de la IA, y esencialmente destinadas a dominar un sector considerado estratégico en la lucha por la hegemonía tecnológica mundial.
DeepSeek R1 es un “modelo de razonamiento” capaz de resolver incluso problemas matemáticos, lógicos y de programación complejos, con un rendimiento comparable al de OpenAI o1, pero con software “de código abierto” y sin tener que pagar por ser miembro (algo que sí exige este último, que es un modelo propietario).
Es más, DeepSeek R1 se entrenó por una fracción del coste requerido por OpenAI o1 (según estimaciones, sin embargo, que no son unánimemente compartidas, el entrenamiento habría requerido unos 6 millones de dólares), y sin el uso de microchips de última generación, cuya exportación a China está prohibida por EE UU.
El lanzamiento del modelo “low cost” de DeepSeek se produce en un momento en que gigantes como Microsoft y Meta se disponen a gastar 80.000 y 65.000 millones de dólares respectivamente en 2025 en infraestructuras relacionadas con la IA.
En el año que acaba de empezar, se espera que las ‘siete magníficas’ Big Tech estadounidenses (Apple, Microsoft, Alphabet, Amazon, Nvidia, Meta y Tesla) inviertan colectivamente al menos 250.000 millones de dólares en inteligencia artificial.
A la luz de la hazaña de DeepSeek, el temor de los inversores estadounidenses es que tales inversiones resulten excesivas y, sobre todo, que perjudiquen la rentabilidad de las grandes empresas estadounidenses, si una start-up china relativamente pequeña puede proporcionar aplicaciones de inteligencia artificial a un coste mucho menor.
Como resultado, Nvidia (el principal fabricante mundial de los microchips más sofisticados), Alphabet, Amazon, Microsoft y Meta perdieron un total combinado de casi 750.000 millones de dólares de su valor de mercado en la primera reapertura de la bolsa.
Desde el punto de vista de Washington, el episodio de DeepSeek hace saltar las alarmas, demostrando que los esfuerzos estadounidenses por obstaculizar el progreso chino en el desarrollo de la IA son inadecuados.
DeepSeek demuestra que las barreras objetivas, como la incapacidad de aprovechar los microchips de última generación y las limitaciones presupuestarias, pueden estimular el ingenio y la innovación más que las inversiones masivas.
¿Una burbuja a punto de estallar?
Tanto el actual presidente Donald Trump como su predecesor Joe Biden han situado el desarrollo tecnológico, y en particular el de la IA, en el centro de sus esfuerzos por ganar la competición global, y principalmente la carrera con China.
Sin embargo, hay quienes temen desde hace tiempo que el modelo estadounidense de desarrollo de la IA, basado en la construcción de gigantescos centros de datos que consumen cantidades impresionantes de energía y en la producción de microchips cada vez más sofisticados y caros, pueda convertirse en una burbuja destinada a estallar.
Este temor precede al terremoto provocado por DeepSeek. Ya fue expresado por The Economist y Financial Times a mediados del año pasado. Incluso entonces, grandes magnates de la tecnología como Mark Zuckerberg (Meta) admitieron que
este tipo de inversión podría tardar años en generar beneficios.
En un estudio muy comentado de Goldman Sachs del pasado mes de junio, el economista del MIT Daron Acemoglu sostenía que los beneficios probables de la IA serían mucho menores de lo que suponían los inversores, y que tardaría más de lo esperado en apreciarse. Mientras tanto, añadió Acemoglu, existe el riesgo de que las desventajas de la tecnología, como las falsificaciones profundas, lleguen antes que los beneficios.
El economista predijo que la IA aumentaría la productividad sólo un 0,5% y el PIB en torno al 1% durante la próxima década, una estimación drásticamente inferior a las estimaciones de Goldman del 9% y el 6,1%, respectivamente.
Otros analistas del grupo señalaron que los inversores siguen esperando a que se materialicen los beneficios de la realidad virtual, el metaverso y el blockchain. “Si el análisis de Acemoglu es correcto”, concluyó el Financial Times,
el mercado financiero estadounidense -Nvidia incluida- se dirigirá a un feo enfrentamiento”.
El auge de la IA en el ejército
Aunque existen serios problemas de sostenibilidad económica, energética y medioambiental para el modelo de desarrollo de la inteligencia artificial, ésta se está convirtiendo en un elemento clave en la competición global por la hegemonía, incluidas sus aplicaciones disruptivas en el ámbito militar.
El creciente uso de la IA en conflictos en gran parte del mundo confirma hasta qué punto las fuerzas armadas de numerosos países están pendientes de los desarrollos militares de esta tecnología, aunque puedan tener consecuencias difíciles de predecir y pesadas implicaciones éticas.
El resultado es una carrera armamentística ‘inteligente’ de miles de millones de dólares, que está absorbiendo a los gigantes de Silicon Valley junto con las industrias de muchos otros países de todo el mundo.
El conflicto ucraniano, que se ha descrito como “un laboratorio de guerra de inteligencia artificial”, ha sido testigo de la aplicación gradual de los conocimientos civiles sobre IA al ámbito militar, una esfera que hasta la fecha carecía de regulación.
Empresas privadas estadounidenses como Palantir y ClearviewAI se han convertido en actores clave en el campo de batalla, proporcionando análisis de datos para ataques con drones y operaciones de vigilancia y reconocimiento.
Durante más de una década, Palantir ha obtenido lucrativos contratos del Pentágono, el Departamento de Seguridad Nacional y el FBI, al tiempo que ha desarrollado un negocio internacional.
La empresa, fundada por Peter Thiel, Stephen Cohen, Joe Lonsdale y Alex Karp en 2003, ha sido pionera con su Plataforma de Inteligencia Artificial (un sistema de inteligencia y toma de decisiones capaz de analizar objetivos enemigos y proponer planes de batalla) en el teatro de guerra ucraniano.
Otras tecnologías de Palantir incluyen la aplicación de la IA a la “policía predictiva”(el conjunto de investigaciones destinadas a identificar individuos potencialmente capaces de realizar actividades delictivas, o lugares potencialmente escenario de tales actividades) y a los sistemas de vigilancia.
Varias instituciones gubernamentales ucranianas, entre ellas los ministerios de Defensa, Economía y Educación, utilizan los productos de la empresa.
El software de Palantir, que utiliza IA para analizar imágenes de satélite, datos de fuentes abiertas, vídeos transmitidos por drones e informes sobre el terreno con el fin de sugerir opciones militares a los mandos del ejército, es responsable de la mayor parte de la selección de objetivos, según su cofundador Alex Karp.
IA en el infierno de Gaza
En su operación militar en Gaza, Israel ha hecho un amplio uso de al menos dos sistemas basados en inteligencia artificial, como escribí en un artículo anterior:
“ The Gospel ”, el primero, procesa millones de datos para identificar a gran velocidad edificios y otras estructuras desde las que podrían operar milicianos palestinos, convirtiéndolos así en objetivos de destrucción.
El segundo, llamado “Lavender”, identifica en cambio a presuntos miembros del ala militar de Hamás y la Yihad Islámica, procesando de nuevo innumerables cantidades de datos que van desde escuchas telefónicas hasta la pertenencia a grupos de Whatsapp.
El programa elabora así una clasificación de pertenencia probable, que va del 1 al 100. Los individuos que ocupan los primeros puestos de esta clasificación son vigilados por un sistema llamado “¿Dónde está papá?”, que envía una señal cuando el “sospechoso” vuelve a casa, donde es bombardeado (junto con su familia).
The Gospel y Lavender son sólo las dos últimas encarnaciones aterradoras de una industria cada vez más floreciente, que aplica tecnología punta a la guerra, y que sitúa a Israel a la vanguardia mundial en este campo.
Según una investigación de la revista israelí +972 Magazine, las fuerzas armadas de Tel Aviv utilizaban los resultados proporcionados por estos sistemas como si fueran fruto de decisiones humanas, y a veces no dedicaban más de 20 segundos a verificar un objetivo antes de bombardearlo.
Apenas dos semanas después de iniciado el conflicto, la cúpula del ejército israelí habría animado a los soldados a aprobar automáticamente las “listas de asesinatos”proporcionadas por Lavender, a pesar de que el sistema mostraba un margen de error de al menos el 10%.
¿Riesgo de extinción?
Como puede verse, las aplicaciones militares de la IA son muy variadas, desde los llamados “sistemas de armas autónomas letales” (LAWS) hasta la ciberseguridad y la toma de decisiones estratégicas.
La IA tiene el potencial de cambiar todos los aspectos de la guerra, desde los sistemas de armas hasta las cadenas de suministro, las estrategias militares, la gestión del campo de batalla, los protocolos de entrenamiento, la gestión de datos y las operaciones de vigilancia y control.
Por un lado, la inteligencia artificial puede mejorar enormemente la eficacia militar y el proceso de definición y destrucción de objetivos -de ahí la letalidad de la guerra-; por otro, puede provocar errores fatales derivados del mal funcionamiento del software que la gobierna.
Los representantes de la industria bélica y los expertos estadounidenses repiten a menudo que las aplicaciones militares de la IA han alcanzado su «momento Oppenheimer», en obvia referencia al desarrollo de la bomba atómica por el físico J. Robert Oppenheimer.
Hay quienes ven esta expresión como una profecía triunfal de una nueva era de hegemonía estadounidense (desafiada, sin embargo, como hemos visto, por la actuación de la IA china), y quienes la entienden como una sombría advertencia de un poder terriblemente destructivo.
Estas cuestiones, sin embargo, rara vez se exponen a la opinión pública, sino que permanecen confinadas en un estrecho círculo de académicos y expertos militares.
También existe una probabilidad real de que, al igual que otras tecnologías, las aplicaciones bélicas de la IA sean adoptadas posteriormente por las fuerzas policiales para el mantenimiento del orden público y el control y vigilancia de fronteras.
Los riesgos inherentes a las aplicaciones civiles y militares de la IA son tales, en opinión de científicos y expertos en la materia, que son capaces de provocar el fin de la civilización humana.
Esto ha llevado a numerosos académicos y figuras destacadas de la industria de la IA a firmar una declaración pública según la cual
mitigar el riesgo de extinción causado por la inteligencia artificial debería ser una prioridad mundial, junto con otros riesgos a escala social, como las pandemias y la guerra nuclear.
El lado oscuro de Silicon Valley
Sin embargo, los firmantes de esta declaración, incluidos los consejeros delegados de Google DeepMind y OpenAI, son los mismos que crearon esta tecnología y, lo que es más importante, los que están desarrollando sus aplicaciones militares.
OpenAI anunció una asociación estratégica con Anduril Industries para aplicar la inteligencia artificial a ‘misiones de seguridad nacional’. Anduril es una empresa que desarrolla drones letales guiados por IA, aviones de combate no tripulados y drones submarinos.
La empresa, fundada por Palmer Luckey, un multimillonario de 30 años con simpatías trumpianas, tiene un contrato para desarrollar drones del Pentágono, y ya ha enviado cientos de ellos a Ucrania. SegúnLuckey, Anduril “salvará la civilización occidental”.
Mientras tanto, Google (que de hecho ya había participado en programas del Departamento de Defensa en el pasado) eliminó de sus principios el compromiso de no desarrollar armas ni sistemas de vigilancia.
Por su parte, Meta anunció ya en 2024 que Llama, su gran modelo lingüístico, podría utilizarse en el sector de la defensa. Entre las Big Tech y las principales start-ups de IA, ahora hay pocas que no se dediquen a contratos militares o de inteligencia.
Los nuevos ‘visionarios’ de Silicon Valley -personajes como Elon Musk, Peter Thiel y Palmer Luckey- se ven a sí mismos como mesías tecnológicoscapaces de restablecer la hegemonía estadounidense ganando la competencia a China, siempre y cuando el gobierno les permita hacer su trabajo.
Alex Karp (Palantir) afirmó que Estados Unidos acabará enfrentándose militarmente a China, y que la mejor política es “matar de miedo a tu enemigo”.
“Moverse rápido y romper cosas”, el lema acuñado por Zuckerberg y adoptado por los inversores de capital riesgo en IA, según el cual los errores ocasionales son un pequeño precio a pagar por la innovación rápida, debería aplicarse ahora al sector de la defensa, según la visión de los nuevos gurús de la IA.
Sin embargo, cuesta poco darse cuenta de que en este sector el precio que hay que pagar por los errores es potencialmente mucho más alto.
Una mezcla peligrosa
Tres días antes del final de su mandato, Jake Sullivan, consejero de seguridad nacional de la administración saliente de Biden, lanzó una advertencia doblemente alarmista.
Según él, los próximos años determinarán si la inteligencia artificial nos llevará a la catástrofe, y si China o Estados Unidos se impondrán en la carrera por el rearme basado en la IA.
Añadió que, a diferencia de anteriores saltos tecnológicos, los avances de la IA no están en manos del gobierno, sino de empresas privadas que tienen un poder comparable al de los Estados.
Según él, el gobierno estadounidense debería aunar fuerzas con estas empresas para salvaguardar la ventaja tecnológica de Estados Unidos y dar forma a las normas mundiales para el uso de la IA, una tecnología con un poder ‘casi divino’.
El pánico del establishment estadounidense generado por la perspectiva de perder la primacía mundial y el ‘tecnooptimismo’ de los capitalistas de riesgode Silicon Valley, según los cuales la tecnología puede dar respuesta a cualquier problema, constituyen una peligrosa mezcla en la cúpula del que sigue siendo el Estado más poderoso del mundo.
La idea de confiar en una tecnología aún experimental y con elevados riesgos de aplicación, basada en un modelo de desarrollo económico insostenible en muchos aspectos, para ganar una competición estratégica y militar con una superpotencia igual, puede resultar un espejismo con implicaciones difíciles de predecir.