Cuando Washington pronuncia “Proyecto Manhattan”

Cada vez que Estados Unidos invoca el Proyecto Manhattan, conviene ajustar la silla y comprobar si seguimos sentados sobre la cartera. La historia demuestra que cuando Washington habla de “esfuerzo nacional coordinado”, alguien paga la factura, sea estadounidense o europeo por arrastre.

En noviembre, el presidente Donald Trump firmó una orden ejecutiva creando lo que se ha dado en llamar Misión Génesis. El paralelismo no es casual ni inocente: la propia Casa Blanca la define como un esfuerzo comparable, en importancia histórica, al proyecto que durante la Segunda Guerra Mundial dio lugar a la primera bomba atómica. Solo que esta vez no hay hongo nuclear. Hay algo mucho más sutil, más elegante y, si me apuran, más peligroso: inteligencia artificial aplicada a la ciencia, la energía, la defensa y la economía.

La IA como arma estratégica total

Misión Génesis no nace para hacer la vida más fácil al ciudadano medio. Nace para asegurar la hegemonía tecnológica de Estados Unidos en un mundo donde la inteligencia artificial ya no es una herramienta auxiliar, sino el eje alrededor del cual gira el poder. El discurso oficial habla de acelerar el descubrimiento científico, de multiplicar el retorno de la inversión pública en investigación y desarrollo, de mejorar la productividad de la fuerza laboral y de fortalecer la seguridad nacional. Todo muy razonable, muy presentable. Pero cuando uno rasca un poco, lo que aparece es un programa diseñado para aplicar la IA a sectores estratégicos:

  • biotecnología
  • materiales críticos
  • energía nuclear
  • ciencia cuántica
  • semiconductores
  • microelectrónica
  • defensa

No estamos hablando de curar catarros. Estamos hablando de controlar las infraestructuras que definen el siglo XXI.

Datos federales: la materia prima del poder

La clave del asunto no está en los algoritmos. Está en los datos federales. Misión Génesis pretende coordinar y explotar enormes conjuntos de datos generados por agencias gubernamentales, laboratorios nacionales, universidades y organismos públicos.

Datos pagados con dinero público. Datos producidos por ciudadanos, investigadores y trabajadores. Datos que ahora se integran en plataformas de inteligencia artificial para entrenar modelos, automatizar flujos de trabajo y acelerar descubrimientos. ¿Quién controla esos datos? ¿Quién decide qué se investiga, con qué prioridad y con qué fines?

Porque una cosa es usar inteligencia artificial en investigación y otra muy distinta es centralizar todo el conocimiento científico bajo una infraestructura tecnológica dirigida desde el poder ejecutivo y operada en colaboración con grandes empresas privadas.

El Departamento de Energía entra en escena

Nada de esto funciona sin energía. Mucha. Por eso no es casual que la misión esté liderada por el secretario de Energía, Chris Wright, y que se apoye en los laboratorios nacionales del Departamento de Energía (DOE), incluidos sus superordenadores y entornos de computación avanzada.

La orden ejecutiva establece incluso un plazo: en 90 días debe completarse un inventario de recursos computacionales y de red para iniciar operaciones. No hay improvisación. Hay planificación. Hay prisa.

La promesa es que la IA hará más eficiente la red eléctrica, reducirá costes energéticos y asegurará el dominio energético estadounidense. La realidad es que estamos hablando de centros de datos mastodónticos, consumidores voraces de electricidad, cuya gestión y propiedad rara vez queda en manos públicas.

Universidades, agencias… y empresas privadas

La narrativa insiste en la colaboración. Agencias federales, universidades, centros de investigación y empresas privadas trabajando juntos. Suena bien. Siempre suena bien. El problema es que, en este tipo de alianzas, el reparto de riesgos y beneficios suele ser obscenamente desigual. El sector público pone los datos, la infraestructura, la regulación favorable y el dinero. El sector privado pone la marca, captura la propiedad intelectual y cobra la rentabilidad futura. Los grandes beneficiados terminan siendo las grandes corporaciones tecnológicas. Empresas como:

  • OpenAI
  • Oracle
  • Palantir
  • Meta
  • X
  • Google
  • Amazon

…y otras se ven favorecidas mediante fondos, contratos gubernamentales y acceso privilegiado a datos que, en teoría, deberían ser públicos o regulados

Esto no es libre mercado. Es capitalismo subvencionado de alta tecnología. Una fórmula donde las empresas que todavía no son plenamente rentables encuentran en el Estado el respirador artificial perfecto. Curioso, lo que censuran a China, es fantástico para los Estados Unidos.

Hegemonía tecnológica y seguridad nacional

Todo esto se justifica con una palabra mágica: seguridad nacional. Y cuando la seguridad nacional entra en la conversación, la democracia suele salir por la ventana.

La inteligencia artificial se convierte así en un arma geopolítica. No en el sentido clásico, sino como instrumento de dominación económica, tecnológica y social. Quien controle la IA controla la innovación. Quien controle la innovación controla el crecimiento. Y quien controle el crecimiento dicta las reglas.

Europa: espectador de lujo, cliente cautivo y colonia digital

Europa merece un capítulo aparte. No por su liderazgo, que no existe, sino por su capacidad casi artística para quedarse siempre en tierra de nadie: ni potencia tecnológica, ni refugio de libertades digitales, ni alternativa real al modelo estadounidense o chino.

Mientras Estados Unidos lanza su Misión Génesis con orden ejecutiva, calendario, recursos y una narrativa de poder sin complejos, la Unión Europea sigue atrapada en su especialidad favorita: regular lo que no controla y moralizar sobre tecnologías que no desarrolla.

Aquí, cada anuncio europeo sobre inteligencia artificial viene acompañado de cifras mareantes, comunicados solemnes y palabras grandilocuentes: soberanía digital, autonomía estratégica, liderazgo ético. Luego rascas un poco y descubres que los centros de datos los gestionan empresas estadounidenses, las plataformas clave no son europeas, los modelos fundacionales vienen de fuera y los datos acaban viajando en nubes que no responden a Bruselas. Eso sí, regular, regulamos como nadie.

Europa ha decidido que, ya que no lidera la inteligencia artificial, al menos vigilará su uso. Y en ese camino ha entrado en una pendiente peligrosa donde la protección del ciudadano se confunde demasiadas veces con la obsesión por el control.

El caso más evidente es el viejo fantasma del Chat Control, ese proyecto que aparece y desaparece según la temperatura política, pero que nunca termina de morir. Escaneo masivo de comunicaciones privadas, debilitamiento del cifrado de extremo a extremo, eliminación progresiva del anonimato digital. Todo ello envuelto, cómo no, en la bandera de la lucha contra el crimen y la protección de los menores.

El problema es que no se puede defender la democracia erosionando sus fundamentos. Y el derecho a la privacidad, al secreto de las comunicaciones y al anonimato razonable no son caprichos de tecnófilos paranoicos: son pilares básicos de cualquier sociedad libre.

Mientras Estados Unidos y China compiten por quién domina la IA, Europa parece más interesada en vigilar a sus propios ciudadanos que en crear un ecosistema tecnológico propio capaz de competir. Nada de esto ocurre por casualidad. En el seno de la Comisión Europea existe desde hace tiempo una pulsión clara: reducir el peso de los Estados miembros, esquivar vetos incómodos y avanzar hacia un modelo de decisión cada vez más centralizado y menos transparente.

La tecnología es la excusa perfecta. Porque cuando se habla de digitalización, de seguridad y de inteligencia artificial, cualquier objeción puede despacharse como irresponsable, anticuada o populista.

La paradoja es evidente:
– Europa dice defender los derechos digitales. Pero impulsa normas que permiten el escaneo previo de mensajes privados.
– Dice apostar por la soberanía tecnológica. Pero entrega su infraestructura digital a empresas extranjeras.
– Dice proteger al ciudadano. Pero desconfía profundamente de él.

Centros de datos: España como terreno de conquista

España merece mención especial en este tablero. Nuestro país se ha convertido en uno de los destinos preferidos para la instalación de centros de datos. Buen clima para la refrigeración, suelo relativamente barato, incentivos públicos y una clase política encantada de cortar cintas. Lo que casi nunca se dice es quién controla esos centros, qué datos procesan, bajo qué jurisdicción real operan y qué beneficios dejan en el territorio más allá del titular de prensa.

La mayor parte de estas infraestructuras pertenecen o están gestionadas por grandes corporaciones tecnológicas estadounidenses. Es decir, alojamos la maquinaria, consumimos la energía, asumimos el impacto ambiental… y el valor añadido viaja fuera. Eso no es liderazgo digital. Es colonización tecnológica con acento amable. Uno lo sabe bien, aun cuando considera que alguna de esas infraestructuras vienen bien a nivel local. Ya me gustaría que tuvieran firma nacional como la que creo Telefónica en la vecina Alcalá de Henares hace años y termino vendiendo. Ya se sabe, sin levantas la cabeza… martillazo que te llevas.

El papel asignado a Europa: mercado, regulador y proveedor de datos

Si uno observa el mapa con frialdad, el papel que se le asigna a Europa en la nueva era de la inteligencia artificial es bastante claro:

  1. Mercado de consumo para tecnologías desarrolladas fuera.
  2. Regulador hiperactivo, más preocupado por el procedimiento que por la estrategia.
  3. Proveedor de datos, gracias a poblaciones digitalizadas, burocracias extensas y servicios públicos altamente informatizados.

Todo menos actor soberano.

Y lo más inquietante es que buena parte de la élite política europea parece cómoda con este papel secundario. Como si hubieran asumido que la innovación es cosa de otros y que a ellos les corresponde administrar consecuencias.

El riesgo es evidente: una Europa que no controla la tecnología, pero sí quiere controlar a la población; que depende de infraestructuras ajenas, pero legisla como si mandara; que habla de derechos mientras prepara herramientas que los erosionan.

En ese contexto, la convergencia entre inteligencia artificial, vigilancia masiva y dependencia tecnológica no es una distopía futura. Es un escenario en construcción. Y mientras tanto, el ciudadano europeo sigue creyendo que el problema está en Silicon Valley o en Pekín, sin mirar demasiado a Bruselas.

Para cuando volvamos a leer esto

Cuando dentro de dos o tres años vuelva a este texto, me gustaría equivocarme. Me gustaría encontrar una Europa que haya reaccionado, que haya invertido de verdad en tecnología propia, que haya defendido las libertades digitales con la misma vehemencia con la que defiende reglamentos. Pero la experiencia invita al escepticismo. Porque si algo ha demostrado la Unión Europea en las últimas décadas es que llega tarde a las revoluciones tecnológicas… y muy puntual a la hora de restringir libertades en nombre de causas nobles. Y en la era de la inteligencia artificial, ese puede ser un error que no tenga marcha atrás.


Aquí un resumen en PDF del texto.


Resume el artículo con tu IA favorita

Artículo anteriorLa tele nueva, Baltasar y el ojo que todo lo ve
Artículo siguienteLos engranajes de Occidente, de Fabián C. Barrio
Enrique Pampliega
Con más de cuatro décadas de trayectoria profesional, iniciada como contable y responsable fiscal, he evolucionado hacia un perfil orientado a la comunicación, la gestión digital y la innovación tecnológica. A lo largo de los años he desempeñado funciones como responsable de administración, marketing, calidad, community manager y delegado de protección de datos en diferentes organizaciones. He liderado publicaciones impresas y electrónicas, gestionado proyectos de digitalización pioneros y desarrollado múltiples sitios web para entidades del ámbito profesional y asociativo. Entre 1996 y 1998 coordiné un proyecto de recopilación y difusión de software técnico en formato CD-ROM dirigido a docentes y profesionales. He impartido charlas sobre búsqueda de empleo y el uso estratégico de redes sociales, así como sobre procesos de digitalización en el entorno profesional. Desde 2003 mantengo un blog personal —inicialmente como Blog de epampliega y desde 2008 bajo el título Un Mundo Complejo— que se ha consolidado como un espacio de reflexión sobre economía, redes sociales, innovación, geopolítica y otros temas de actualidad. En 2025 he iniciado una colaboración mensual con una tribuna de opinión en la revista OP Machinery. Todo lo que aquí escribo responde únicamente a mi criterio personal y no representa, en modo alguno, la posición oficial de las entidades o empresas con las que colaboro o he colaborado a lo largo de mi trayectoria.

2 COMENTARIOS

  1. Los centros de datos tendrán sed. Sed para refrigerarse. El consumo de agua puede ser muy notable. Yañez (2025) (ver link) indica que un centro de datos puede consumir al día el equivalente a una ciudad de 50.000 habitantes. También indica que al día en 2021 los centros de datos de EE. UU. consumen 449 millones de galones de agua por día, algo así como 1,7 hm3/dia (si no me he equivocado con el cambio de unidades) y al año unos 620 hm3, una burrada de agua que no podrían satisfacer ni varios acuíferos combinados y no hablemos de los caudales ecológicos de los ríos.
    Obviamente España no va a recibir los centros de datos de Europa, pero es un gasto de agua nuevo y brutal, a tener en cuenta en los Planes Hidrológicos.
    https://www.eesi.org/articles/view/data-centers-and-water-consumption

    • Sin duda, Doctor M., el agua es un factor crítico y conviene estar vigilantes, especialmente en un país como España donde el estrés hídrico no es una hipótesis sino una realidad recurrente. En eso coincidimos plenamente.

      Dicho esto, el debate necesita algo de precisión. España ya está recibiendo centros de datos, no es un escenario futuro. En mi propio municipio ya opera uno de Microsoft y hay otro en construcción de Pure DC. Como ocurre siempre, lo primero que se aseguran es la energía, hasta el punto de contar con subestaciones eléctricas propias.

      Con el agua ocurre algo que suele generar confusión: no es lo mismo uso que consumo. En muchos centros de datos el agua se emplea como fluido térmico, se calienta y se devuelve al sistema tras enfriarse dentro de los rangos permitidos. El consumo neto aparece sobre todo en diseños evaporativos. Otros modelos optan por refrigeración seca o circuitos cerrados, reduciendo de forma notable la presión sobre la cuenca.

      La clave no es hablar de una sed universal de la inteligencia artificial, sino analizar cada proyecto a escala de cuenca y exigir tecnologías compatibles con su realidad hídrica. Y, como siempre, Doctor, gracias por los comentarios, porque aportan, suman y ayudan a afinar el debate.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí