CienciaDestacadas

Geopolítica en la era de la inteligencia artificial.

Estrategia y poder en un futuro incierto de la IA

Por: Jake Sullivan y Tal Feldman. *

Todo el mundo tiene una teoría de la inteligencia artificial. Algunos creen que la tecnología avanza hacia la superinteligencia: una IA poderosa que traerá cambios épicos más allá de cualquier tecnología anterior. Otros esperan que aumente la productividad y el descubrimiento científico, pero que siga un camino más desigual y potencialmente menos dramático.

También hay gente que discrepa sobre lo fácil que es replicar los avances. Algunos argumentan que los rivales seguirán rápido (es decir, imitarán rápidamente), mientras que otros creen que alcanzar el ritmo será más lento y costoso, dando a los primeros en moverse una ventaja duradera. Y mientras muchos están seguros de que China está decidida a superar a Estados Unidos en la frontera, otros insisten en que se centra en el despliegue de tecnología existente mientras busca destilar y reproducir innovaciones estadounidenses de vanguardia una vez que aparezcan.

Todo argumento político seguro se basa en suposiciones ocultas sobre cuál de estas historias es cierta. Quienes priorizan la innovación de frontera asumen que los avances se acumularán y serán difíciles de replicar, mientras que quienes se centran en expandir los sistemas estadounidenses en el extranjero suelen asumir lo contrario. Si esas suposiciones son erróneas, las estrategias basadas en ellas desperdiciarán recursos y podrían costar a Estados Unidos su ventaja.

Apostar todo a una sola historia es tentador pero peligroso. Washington no necesita otra predicción sobre la era de la IA. Necesita una forma de tomar decisiones bajo incertidumbre—una que asegure la ventaja de Estados Unidos en múltiples futuros posibles y se adapte a medida que se manifiesta la era de la IA.

OCHO MUNDOS

Sea cual sea el futuro de la IA, la estrategia estadounidense debería comenzar con una definición clara de éxito. Washington debería utilizar la IA para fortalecer la seguridad nacional, la prosperidad generalizada y los valores democráticos tanto en casa como entre aliados. Cuando está alineada con el bien público, la IA puede impulsar el progreso científico y tecnológico para mejorar vidas; ayudar a abordar desafíos globales como la salud pública, el desarrollo y el cambio climático; y mantener y ampliar las ventajas militares, económicas, tecnológicas y diplomáticas estadounidenses frente a China. Estados Unidos puede hacer todo esto mientras gestiona de forma responsable los riesgos muy reales que genera la IA.

El reto es cómo llegar allí. Para hacer explícitas las suposiciones ocultas y probar estrategias frente a diferentes futuros, quienes piensen en la estrategia de IA deberían considerar un marco sencillo. Se basa en tres preguntas: ¿El progreso de la IA se acelerará hacia la superinteligencia o se estancará durante un periodo prolongado? ¿Serán fáciles copiarse los avances, o ponerse al día será difícil y costoso? ¿Y realmente China está corriendo hacia la frontera, o está destinando sus recursos a otros lugares bajo la suposición de que puede imitar y mercantilizar más adelante? Cada pregunta tiene dos respuestas plausibles. Considerar cada combinación da lugar a una matriz tridimensional: un diagrama 2×2×2 con ocho mundos posibles.

El primer eje es la naturaleza del progreso de la IA. En un extremo se encuentra la superinteligencia: una IA que supera con creces a los humanos y es capaz de superación recursiva, enseñándose a sí misma a ser cada vez más inteligente e inventando cosas nuevas cada vez más. En el otro extremo se encuentra inteligencia acotada y dentada: impresionantes aplicaciones científicas, económicas y militares, pero no una ruptura singular con la historia. Está limitado porque el progreso que logra llega a su límite, al menos durante un tiempo. Y es irregular porque es desigual; Los sistemas pueden alcanzar un rendimiento increíble en áreas como las matemáticas o la programación, pero tener dificultades con el juicio, la creatividad o ciertas aplicaciones físicas. Si el progreso conduce a superinteligencia, incluso una ventaja estrecha podría resultar decisiva, justificando inversiones masivas en la frontera. Si es limitado y irregular, canalizar recursos ilimitados hacia moonshots es menos atractivo que priorizar la adopción y la difusión.

El segundo eje es la facilidad para ponerse al día: el problema del seguimiento rápido. En un mundo, ponerse al día es fácil. Los avances se pueden copiar rápidamente mediante espionaje; pesos filtrados, en los que los parámetros internos de un modelo entrenado son robados o liberados; formación innovadora en hardware antiguo; o destilación modelo, en la que un sistema menos capaz se entrena para imitar a uno más avanzado. En el otro, ponerse al día es difícil: la capacidad de vanguardia depende de toda la pila tecnológica: hardware propietario, experiencia institucional, conjuntos de datos vastos y a menudo únicos, un ecosistema vibrante de talento y factores estructurales que no se pueden prever. El modelo, o capa de software, puede ser fácil de copiar, pero la calidad y escala del hardware, la infraestructura y el capital humano detrás de la formación y la inferencia pueden ser mucho más difíciles de reproducir. Cuando ponerse al día es fácil, el concurso se centra más en la difusión, incrustando sistemas estadounidenses en el extranjero antes de que los rivales puedan expandir los suyos. Cuando es difícil, la difusión sigue siendo importante, pero la estrategia pone mayor énfasis en defender los fundamentos subyacentes de la capacidad fronteriza—es decir, los insumos y el know-how que permiten que los avances se acumulen con el tiempo. A lo largo de todo el eje, la cuestión no es si la IA se extiende, sino con qué rapidez, a quién y en qué términos.

El tercer eje es la estrategia de China. En un extremo, Pekín corre agresivamente hacia la frontera, financiando grandes entrenamientos y laboratorios competidores. En el extremo opuesto, Pekín no está compitiendo, sino priorizando la adopción y la difusión y, ocasionalmente, produciendo grandes modelos para señalar progreso y motivar a Estados Unidos a centrarse en la frontera. Puede que China no tenga un plan nacional perfectamente coherente—de hecho, diferentes instituciones dentro del país pueden actuar de forma distinta—pero a nivel de sistema, el comportamiento de China seguirá pareciéndose a competir o no competir. Esta dimensión del marco se centra en China porque, actualmente, es el competidor dominante de Estados Unidos en la frontera. Si surgen otros actores, la matriz tendría que ajustarse para reflejar también su cálculo de carreras.

La realidad es, por supuesto, más complicada que cualquier diagrama. Se podrían añadir más ejes y cada eje podría tratarse como un espectro. China podría seguir un camino intermedio en la investigación y desarrollo fronterizo. Ponerse al día puede ser solo algo difícil. La IA puede ser realmente poderosa, pero aún así tener ciertas limitaciones. Aunque considerar resultados binarios puede facilitar la planificación estratégica, los responsables políticos aún pueden tener en cuenta las posibilidades intermedias pensando probabilísticamente a lo largo de cada eje. Una estrategia de inversión china parcial, por ejemplo, aumenta las probabilidades de que Pekín siga por poco a Estados Unidos o incluso cierre la brecha de forma inesperada.

Por último, las propias decisiones de los responsables políticos pueden influir en qué futuro de la IA surge, al menos en los márgenes. Las acciones de EE. UU. pueden dificultar o facilitar ponerse al día, especialmente al endurecer o relajar los controles de exportación. Si China corre o se contiene dependerá en parte de cómo Pekín juzgue el ritmo del progreso de la IA y la dificultad para ponerse al día. Aun así, al incluir la incertidumbre en el marco político, los responsables políticos al menos se verán obligados a enfrentarse a sus propias suposiciones y a planificar múltiples futuros en lugar de uno solo.

FUENTES DE PODER DE IA

Antes de centrarse en ese ejercicio de planificación, merece la pena hacer dos preguntas: ¿Quién realmente establece la estrategia de IA en EE. UU.? ¿Y qué herramientas tiene Washington para moldear la trayectoria de la IA? Al fin y al cabo, el gobierno no es dueño de los principales laboratorios del país ni decide qué construyen. No puede fijar objetivos de producción ni flujos directos de inversión como sí puede Pekín. Sin embargo, las decisiones políticas y la señalización de Washington influyen significativamente en el ecosistema de la IA, aunque sea de forma indirecta.

Muchas políticas estadounidenses equivalen a una subvención implícita para la industria nacional de la IA. Los controles de exportación y las restricciones de inversión han limitado el acceso de China a chips avanzados y al capital estadounidense. Han elevado el valor de las empresas estadounidenses y afines al limitar a sus competidores más fuertes y canalizar capital privado hacia ellos.

Las expectativas amplifican ese efecto. Cuando altos funcionarios describen el liderazgo en IA como una prioridad nacional, las empresas e inversores anticipan una elaboración de normas favorable, una simplificación administrativa y una coordinación más estrecha con el gobierno. Esas suposiciones influyen en cuánto riesgo asumen las empresas y dónde apuestan los inversores—quizá incluso más que una asignación presupuestaria del Congreso lenta en desplegar.

El apoyo directo de Washington complementa estas señales. Los créditos fiscales para investigación y desarrollo, las inversiones en infraestructuras, las subvenciones federales para investigación y una serie de decisiones del poder ejecutivo —sobre permisos, inmigración y mucho más— influyen colectivamente en dónde y cómo crece la capacidad de IA. Mientras tanto, la adquisición y la colaboración federal se están convirtiendo en una señal significativa de demanda a medida que las agencias comienzan a probar y adoptar sistemas de IA a gran escala. Si la difusión se vuelve tan estratégicamente importante como los avances en la frontera, Washington podría necesitar utilizar más herramientas a su disposición, ofreciendo a sus socios una alternativa de confianza a la pila de IA de Pekín y colaborando a través de instituciones como la Corporación de Financiamiento para el Desarrollo para financiar el despliegue en el extranjero en lugares que el mercado por sí solo no puede servir. Esto también incluye reflexionar sobre cómo deberían ser abiertos o cerrados los sistemas de IA estadounidenses. Estados Unidos debe decidir si confiar en modelos propietarios estrictamente controlados o promover alternativas de código abierto como forma de moldear la adopción global.

Aun así, el sector privado sigue siendo el motor de esta carrera, y sus incentivos no siempre están alineados con los intereses del país. Muchos laboratorios líderes en Estados Unidos apuestan por la superinteligencia, invirtiendo recursos a entrenamientos masivos en lugar de despliegue seguro o difusión generalizada. Algunos preferirían construir y operar la infraestructura para grandes sesiones de formación en el extranjero, atraídas por normas más flexibles, energía más barata y capital adicional. Gestionar esa tensión seguirá siendo una de las tareas más difíciles de Washington.

Los responsables políticos deberían tratar la IA no como una historia única, sino como un panorama cambiante.

La fortaleza de Estados Unidos nunca ha sido la planificación centralizada, sino desplegar una combinación de herramientas para dirigir un sistema descentralizado hacia objetivos compartidos. Crea incentivos políticos, moldea expectativas y motiva al capital hacia un propósito nacional. Cómo utilizar estas herramientas para mantener el liderazgo estadounidense en IA depende de qué futuro surja finalmente. Algunas políticas que tienen sentido en un escenario pueden ser contraproducentes en otro. Pero algunas prioridades se mantendrán en la mayoría de ellas: elementos centrales del poder nacional que probablemente requerirán la mayoría de las versiones del futuro de la IA, aunque su importancia relativa varía de un mundo a otro.

La capacidad de cómputo, o potencia de cálculo, sigue siendo la base de la capacidad de IA. El control sobre chips, centros de datos y la energía para hacerlos funcionar determina quién puede entrenar y desplegar los sistemas que marcan el ritmo del progreso. La robótica y la fabricación avanzada extienden ese poder al mundo físico, convirtiendo la inteligencia digital en capacidad productiva. Nada de esto perdura sin una sólida base industrial-científica. Estados Unidos necesita investigación básica tanto para avanzar en las tecnologías actuales como para explorar nuevos enfoques para el desarrollo de la IA; talentos, tanto locales como atraídos de todo el mundo; la capacidad de fabricación para construir a gran escala; y la energía que mantiene todo en marcha. Si las empresas de IA carecen de acceso suficiente a la energía eléctrica, en particular, ese cuello de botella podría limitar el progreso general.

La gestión de riesgos, a menudo considerada una limitación porque puede ralentizar el despliegue y limitar la experimentación, puede ser una fuente de estabilidad y legitimidad. Es lo que evita que la competencia colapse debido a una escalada no intencionada por accidentes, un uso deliberado indebido de sistemas de IA o la pérdida de control derivada del despliegue de sistemas cuyo comportamiento los humanos ya no pueden controlar de forma fiable. Igualmente importante es garantizar que los protocolos de seguridad y el apoyo político interno se desarrollen lo suficientemente rápido como para seguir el ritmo de los avances de capacidad. Algunos futuros dan a Washington margen para construir esa base; otros comprimen la línea temporal.

Luego está la cuestión de la difusión: la expansión y adopción de sistemas de IA en el extranjero. Los sistemas que arraigen decidirán qué valores e ideales de gobernanza definen el orden digital, y qué país o países obtienen más ganancias económicas y estratégicas. Pekín ya considera la gobernanza de la IA como una exportación estratégica, utilizando sus sistemas, estándares y plantillas regulatorias para moldear cómo otros países usan y supervisan la tecnología. Washington demuestra convicción sobre la difusión en teoría, pero aún no lo ha demostrado en la práctica.

Los aliados y socios de Estados Unidos son la última pieza crítica de este rompecabezas. Trabajar en conjunto con socios de confianza multiplica la capacidad estadounidense y mejora las probabilidades de que los sistemas democráticos—no los autoritarios—definan la forma de la era de la IA.

MUNDO UNO

Los tres ejes—superinteligencia frente a inteligencia acotada y dentada, facilidad frente a dificultad para alcanzar el avance de otro, y una China que corre hacia la frontera frente a una China que no—crean ocho mundos posibles. La tarea de los responsables políticos es completar esta matriz con una variedad de opciones políticas razonables en cada uno.

Primero, consideremos un mundo en el que la superinteligencia es alcanzable, la tecnología es difícil de imitar rápidamente y China va a toda velocidad. Este mundo parece y se siente como algo entre una carrera armamentística y una carrera espacial: la competición se convertiría en una lucha por alcanzar y asegurar la frontera primero. Las apuestas serían enormes. Quien desarrolle y controle los sistemas más avanzados podría obtener ventajas tecnológicas, económicas y militares duraderas. En el extremo de este escenario, algunos sostienen que una vez que comienza la mejora recursiva, la ventaja puede volverse auto-reforzante, haciendo que alcanzar un verdadero nivel no solo sea difícil, sino prácticamente imposible. Este marco trata esa posibilidad como el caso límite de «difícil de alcanzar» en lugar de asumirla como una línea base, y prueba la estrategia en consecuencia.

Estados Unidos podría tener que considerar un Proyecto Manhattan 2.0, que implicaría la movilización de recursos públicos, una coordinación extraordinaria entre gobierno e industria, y un nivel de secreto más típico de los programas militares, lo que podría requerir nuevas autoridades o un uso ampliado de la Ley de Producción de Defensa de 1950, que otorga al presidente una amplia autoridad para regular la industria con fines de defensa nacional. Tal esfuerzo obligaría a los responsables políticos a elegir entre centralizar el desarrollo en una sola entidad para asegurar una estricta supervisión de la seguridad o mantener la competencia entre múltiples laboratorios fronterizos bajo la suposición de que la experimentación paralela daría resultados más rápidos.

Bajo estas condiciones, Washington endurecería los controles de exportación hasta los límites de la exigibilidad. Cada capa de la cadena de suministro de semiconductores estaría sometida a regímenes más estrictos, y la coordinación con aliados sería esencial para evitar la elusión. Los pesos de los modelos (los parámetros numéricos que determinan cómo se comporta un sistema), los datos de entrenamiento y los centros de datos necesitarían ser reforzados contra el robo y el sabotaje.

La gestión de riesgos con China, basada en un interés compartido en evitar la pérdida del control humano sobre la superinteligencia, pasaría al centro del escenario. Cuanto más rápido avanzan los sistemas, mayor es la probabilidad de accidentes y escalada no intencionada, ya que los sistemas autónomos interactúan de formas que ninguna de las partes anticipa completamente. Una medida plausible sería un acuerdo de restricción mutua, limitando el desarrollo mientras tanto Pekín como Washington construyen sistemas de seguridad capaces de seguir el ritmo. Pero tal acuerdo sería frágil y difícil de mantener, dada la desconfianza mutua, los desafíos de verificación y los posibles beneficios de romper el acuerdo y avanzar rápidamente.

Como es difícil ponerse al día y el éxito de China no es inevitable en este mundo, Estados Unidos podría encontrarse con una ventana estrecha en la que haya alcanzado primero la superinteligencia. En ese momento, Washington se enfrentaría a una decisión: si tomar medidas para impedir que otros alcancen la misma capacidad. El escenario contrario es igualmente importante: si Pekín llega primero a la frontera, Washington tendría que estar preparado para gestionar y mitigar los daños. Y si ambas potencias cruzan el umbral, tendrían que reducir el riesgo con barreras claras, comunicación y moderación, al tiempo que trabajan para evitar la pérdida de control y la adopción de la superinteligencia por parte de estados rebeldes o actores no estatales.

MUNDO DOS

En otro mundo, la superinteligencia sigue siendo alcanzable y sigue siendo difícil ponerse al día con las nuevas tecnologías, pero China no está corriendo hacia la frontera. Este escenario supone que Estados Unidos logra un momento unipolar de IA. Incluso si Pekín siguiera una estrategia de inversión parcial en la frontera, la dificultad de ponerse al día prácticamente garantizaría que Estados Unidos se mantuviera solo en la cima tecnológica, con una verdadera oportunidad de definir la estructura del mundo que siguiera. La cuestión central dejaría de ser cómo ganar la carrera, sino cómo ejercer y gestionar una ventaja.

A nivel industrial, el desarrollo de la IA podría avanzar a un ritmo más medido. Aunque el gasto en I&D debería mantenerse lo suficientemente elevado como para alcanzar la superinteligencia, probablemente no sería necesaria una movilización al estilo del Proyecto Manhattan. Estados Unidos tendría que mantener la frontera segura—protegiendo los pesos de los modelos, el cálculo y el talento clave—mientras permitía que el ecosistema de innovación operara de forma dinámica. Cabe destacar que, a medida que el mercado madura y algunas empresas de IA fracasan, China no debería poder comprar su propiedad intelectual.

Este futuro pondría nerviosos a muchos otros países. Concentrar tal poder transformador en un solo país generaría dudas sobre si Washington lideraría de forma responsable o perseguiría un interés nacional más limitado. La tarea de Estados Unidos sería construir y mantener un orden democrático de IA que genere confianza en el liderazgo estadounidense en la frontera—una tarea similar a la que se enfrentó Washington en 1945, pero mucho más difícil en el panorama político y geopolítico actual. Sin un rival inmediato al borde de la superinteligencia, Estados Unidos podría ejercer con mayor comodidad una contención unilateral, marcando el ritmo de los esfuerzos de desarrollo fronterizo para garantizar que la seguridad se mantenga al día. La difusión sería estratégica y selectiva: extender el acceso seguro a aliados y socios mientras se previene la proliferación descontrolada.

A nivel interno, Estados Unidos podría centrarse en construir un nuevo contrato social. Si la IA ofreciera enormes ganancias en productividad y capacidades, el reto se centraría en canalizar esos avances hacia una prosperidad generalizada, al tiempo que se refuerza la resiliencia de la sociedad ante las disrupciones impulsadas por la IA. Una regulación sensata garantizaría seguridad y responsabilidad sin frenar el progreso.

Por supuesto, este momento unipolar no estaría garantizado para ser permanente. Si Estados Unidos alcanzara la superinteligencia, China probablemente entraría en modo de carrera de la noche a la mañana, y otras potencias no permanecerían inactivas mucho tiempo. Washington tendría que decidir cómo responder y cómo usar su posición para moldear cómo y dónde se difunde la tecnología.

MUNDO TRES

Una tercera posibilidad es un mundo de proliferación total: se puede alcanzar la superinteligencia, es fácil alcanzarla y China va avanzando a toda velocidad. Los avances se acumularían rápidamente, pero copiarlos también sería rápido. En este mundo, la tarea de Estados Unidos sería menos sobre la contención y más con la resiliencia, es decir, preparar los sistemas nacionales de ciberseguridad, bioseguridad, infraestructuras y defensa para resistir toda la gama de amenazas habilitadas por IA.

Si correr o seguir rápido se convertiría en una elección estratégica. Si los avances proliferaran rápidamente, la ventaja de llegar primero a la frontera podría ser efímera, pero dejar que otros lleguen primero, aunque fuera por un corto periodo, seguiría creando una ventana significativa de vulnerabilidad. Y si el progreso seguía aumentando rápidamente, llegar primero importaría aún más, porque el que avanzaba temprano empezaría a subir la curva primero. El camino óptimo más probable sería competir de forma defensiva, manteniendo un alto gasto en I&D y capacidad fronteriza mientras se combinan los avances con nuevas capas de seguridad y resiliencia.

El propio ecosistema de innovación se enfrentaría a estrés. Un único campeón nacional aportaría poco valor de seguridad, ya que lo que construya sería copiado rápidamente, y mantener a muchas empresas privadas que trabajan en tecnología de vanguardia sería difícil si los inversores ven cómo los beneficios desaparecen a medida que las innovaciones se copian rápidamente. Muchas de estas empresas fracasarían a medida que la superinteligencia se convirtiera en una mercancía. Las empresas que innoven para construir mejores modelos de negocio y capturar valor tendrían éxito, pero las que innoven para construir mejores modelos de IA pueden no lograrlo.

La gestión de riesgos cobraría importancia, y no solo en lo que respecta a la gestión de escaladas y errores de cálculo. Para mitigar la amenaza de proliferación descontrolada para actores no estatales y estados rebeldes, Estados Unidos tendría que construir nuevas capas de cooperación global, tanto con aliados como con China, para ralentizar o impedir que actores irresponsables accedan a la tecnología. Aunque un acuerdo conjunto de contención entre EE.UU. y China seguiría siendo difícil de hacer, la conciencia de ambos países sobre el aumento del peligro en este escenario podría hacer que un acuerdo sea más viable.

Los controles de exportación podrían seguir siendo útiles, pero su efectividad dependería de por qué es fácil ponerse al día. Si China desarrollara una pila de cómputo alternativa viable, entonces los controles de chip se volverían prácticamente inútiles y la competencia se desplazaría hacia el despliegue global. Si la facilidad para ponerse al día se debiera a otros factores (como la destilación de modelos, el robo o la rápida expansión de nuevos algoritmos y conocimientos prácticos), entonces los controles de chips serían menos atractivos que en otros escenarios, pero seguirían siendo útiles como herramienta para ganar tiempo y ralentizar la difusión.

MUNDO CUATRO

Si se lograra superinteligencia, alcanzar el terreno fuera fácil y China no estuviera corriendo, Estados Unidos se encontraría en una ventana unipolar fugaz. Estados Unidos podría alcanzar la superinteligencia artificial primero, pero otros podrían seguirlos rápidamente una vez que comenzaran a correr. Con China sin intentar innovar demasiado rápido, la lógica de contener un gran avance hacia la frontera sería algo más convincente, especialmente si hacerlo pudiera evitar el escenario de proliferación total. Aun así, ese camino sería arriesgado: China podría competir en secreto o otro actor podría avanzar más allá de las capacidades estadounidenses.

Si Estados Unidos siguiera compitiendo, tendría que decidir cómo usar su liderazgo. Washington podría intentar usar la estrecha ventana para bloquear que otros lleguen a la frontera. Alternativamente, podría utilizar incluso un breve periodo de superinteligencia indiscutible para fortalecer sus propias defensas y las aliadas y trabajar para implementar salvaguardas contra la pérdida de control y escenarios de proliferación ilimitada.

Como Pekín no competiría, probablemente seguiría una estrategia diferente, posicionándose para convertir en mercancías los avances estadounidenses, integrando sistemas chinos a nivel global mediante exportaciones de IA de bajo coste y conectando la IA con el mundo físico mediante la robótica. Eso haría que la difusión fuera un concurso importante. Estados Unidos tendría que invertir en robótica y fabricación avanzada para traducir los avances digitales en aplicaciones físicas e industriales y actuar con decisión para expandir sistemas seguros y democráticos al extranjero antes de que China llenara ese vacío.

MUNDO CINCO

La superinteligencia ya no está sobre la mesa en el siguiente conjunto de mundos posibles. En uno de estos escenarios, es difícil alcanzar tecnologías revolucionarias, y China está corriendo hacia la frontera. Estados Unidos y China entrarían en una carrera de innovación agotadora. Aunque las apuestas serían altas, serían menores que en los escenarios de superinteligencia. Seguiría siendo importante invertir en I&D, aunque no sea en niveles de emergencia, y apoyar ese gasto con una política industrial a largo plazo que construya robótica duradera y capacidades de fabricación avanzada. Los responsables políticos tendrían que tener en cuenta que los mercados a menudo subestiman los puntos de inflexión: los inversores pueden entrar en pánico y declarar una «burbuja» antes de que la IA alcance su máximo potencial, o pueden seguir gastando mucho después de que la tecnología haya madurado. La gestión de riesgos tendría que centrarse menos en la pérdida de control y más en el mal uso en aplicaciones biológicas, cibernéticas o militares.

La importancia de la difusión y el despliegue aumentaría significativamente. Estados Unidos tendría que impulsar una adopción agresiva de la IA en la industria nacional y el ejército y actuar rápidamente para expandir los sistemas estadounidenses y aliados al extranjero. Incluso los modelos no fronterizos —cuando están bien integrados, a precios económicos o combinados con una infraestructura robusta— podrían captar una cuota de mercado masiva, como bien sabe Pekín por experiencia pasada. La seguridad de los modelos y centros de datos seguiría siendo importante, ya que ponerse al día no sería trivial, y los modelos de frontera seguirían siendo esenciales para asegurar los sistemas estadounidenses y aliados, pero la tarea principal sería poner en uso generalizado los sistemas capaces desde el principio, construyendo familiaridad y dependencia antes de que las alternativas chinas se afianzaran. Los controles de exportación seguirían siendo valiosos para frenar el avance de China, pero Estados Unidos tendría que ser cuidadoso de no obstaculizar el despliegue en el extranjero.

MUNDO SEIS

En un mundo sin superinteligencia, donde ponerse al día es difícil y donde China no está compitiendo, Estados Unidos tendría una cómoda ventaja y una ventana significativa para consolidar su presencia, utilizando la IA para desarrollar nuevos medicamentos que salvan vidas, ampliar la educación y revitalizar las industrias estadounidenses rezagadas. China no abandonaría necesariamente por completo la IA, pero Pekín limitaría tanto su inversión en el desarrollo de modelos de frontera que, efectivamente, quedaría fuera de la carrera por capacidades de vanguardia. En cambio, China se centraría en las aplicaciones y en la comercialización de los avances estadounidenses. Mientras tanto, Washington podría centrarse en la seguridad, la responsabilidad y garantizar que los avances impulsados por la IA se traduzcan en prosperidad generalizada.

A nivel internacional, Estados Unidos tendría espacio para desarrollar una visión positiva de un mundo impregnado de IA, dando la bienvenida a sus socios en su ecosistema de IA y ofreciendo acceso a modelos, datos e infraestructuras, pero manteniendo los elementos críticos anclados en casa. El objetivo no sería difundir los sistemas estadounidenses lo más ampliamente y rápidamente posible, sino asegurar que los sistemas que se difunden sean seguros y estén alineados con los valores democráticos.

MUNDO SÉPTIMO

El penúltimo escenario muestra una IA limitada y desigual, una rápida recuperación y China corriendo hacia la frontera. En este mundo, Estados Unidos y China libran una carrera de difusión. Como los avances serían fáciles de imitar, ningún país podría monopolizar la inteligencia por mucho tiempo; La ventaja vendría de desarrollar y comercializar más rápido que los rivales.

El capital privado sería más difícil de controlar. Si la tecnología fuera fácilmente copiable, los inversores probablemente invertirían menos, viendo poco retorno defendible. Pero Estados Unidos aún tendría que disputar la carrera; los sistemas que se difunden primero moldearían el entorno global y deberían reflejar los valores de Estados Unidos. Y como China estaría a toda velocidad, Estados Unidos tendría que innovar al mismo ritmo o más rápido para evitar que Pekín comprometiera las ventajas estadounidenses de ciberseguridad, bioseguridad y militar e inteligencia.

La difusión no solo se convertiría en un componente de la estrategia de IA, sino en un pilar central de la política exterior estadounidense. China ya impulsa sistemáticamente su tecnología en mercados extranjeros, a menudo incluyéndola en financiación y proyectos de desarrollo a gran escala. Estados Unidos tendría con razón serias preocupaciones sobre permitir que la infraestructura digital mundial se construya sobre modelos chinos que puedan exfiltrar datos, monitorizar comunicaciones y llevar a cabo operaciones de influencia de gran alcance. Washington tendría que integrar la difusión de la IA en su arte de gobernar, ampliando el alcance y el capital desplegable de instituciones como la Development Finance Corporation para ayudar a empresas estadounidenses y aliadas a construir centros de datos, redes y sistemas regionalmente adaptados en todo el mundo. Eso requeriría un liderazgo estadounidense centrado no en el beneficio a corto plazo, sino en lograr un mundo que dependa mucho más de los sistemas estadounidenses que de los chinos.

Si copiar fuera fácil y la proliferación inevitable, el secreto ofrecería poco retorno. La mejor opción podría ser abrir el código o licenciar ampliamente versiones seguras de sistemas clave, asegurando que se ejecuten en plataformas estadounidenses o aliadas en lugar de en plataformas adversarias. En este mundo, los controles de exportación ofrecerían menos beneficios y en algunos casos extremos incluso podrían socavar la carrera de difusión porque China podría eludirlos de forma fiable replicando rápidamente tecnologías estadounidenses.

MUNDO OCHO

En el mundo final, la IA se parecería a muchas de las grandes tecnologías del pasado. Estados Unidos lideraría en innovación, pero los avances serían fáciles de imitar. Este aprovechamiento haría que la inversión privada para grandes empujes fronterizos fuera más difícil de movilizar y, sin que China corriera, la justificación de seguridad nacional para el gasto público sería menos abarcadora. En cambio, la inversión en IA seguiría a los ingresos proyectados por difusión. Los modelos de código abierto probablemente dominarían.

La carrera por el liderazgo en IA también sería principalmente una carrera por la difusión. Se parecería a competiciones anteriores, como la de 5G, que estaba impulsada por el despliegue y la escala. La tarea de Washington sería asegurar que los sistemas estadounidenses y aliados de confianza se conviertan en la infraestructura predeterminada para la industria global, dejando menos espacio para que Pekín establezca una alternativa viable y de bajo coste.

DE ESCENARIOS A ESTRATEGIA

La estrategia en la era de la IA se tratará menos de predecir un único resultado o una política correcta y más de pensar en probabilidades. Para aprovechar esta matriz, los responsables políticos deberían empezar seleccionando un caso base: el mundo que creen que es más probable. Cada propuesta política importante debería evaluarse en función de ese caso base: ¿Tiene sentido la política en el mundo en el que uno cree que está? Los responsables políticos también deben determinar qué se puede hacer para evitar o mitigar los peores resultados posibles en los mundos donde Estados Unidos está más expuesto y las apuestas son más altas, como en el Mundo Uno, aunque no consideren que esos mundos sean los más probables. A partir de ahí, deberían cubrirse, alineando la estrategia con el caso base y también haciéndola resistente en los mundos más desafiantes. Eso significa identificar qué políticas funcionan en múltiples mundos, cuáles pueden revertirse si el futuro previsto cambia, y cuáles serían perjudiciales si el caso base resulta ser falso.

Para cada uno de los ocho mundos, el gobierno debería tener un plan listo para ejecutar que pueda adaptarse a medida que cambien las condiciones. Eso requiere que las instituciones piensen de forma probabilística. El Consejo de Seguridad Nacional debería usar la matriz para poner a prueba la política estadounidense frente a futuros alternativos. Y la comunidad de inteligencia debería seguir señales de movimiento a lo largo de los tres ejes (como el ritmo de progreso en la frontera, la velocidad con la que se replican nuevas capacidades o los cambios en la inversión china) y actualizar las probabilidades de cada futuro en consecuencia. Los altos cargos de seguridad nacional deberían estar preparados para recomendar ajustes en las políticas cuando empiece a parecer que es más probable que se produzca un mundo diferente. La tarea no es hacer predicciones perfectas, sino equilibrar riesgo y recompensa, ajustar prioridades a medida que cambian las probabilidades, redibujar la matriz según lo requieran las circunstancias y establecer los sistemas y procesos para hacer estas cosas.

Este marco no es solo para los responsables políticos. También ofrece una forma práctica para que cualquiera participe en debates sobre IA y geopolítica. Estas discusiones con demasiada frecuencia terminan con dos bandos hablando sin que se entiendan; Podrían volverse más productivos si los participantes determinan qué futuro se está asumiendo. ¿Se espera que la IA avance hacia algo transformador o se estanca? ¿Se extenderán los avances rápidamente o seguirán siendo difíciles de replicar? ¿Y China está corriendo hacia la frontera o posicionándose para seguirla y convertirla en mercancías? Plantear estas preguntas y mapear el argumento de cada parte en la matriz a menudo revela si los desacuerdos realmente residen en las recomendaciones políticas o en futuros asumidos.

El objetivo de este marco no es predecir el mundo final, sino disciplinar la estrategia ante la incertidumbre—hacer explícitas las suposiciones y ponerlas a prueba frente a alternativas. El marco también está pensado para evolucionar. Hay más dimensiones en la evolución de la IA que los tres ejes presentados aquí; Algunas de las preguntas que hoy parecen más pertinentes podrían finalmente resolverse, y surgirán nuevas. Si se hace evidente que la superinteligencia está al alcance, por ejemplo, la posibilidad de un avance más limitado se volverá irrelevante, y la matriz podría presentar un nuevo eje que considere dos nuevas posibilidades: la superinteligencia beneficiosa y la superinteligencia peligrosa. Los actores distintos a China también podrían volverse más importantes a medida que el panorama tecnológico cambie. Lo que importa es contar con un marco político que pueda adaptarse a medida que se acumulan pruebas.

La geopolítica en la era de la IA no será sencilla. Pero sin una forma disciplinada de pensar, la estrategia colapsará bajo el peso de supuestos y agendas ocultas. Al mapear mundos posibles y las opciones que exigen, este marco ofrece una forma de ver a través de la niebla. La tarea para los responsables políticos ahora es clara: tratar la IA no como una historia única, sino como un panorama cambiante. Si los líderes estadounidenses aprenden a pensar así, definirán la era de la IA que surja. Si no, otros lo harán por ellos.

*JAKE SULLIVAN es profesor Kissinger de Práctica de la Diplomacia y el Orden Mundial en la Harvard Kennedy School. Fue asesor de seguridad nacional de EE. UU. de 2021 a 2025.

TAL FELDMAN es candidato a J.D. en la Facultad de Derecho de Yale y anteriormente desarrolló sistemas de IA para el gobierno de EE. UU.