La inteligencia artificial ha dejado de ser un mero avance tecnológico para convertirse en un asunto de seguridad nacional. Si hace unos años hablábamos de algoritmos capaces de recomendar películas o de automatizar procesos industriales, ahora nos enfrentamos a una nueva realidad: la posibilidad de que la IA supere la inteligencia humana en prácticamente todas las tareas cognitivas. Este escenario, que hasta hace poco parecía exclusivo de la ciencia ficción, está en el centro del informe Superintelligence Strategy: Expert Version, escrito por Dan Hendrycks, Eric Schmidt y Alexandr Wang.

El documento plantea una pregunta crucial: ¿qué pasa si una IA súper avanzada cae en las manos equivocadas? O peor aún, ¿qué ocurre si los propios gobiernos no pueden controlarla? No hablamos solo de automatización o productividad, sino de algo que podría cambiar el equilibrio de poder en el mundo. Una carrera descontrolada por la superinteligencia podría ser tan peligrosa como la proliferación nuclear en el siglo XX.

Si este tema te interesa, seguramente te sonará Paul Scharre y su libro «Four Battlegrounds: Power in the Age of Artificial Intelligence«, que ya comenté en IA y la batalla global: Four Battlegrounds de Paul Scharre. En él se explica cómo la IA está redefiniendo la guerra y el dominio global, un punto que el informe de Hendrycks, Schmidt y Wang lleva aún más lejos: la IA no es solo un arma, es el nuevo escenario de conflicto entre potencias.

The Future Of AI, According To Former Google CEO Eric Schmidt

Superinteligencia: un punto de inflexión en la historia

La IA avanza a una velocidad vertiginosa. Hace una década, nadie habría imaginado que herramientas como ChatGPT, DALL·E o los modelos de predicción médica podrían superar a expertos humanos en ciertas tareas. Ahora, muchos investigadores creen que la superinteligencia no solo es posible, sino inevitable.

El problema es que este avance no ocurre en un vacío. Como se discutió en otros post sobre guerra e inteligencia artificial, la IA no solo está transformando la economía y la sociedad, sino también la política y la defensa. Quien controle la IA más avanzada tendrá un poder sin precedentes.

El informe plantea tres estrategias clave para gestionar este nuevo escenario: disuasión, no-proliferación y competitividad. Veamos en qué consisten.

1. Disuasión: el equilibrio del terror en la era de la IA

En la Guerra Fría, el concepto de Mutual Assured Destruction (MAD) evitó un conflicto nuclear total. La idea era simple pero aterradora: si una superpotencia atacaba con armas nucleares, la otra respondería con igual o mayor fuerza, asegurando la destrucción mutua. Esto generó un frágil equilibrio que, hasta hoy, ha evitado el desastre.

El informe propone un concepto similar para la IA: Mutual Assured AI Malfunction (MAIM). ¿Qué significa esto? Que si un país desarrolla una superinteligencia sin control, otros podrían intervenir con sabotajes, ciberataques o incluso ataques físicos a los centros de datos para evitar que esa IA se convierta en una amenaza.

Parece una locura, pero ya estamos viendo cómo las grandes potencias se espían y bloquean mutuamente en este campo. Estados Unidos ha impuesto restricciones a la exportación de chips avanzados a China, mientras que China busca independencia tecnológica para no depender de Occidente.

Desde aquí ya he hablado ampliamente de la guerra cognitiva y guerra híbrida, y este informe lo confirma: la IA se ha convertido en un arma estratégica, y las reglas del juego están cambiando.

2. No-proliferación: evitar que la IA caiga en las manos equivocadas

Otro gran peligro es que la IA súper avanzada no solo sea usada por gobiernos, sino que pueda caer en manos de terroristas, cárteles o grupos extremistas. Un modelo de IA sin restricciones podría ser utilizado para:

  • Crear armas biológicas diseñadas para atacar poblaciones específicas.
  • Hackear infraestructuras críticas, como redes eléctricas o sistemas financieros.
  • Manipular la opinión pública a gran escala, con desinformación automatizada.

Para evitarlo, el informe sugiere medidas similares a las que se aplican a las armas de destrucción masiva:

  • Control de chips avanzados: restringir la exportación de procesadores específicos para evitar que se usen con fines malintencionados.
  • Monitorización de los centros de datos: asegurar que la capacidad de cómputo no se esté utilizando para proyectos peligrosos.
  • Evitar la filtración de modelos avanzados: impedir que los pesos de los modelos más potentes sean liberados en código abierto.

Esto se conecta con los debates sobre ciberseguridad y guerra híbrida que hemos explorado en Qtorb. En un mundo donde un solo hacker con acceso a una IA avanzada puede hacer un daño incalculable, controlar la proliferación de esta tecnología será clave para la estabilidad global.

Control de chips avanzados: restringir la exportación de procesadores específicos

Uno de los principales puntos de control en esta carrera por la superinteligencia es el acceso a los chips más avanzados. Como ya expliqué en el análisis de «La guerra de los chips» de Chris Miller, la supremacía en la fabricación de semiconductores es un factor clave para el dominio tecnológico global.

Estados Unidos ha impuesto restricciones estrictas a la exportación de chips de alto rendimiento a China, impidiendo que gigantes como NVIDIA y AMD vendan sus procesadores más potentes a empresas chinas. Esto es un intento directo de frenar el avance de la inteligencia artificial en China, que depende en gran medida de estos chips para entrenar sus modelos de IA más sofisticados.

Sin embargo, la fabricación de chips es un proceso globalizado y, como analizamos en en este post ASML, hay empresas clave en esta cadena de suministro. ASML, una compañía neerlandesa, es la única empresa del mundo capaz de fabricar las máquinas de litografía ultravioleta extrema (EUV) necesarias para producir los chips más avanzados. Si ASML no vende estas máquinas a China, su capacidad para fabricar chips de vanguardia se verá gravemente limitada.

Aquí es donde se cruza la guerra tecnológica con la estrategia de no-proliferación de la IA. Si los chips avanzados se restringen en su venta y distribución, el desarrollo de modelos de superinteligencia en ciertos países se ralentizará considerablemente. Sin embargo, China ya está invirtiendo miles de millones de dólares en desarrollar su propia industria de semiconductores, intentando reducir su dependencia de ASML y de las empresas estadounidenses.

El problema es que este enfoque no es infalible. Los chips avanzados se pueden adquirir de forma indirecta, mediante mercados negros o intermediarios en terceros países. Por eso, el informe de superinteligencia insiste en que es necesario un control estricto sobre la distribución y el uso de estos procesadores.

3. Competitividad: la batalla por el liderazgo tecnológico

El tercer pilar del informe habla de la competitividad. No basta con evitar que la IA caiga en manos peligrosas, también hay que garantizar que las naciones tengan acceso a ella para no quedar rezagadas.

Esto implica:

  1. Producir chips de IA a nivel nacional: depender de otros países para fabricar procesadores es un riesgo enorme.
  2. Regular el uso de la IA en defensa y seguridad: establecer normativas para evitar que la IA se utilice en armas autónomas sin supervisión humana.
  3. Evitar una crisis social por la automatización: si la IA reemplaza demasiados empleos demasiado rápido, podríamos ver una ola de inestabilidad política.

En China, EE.UU. y la batalla tecnológica ya analizamos cómo la IA está en el centro de la competencia entre potencias. Lo que el informe deja claro es que esta carrera no solo se trata de quién tiene la mejor tecnología, sino de quién puede usarla sin desestabilizarse a sí mismo.

¿Estamos preparados para lo que viene?

El informe «Superintelligence Strategy« no es solo un análisis académico, sino una advertencia: si no gestionamos bien la IA, podríamos enfrentarnos a una crisis global sin precedentes.

Esto nos deja con varias preguntas inquietantes:

  • ¿Podemos regular una tecnología que avanza más rápido que nuestras leyes?
  • ¿Cómo evitamos que la IA se convierta en un arma de desestabilización global?
  • ¿Podremos controlar la IA cuando supere nuestra propia inteligencia?

Llevo un tiempo explorando estas cuestiones, pero la sensación es clara: la batalla por la superinteligencia ya ha comenzado. No es ciencia ficción, no es un debate teórico. Es el futuro de la humanidad y se está decidiendo ahora mismo, en despachos gubernamentales, laboratorios y centros de datos de todo el mundo.

La pregunta no es si la IA cambiará el mundo. La pregunta es quién la controlará y con qué propósito.