
21 ene 2025
Juan M. Aguilar
Especialista en Ciberseguridad, Seguridad Nacional y Seguridad Ciudadana. Se encuentra en X (antes Twitter) como @Travelerjm
El desarrollo de la inteligencia artificial (IA) en la última década ha cambiado radicalmente la manera en que los países abordan su seguridad nacional. Estados Unidos, China, Rusia y el Reino Unido, han creado estrategias específicas para integrar la IA en defensa, destacando su potencial tanto para fortalecer la seguridad interna como para redefinir el equilibrio de poder en la geopolítica global. La IA no solo permite incrementar la eficiencia y precisión en los sistemas de defensa, sino también proyectar poder e influencia a nivel internacional, un componente crucial en la competencia por el liderazgo tecnológico en el siglo XXI. En este artículo reviso los enfoques geopolíticos que han adoptado los países alrededor del mundo.
China: Ambición de Liderazgo Mundial
China fue el primer país en establecer una estrategia completa de IA orientada a la seguridad nacional y a la dominación tecnológica global. Su Next Generation Artificial Intelligence Development Plan, lanzado en 2017, establece una hoja de ruta para posicionar a China como líder mundial en IA para 2030. Este plan enfatiza la integración de IA en áreas críticas de defensa, como la autonomía de vehículos y la toma de decisiones estratégicas, que apuntalan su objetivo de alcanzar superioridad tanto militar como económica.
La estrategia china incluye la creación de centros de investigación en IA, una inversión significativa en capacitación de talento y políticas que fomentan la colaboración entre el sector público y privado. Al mismo tiempo, China apuesta por influir en la creación de normas y estándares internacionales sobre IA, buscando moldear las prácticas tecnológicas de otros países. Así, la IA en China se convierte en una herramienta de poder geopolítico y competitividad estratégica, que no solo asegura su defensa interna, sino que expande su influencia global, marcando un ritmo que otros países de Asia, como Singapur y Corea del Sur, han comenzado a emular.
Rusia: Robótica y Defensa Autónoma
Rusia, por su parte, ha adoptado un enfoque orientado a la robótica y la autonomía en sus estrategias de IA. En 2017, el presidente Vladimir Putin destacó la importancia de la IA como pilar de la supremacía militar, afirmando que “quien lidere en IA dominará el mundo”. Esta declaración refleja el enfoque de Rusia hacia el desarrollo de sistemas de defensa autónomos que reduzcan su dependencia en personal humano y mejoren la precisión en combate, además de permitir un tipo de combate automatizado que represente una ventaja estratégica.
Además, la IA en la estrategia de defensa rusa se extiende a la ciberseguridad y la guerra de información. Rusia ha sido pionera en operaciones de desinformación, utilizando IA para crear y distribuir propaganda automatizada, sobre todo en Europa del Este. La IA permite a Rusia generar bots y contenido falsificado que intensifican su influencia en la opinión pública de otros países, ampliando su poder geopolítico sin recurrir a métodos de guerra convencionales. Este despliegue de IA también abarca el desarrollo de drones y vehículos autónomos que pueden operar en entornos de alta amenaza, lo cual refuerza su capacidad de disuasión y amplía su influencia en regiones estratégicas como Oriente Medio.
Estados Unidos: Mantener la Superioridad Tecnológica
Estados Unidos ha seguido un camino diferente, enfatizando un marco ético y regulatorio para el uso de la IA en seguridad nacional. La estrategia comenzó en 2014 con la Third Offset Strategy, una iniciativa del Departamento de Defensa para garantizar que EE. UU. mantuviera su superioridad militar frente a sus rivales globales mediante la adopción de tecnologías disruptivas. En 2017, el Pentágono lanzó el Proyecto Maven, una iniciativa para emplear IA en la identificación de objetivos en zonas de conflicto. Este proyecto marcó un hito en la integración de IA en operaciones de combate, y dio paso a un programa más amplio que busca emplear IA en ciberseguridad, logística y control de sistemas autónomos.
La postura estadounidense frente a la IA refleja su interés en un desarrollo ético de la tecnología. Los legisladores han promovido debates sobre la necesidad de supervisión en el uso de IA, reconociendo sus riesgos. Así, EE. UU. busca no solo mejorar su eficacia militar, sino también evitar un uso indiscriminado de IA en operaciones militares. Este compromiso ético también se extiende a los foros internacionales, donde Estados Unidos ha defendido la creación de estándares de transparencia y explicabilidad en IA.
Reino Unido: Seguridad con Enfoque Ético
El Reino Unido, desde 2018, ha abordado el desarrollo de IA en seguridad nacional desde una perspectiva equilibrada entre innovación y derechos humanos. En 2020, el Government Communications Headquarters (GCHQ) encargó un estudio al Royal United Services Institute (RUSI) para evaluar los riesgos y beneficios de la IA en seguridad. Este informe subrayó la necesidad de una supervisión ágil y salvaguardas éticas, especialmente en aplicaciones de vigilancia y ciberseguridad.
La estrategia del Reino Unido resalta la importancia de la ética y la regulación, priorizando la transparencia en el uso de IA. El Reino Unido se posiciona como líder en la formulación de principios y normas sobre el uso de IA, buscando implementar regulaciones que respalden la privacidad y los derechos humanos en ciberseguridad y defensa. Así, la postura británica contrasta con las estrategias menos restrictivas de países como China y Rusia, que priorizan la vigilancia sin salvaguardas éticas.
Unión Europea: Liderazgo Ético en IA
La Unión Europea ha optado por una estrategia enfocada en la ética y confiabilidad de la IA. En 2019, la Comisión Europea lanzó las Ethics Guidelines for Trustworthy AI, un conjunto de principios para asegurar que la IA respete los derechos humanos y minimice el riesgo de discriminación. Estas guías también buscan proteger infraestructuras críticas y fomentar la ciberseguridad, estableciendo regulaciones claras para que los sistemas de IA sean seguros y éticos.
La UE trabaja con organismos internacionales para desarrollar estándares éticos de IA y evitar su mal uso en ciberseguridad, como en el caso de los “deepfakes”. En este sentido, la UE no solo protege a su región de amenazas digitales, sino que busca liderar en la creación de estándares globales para el uso ético de la IA en defensa y seguridad.
Japón y Corea del Sur: Respuesta a Tensiones Regionales
Japón y Corea del Sur también han integrado la IA en sus políticas de defensa, aunque en menor escala y con un enfoque en la cooperación. Japón, desde su estrategia de IA de 2017, ha priorizado la robótica y la ciberseguridad en áreas de defensa, colaborando estrechamente con Estados Unidos para el desarrollo de tecnologías de doble uso. Por su parte, Corea del Sur respondió a las tensiones regionales tras el éxito de AlphaGo de Google en 2016 con una inversión significativa en IA para aplicaciones de ciberseguridad y defensa.
A manera de conclusión
La carrera por dominar la IA en seguridad nacional no solo implica avances en defensa, sino que refleja un cambio en el equilibrio de poder a nivel global. Las diferencias en el enfoque hacia la ética y la regulación entre países como Estados Unidos y el Reino Unido, frente a la postura de China y Rusia, destacan cómo la IA redefine la seguridad global. La capacidad de los países para implementar salvaguardas éticas, supervisión y colaboración internacional determinará si la IA es un medio para la paz y la estabilidad o una fuente de tensiones y conflictos.
En esta nueva era tecnológica, cada nación deberá equilibrar cuidadosamente los beneficios de la IA con sus riesgos, promoviendo un entorno donde la innovación en seguridad esté alineada con principios de paz y derechos humanos. La IA, bien gestionada, tiene el potencial de fortalecer no solo la seguridad de cada nación, sino también la confianza y cooperación en el sistema internacional, un requisito vital para un futuro de paz y estabilidad.