El gobierno de China emitió una contundente advertencia sobre los peligros que implica la utilización de la inteligencia artificial (IA) en el ámbito militar, señalando que su implementación sin un marco regulatorio adecuado podría desencadenar un escenario “apocalíptico”. Durante una conferencia internacional sobre seguridad tecnológica, funcionarios del Ministerio de Relaciones Exteriores chinos alertaron que “los algoritmos aplicados a armamento autónomo podrían tomar decisiones letales sin intervención humana”.
La actual guerra en Medio Oriente pone de manifiesto la creciente relevancia de la inteligencia artificial en los conflictos armados, especialmente en tareas como el análisis de información y la selección de objetivos. Sin embargo, la fiabilidad de estos sistemas y su rol en la toma de decisiones para ataques siguen siendo motivo de intensos debates a nivel global.
Especialistas en estrategia militar coinciden en que la principal preocupación radica en los llamados sistemas de armas autónomas letales, que pueden identificar objetivos y ejecutar ataques sin órdenes directas de un operador humano. El analista militar chino y coronel mayor retirado Zhou Bo explicó que la incorporación de IA en drones, misiles o plataformas de combate puede reducir los tiempos de decisión a milisegundos, lo que incrementa el riesgo de “errores catastróficos”.
Las autoridades chinas destacan que el peligro no se limita a la capacidad destructiva de estas tecnologías, sino que también reside en la ausencia de marcos regulatorios internacionales que limiten su uso. Lin Jian, portavoz de la cancillería china, señaló que “si la inteligencia artificial se utiliza de forma irresponsable en el ámbito militar, el resultado podría ser catastrófico. Debemos evitar que la tecnología se convierta en una herramienta que desencadene un apocalipsis”. Además, advirtió que “sin reglas claras, la humanidad podría enfrentarse a una nueva forma de guerra dominada por máquinas”.
Lin Jian enfatizó que “las máquinas no deben decidir el destino de los seres humanos” y convocó a la comunidad internacional a actuar con urgencia para impedir que “los algoritmos se conviertan en los árbitros de la guerra”. Un problema central es la falta de transparencia en los algoritmos de “caja negra”, que impide comprender por qué una máquina tomó la decisión de disparar, generando un vacío en la responsabilidad jurídica. El profesor Noel Sharkey explicó que “no hay forma de responsabilizar a una máquina por una violación de las leyes de la guerra”.
En este contexto, Beijing impulsa el desarrollo de normas internacionales que restrinjan el uso de sistemas autónomos letales y aseguren que las decisiones críticas en el campo de batalla permanezcan bajo control humano. Estas advertencias se inscriben en un debate global que gana cada vez más relevancia, dado que organismos internacionales y centros de investigación en seguridad advierten que el rápido avance de estas tecnologías podría desencadenar una nueva carrera armamentista entre potencias mundiales.
Frente a este panorama, las autoridades chinas reiteraron su llamado a promover acuerdos multilaterales que establezcan límites claros al uso de armas autónomas y garanticen la supervisión humana en las decisiones de combate, buscando evitar así un futuro dominado por conflictos tecnológicos sin control.





