Internacionales

Robots asesinos: la ONU fija plazo para frenar su avance

Mientras crece el uso de armas autónomas en guerras reales, el mundo sigue sin acordar límites para los llamados “robots asesinos”.

Foto: Ilustrativo.

Los conflictos actuales, como la guerra entre Rusia y Ucrania, están marcando un punto de no retorno: la inteligencia artificial ya no es una promesa, sino una herramienta de guerra real. En ese marco, los llamados robots asesinos —armas autónomas que pueden decidir cuándo y a quién atacar sin intervención humana directa— ya no son ciencia ficción.

Lo que está en discusión no es su existencia, sino si el mundo logrará detener su proliferación antes de que sea demasiado tarde.

Un problema ético y político

En 2026 vence el plazo que el secretario general de la ONU, António Guterres, fijó para que los países lleguen a un acuerdo que regule el uso de armamento autónomo. Guterres fue claro: estas armas son “políticamente inaceptables y moralmente repugnantes”.

Sin embargo, a pesar de una década de advertencias y campañas —como la impulsada por Human Rights Watch y personalidades como Elon Musk o Demis Hassabis— no hay consenso internacional.

Unite a nuestro canal de WhatsApp

Algunos países, como Estados Unidos, China, Rusia e India, prefieren avanzar con marcos normativos propios o confiar en las leyes existentes. Para ellos, regular podría significar renunciar a una ventaja estratégica.

Un tratado estancado

El escenario actual es complejo: las reuniones de la Convención sobre Armas Convencionales (CCW) llevan casi una década sin resultados vinculantes. Mientras tanto, más de 200 sistemas autónomos están siendo desplegados activamente en zonas de conflicto como Ucrania, Oriente Medio y África.

Expertos del Future of Life Institute advierten que, ante la ausencia de regulación, la proliferación es inevitable. Los “drones kamikaze”, por ejemplo, ya son una pieza clave en el conflicto ucraniano, tanto del lado ruso como ucraniano.

Una tecnología de doble filo

El dilema central no es solo tecnológico, sino profundamente ético. La naturaleza dual de esta tecnología —capaz de usarse con fines civiles y militares— dificulta establecer límites claros. ¿Dónde termina un dron agrícola y empieza un arma letal?

La reflexión del investigador Javier Jiménez sigue vigente: “Nadie va a ceder una baza militar estratégica por una cuestión ética”.

Negocio millonario, control incierto

El contexto económico tampoco ayuda: la fiebre por aumentar los presupuestos de defensa a nivel mundial alienta la inversión en tecnología bélica autónoma. Según activistas como Laura Nolan, de Stop Killer Robots, confiar en la autorregulación de la industria tecnológica y militar es una ilusión peligrosa.

“No hay razones para creer que las empresas de defensa sean más confiables que otras industrias”, advirtió Nolan.

Un futuro con reglas o sin control

El mundo tiene menos de dos años para actuar. Si no se establece un tratado vinculante y global antes de 2026, las armas autónomas podrían consolidarse como una norma en el campo de batalla, y no como una excepción.

Con cada mes que pasa, más sistemas letales se desarrollan, se perfeccionan y se despliegan. La tecnología ya está lista. Lo que falta es voluntad política.

Fuente: Xataka