Imprimir
Visto: 3266

 Robots asesinos: ¿ciencia ficción?

robots asesinos

Texto de Fèlix Badia

27/11/2016

http://www.magazinedigital.com/historias/reportajes/robots-asesinos-ciencia-ficcion

“Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño”. Primera ley de la robótica, en Yo robot (1940), Isaac Asimov

Cuando Isaac Asimov formuló, en los años cuarenta, las normas que regían el comportamiento de los robots de sus novelas, la ciencia ficción dio por hecho que esta sería la conducta de esas máquinas cuando fueran realidad. Pero, 70 años después, sus famosas leyes de la robótica parecen a punto de quedarse en el terreno de la fantasía. Especialistas en inteligencia artificial de Estados Unidos, China, Rusia y otros países están investigando sobre máquinas terrestres, marítimas y aéreas con capacidad para tomar, por sí mismas, la decisión de matar a soldados enemigos en el campo de batalla. Algunas informaciones sitúan esos ingenios en un futuro inmediato, mientras que otros científicos enfrían la perspectiva y no ven viable esa tecnología antes de veinte años. Pero la batalla que ya se ha iniciado es la ética y política: mientras sus partidarios defienden el concepto de guerra limpia y sin bajas –en su bando, por supuesto–, los detractores se organizan e intentan frenar en los foros internacionales a los que llaman robots asesinos.

La posible entrada en combate de los LAWS (sistemas de armas autónomas letales, en sus siglas en inglés) cambiaría de forma drástica la guerra en sí misma, algo que, de hecho, ya comenzó a ocurrir con la entrada en acción, a principios de la pasada década, de los drones, estos sí, controlados por un operador humano a distancia. Desde entonces, estas máquinas se han integrado ya en los ejércitos más importantes, mientras en paralelo la investigación ha seguido avanzando. Países como Estados Unidos, Israel, Rusia o Reino Unido desvelan continuamente nuevos prototipos que, aunque todavía necesitan un operador, cada vez pueden asumir más tareas de forma autónoma.

Desde la aparición de los primeros drones, la tecnología militar ha evolucionado de forma acelerada hacia la automatización de las armas; las máquinas con capacidad de tomar por sí mismas la decisión de matar parecen estar más cerca

Es en las operaciones aéreas donde la tecnología está más consolidada y es allí donde se producen más novedades. Israel, una potencia en este campo, ha diseñado el Harop, un dron suicida –suponiendo que se pueda llamar así a una máquina– capaz de hallar por sí mismo un objetivo para el que haya sido programado y destruirlo previa autorización de un operador (por ahora). La compañía estadounidense Northrop Grumman ha diseñado el X47-B, un avión no tripulado del tamaño de un caza capaz de repostar en pleno vuelo de forma automática, lo que, al menos en teoría, le permitiría mantenerse en el aire de forma indefinida.

Por su parte, Darpa, la agencia de investigación del departamento de Defensa de Estados Unidos, ha probado pequeños drones que vuelan en interior y que pueden detectar y evitar obstáculos sin intervención humana, mientras que la aviación estadounidense ha lanzado un programa para crear enjambres de pequeños drones interconectados entre sí en un plazo de veinte años. La Armada norteamericana hace dos años también experimentó con otro tipo de enjambre, pero en el mar, compuesto por lanchas rápidas. Y también en el mar, el Darpa tiene en fase de pruebas un barco sin tripulación, el Sea Hunter, que ha costado 120 millones de dólares y que está diseñado para cazar submarinos.

Por lo que respecta a armas terrestres, el pasado año, medios de Rusia afirmaban que ese país estaba avanzando rápidamente en la tecnología que permitiría que su tanque T14 Armata funcionara sin personal en su interior. Otros informes señalan que Corea del Sur tiene instalados en la zona desmilitarizada fronteriza con Corea del Norte robots que pueden detectar intrusos y disparar bajo supervisión humana, aunque algunas oenegés sugieren que podrían tener la capacidad de hacerlo de forma autónoma.

Son ejemplos de máquinas con sistemas de inteligencia artificial que las hacen capaces de tomar decisiones, coordinarse, recoger información e incluso aprender. Aunque aún no son máquinas totalmente autónomas, estos ingenios sí que hacen presagiar un salto tecnológico de gran envergadura en el campo militar. No se puede decir que sean armas secretas, porque el funcionamiento de la mayoría de ellas incluso se puede ver en YouTube. Por tanto, es de suponer que existen prototipos, estos sí secretos, todavía más avanzados con posibilidades aún más sorprendentes, y que, por tanto, los robots militares plenamente autónomos y con la inquietante capacidad para matar sin autorización humana pueden estar muy cerca, si no es que ya existen.


Pero Ramon López de Mántaras, director del Instituto de Investigación en Inteligencia Arficial del CSIC, y uno de los máximos expertos en este campo en España, es tranquilizador al respecto: “La realidad es que, en un horizonte de quince o veinte años, no parece que la tecnología vaya a estar a punto para que haya robots militares plenamente autónomos”. Es cierto que la tecnología ha avanzado, pero también lo es que aún hay importantes obstáculos que superar, sobre todo en cómo las máquinas recogen información y la interpretan.

Los expertos en inteligencia artificial ya advirtieron el año pasado en un documento sobre el riesgo de las tecnologías de inteligencia artificial aplicadas a la guerra

Un elemento clave como la visión artificial, por ejemplo, ha mejorado, pero todavía debería hacerlo mucho más para satisfacer las exigencias de la guerra robótica. “Un robot no puede señalar un arma sin señalar la persona que la utiliza, o incluso no puede discriminar lo que es un arma de lo que no lo es. Puedo imaginar una niña desintegrada porque le ha ofrecido su helado a un robot”, escribía en la prensa británica hace unos años el también especialista en inteligencia artificial Noel Sharkey, actualmente convertido en activista a favor del control de este tipo de armas.

“Pero es que, además –añade López de Mántaras–, ¿la máquina será capaz no ya de interpretar la imagen, sino de juzgar las intenciones de quien tiene delante?”. El constante goteo de muertos afroamericanos a manos de la policía estadounidense sin que representaran una amenaza real revela que esos juicios de intenciones no son fáciles ni siquiera para los humanos. ¿Y qué ocurriría con los tristemente famosos daños colaterales que se dan en todos los conflictos? ¿Es la máquina la que decidirá cuál es un daño colateral asumible y cuál no lo es? ¿Y qué pasa con el uso proporcional de la fuerza ante una amenaza?

Son preguntas que abandonan el terreno estricto del desarrollo tecnológico y se adentran en el debate moral. Por eso, López de Mántaras admite: “Puede que nos encontremos ante el primer problema ético de esta envergadura en la disciplina de la inteligencia artificial, y hay que abordarlo ya, porque que la tecnología no esté madura no quiere decir que no tengamos que estar prevenidos”.

Para el gran público, la cuestión se hizo un hueco informativo cuando, el pasado año, miles de científicos e investigadores firmaron una carta abierta pidiendo la prohibición de armas letales controladas por inteligencia artificial, los robots asesinos o LAWS. En esa carta, encabezada por tótems del mundo de la tecnología como el emprendedor de Silicon Valley Elon Musk (Tesla, Hyperloop), el astrofísico Stephen Hawking o el cofundador de Apple Steve Wozniak, se reconocía el enorme potencial de la inteligencia artificial para beneficiar a la humanidad, pero también se señalaba que “empezar una carrera armamentista en este tipo de arsenal es una mala idea, y debería ser prevenida por una prohibición de las armas ofensivas que estén más allá de un control humano significativo”.

Por supuesto, también hay expertos que defienden los LAWS. Ronald Arkin, uno de los científicos más mencionados entre los partidarios, asegura que la introducción de estos robots comportaría importantes beneficios. Las máquinas “pueden diseñarse sin emociones que nublen su juicio o que den como resultado la ira o la ­frustración en relación con la evolución de la situación en el campo de batalla”, escribía el pasado año Arkin. Añadía que estos robots no se verían ­afectados por la confusión ­propia de las acciones bélicas y que no actuarían por venganza o de forma desproporcionada, como en ocasiones sucede con los soldados de carne y hueso.

Aseguraba también que, en realidad, “podrían ser, con gran diferencia, mucho más precisos en su selección de objetivos que los militares humanos”, lo que, por tanto, implicaría menos bajas civiles, algo que, por otra parte, niegan en redondo sus detractores. Pero la gran ventaja de estas máquinas sería, como de hecho ya sucede hoy con los drones de combate, que no habría bajas humanas… en el bando que tenga los robots, por supuesto, porque es de suponer que existiría un abismo tecnológico entre quienes dispusieran de ellos y quienes no.

El hecho de que quien posea robots no tenga bajas humanas es uno de los elementos que más impulsarán esta tecnología, y, de hecho, eso ya sucede hoy con los drones controlados por operadores. “Se trata de una razón política –explica Jordi Calvo, investigador del Centre per la Pau Marià Delàs–, porque la opinión pública de los países avanzados no admite que sus soldados vuelvan en ataúdes, y con esta tecnología se evita este efecto; la guerra se vuelve aparentemente inocua”. Calvo, con un grupo de investigadores, publicó hace dos años un estudio en el que advertía que ya ahora los drones están banalizando los conflictos bélicos y están convirtiendo la guerra en un videojuego con víctimas ­reales.

En opinión de Pablo Aguiar, investigador del Institut Català Internacional per la Pau (ICIP), si desaparece ese ‘efecto ataúd’, “es posible que ciertos países abandonen sus prevenciones a ir a la guerra, lo que terminaría por provocar un incremento de los conflictos bélicos”. Si a eso se añade la presión de la industria, el famoso complejo industrial-militar del que hablaba Eisenhower, la previsión de un incremento del gasto militar en este campo y de una escalada de conflictos locales no parece descabellada.

Las máquinas de guerra totalmente autónomas plantean un serio problema ético, y muchos científicos reclaman que, si llegan, su uso sea considerado crimen de guerra

Una presión de la industria que se explica por las mareantes cifras de negocio que puede llegar a manejar el sector de la robótica militar. Se estima que el mercado de los drones militares –en este caso, los no autó­no­mos– puede acumular una facturación de algo más de 70.000 millones de dólares en todo el mundo durante la presente década. Pero cuando las cifras se refieren a los robots con más autonomía, son aún mayores. El Departamento de Defensa de Estados Unidos ha lanzado una iniciativa para promover la investigación de empresas privadas en este ámbito que tendría una dotación presupuestaria de 72.000 millones de dólares sólo para el año 2017.

Por una parte, una opinión pública favorable, o al menos neutra, y, por otra, un mercado con grandes posibilidades alimentan unos vientos que soplan a favor de los robots letales autónomos. Enfrente, sus oponentes han empezado hace unos años a organizarse. En el 2013, varias organizaciones no gubernamentales lanzaron la campaña Stop Killer Robots (Stop a los robots asesinos) para presionar ante los organismos internacionales y lograr frenar este tipo de armamento. La iniciativa está encabezada por organizaciones como Human Rights Watch –actualmente forman parte de ella 61 entidades– y por personalidades como Jody Williams, premio Nobel de la Paz por su trabajo en favor de prohibir las minas antipersona.

Jordi Calvo, cuya organización forma parte de la campaña, explica que la iniciativa tiene como objetivo final que este tipo de armas queden limitadas por la Convención sobre Ciertas Armas Convencionales, un tratado en el marco de la ONU y firmado por ahora por 121 países, que regula el armamento que “se considere causante de sufrimiento innecesario o injustificable para los combatientes o que pueda afectar a civiles de forma indiscriminada”.

Sin embargo, la negociación de los acuerdos internacionales es exasperantemente lenta, sobre todo cuando una parte de los países no son receptivos a la idea, aunque públicamente su discurso sea otro. El ideal sería conseguir para los robots asesinos un trato similar al de las armas químicas o al de las minas antipersona, es decir, que, tal como defiende López de Mántaras, su uso sea considerado un “crimen de guerra”.  Pero es difícil que los países con más peso en el ámbito internacional se comprometan a ello. Hasta la fecha, sólo 14 países han llamado a una prohibición preventiva, y ninguno de ellos es un actor de primera línea en la geopolítica internacional. El resto, en el mejor de los casos, se remite de forma difusa a normas del derecho internacional o a su propia legislación y señala que no son necesarias normas adicionales.

Las oenegés presionan para prohibir las nuevas armas, pero las grandes potencias no quieren perder margen de maniobra y muestran una posición difusa

Por lo que respecta a Estados Unidos, líder en la investigación en este terreno, el Departamento de Defensa emitió una directiva hace unos años en que señala que el desarrollo de robots bélicos tendrá en cuenta siempre “los niveles adecuados de juicio humano en relación con el uso de la fuerza” de las máquinas, pero no se define cuáles son esos “niveles adecuados”.

El próximo pulso se producirá entre el 12 y el 16 de diciembre próximos en Ginebra, con motivo de la quinta conferencia de revisión de la Convención sobre Ciertas Armas Convencionales. Puede que en esa reunión se apruebe crear un comité de expertos gubernamentales que estudien los LAWS durante el 2017, lo que en la práctica supondría la institucionalización del debate en la ONU, una tímida victoria de los opositores a los robots asesinos.

 “Es difícil –admite Calvo– alcanzar una prohibición generalizada, pero lo que sí es posible es despertar una conciencia colectiva que logre estigmatizar esta tecnología. Es algo similar a lo que sucede con las armas químicas, que existen, pero que primero fueron estigmatizadas por las sociedades, y con el tiempo acabaron prohibidas”. Pero, aunque sea difícil, Pablo Aguiar piensa que “es imprescindible que se actualicen los acuerdos internacionales, porque los actuales están pensados para unas guerras más antiguas”. “En cualquier caso, lo importante es que esta es la primera ocasión en la historia del movimiento para la paz en que las organizaciones empiezan a discutir sobre un armamento antes de que sea real”, señala.

En una cuestión tan sugerente e inquietante como esta, los supuestos pesimistas que estudian periodistas, oenegés y científicos caen a menudo en una espiral que lleva directamente a un hipotético Armagedón. “¿Pueden los robots militares tomar el control?”, se preguntaba el año pasado la MIT Technology Review. ¿Pueden los robots asesinos ser hackeados por organizaciones terroristas? “Parece difícil que una organización terrorista tenga los recursos para ello, unos recursos tecnológicos que sólo están en manos de los estados”, responde López de Mántaras. El científico prefiere centrar el debate en el punto nuclear de la cuestión: “La muerte en la guerra siempre es indigna, pero que te mate un robot es de una indignidad aún mayor”.