New York Times
Actualizado: 21/03/2013 | Por Bill Keller, www.nytsyn.com

Comentario: Aviones teledirigidos inteligentes



Si usted encuentra preocupante la utilización de aviones de combate no tripulados y piloteados en forma remota, imagine que la decisión de matar a un presunto enemigo no la toma un operador en una distante sala de control, sino la máquina misma. Imagine que un robot aéreo estudia el paisaje abajo, identifica actividad hostil, calcula que existe un riesgo mínimo de daño colateral y, entonces, sin que ningún humano esté informado, jala del gatillo.

Bienvenidos al futuro de la guerra. Mientras los estadounidenses debaten el poder presidencial para ordenar el asesinato mediante aviones teledirigidos, un poderoso impulso – científico, militar y comercial – nos empuja hacia el día en el que cedamos la misma autoridad letal a un programa informático.

En abril, varias organizaciones de derechos humanos y control de armamento se reunirán en Londres para presentar una campaña para prohibir los robots asesinos antes de que salten de la mesa de diseño. Los partidarios de la prohibición incluyen a muchas de las mismas personas que lograron conformar un consenso del mundo civilizado contra el uso indiscriminado de minas terrestres incapacitantes. Esta vez, están asumiendo el problema más complicado al que se haya enfrentado el control de armas.

Los argumentos en contra de desarrollar armas totalmente autónomas, como se las llama, van desde los morales (“Son malignas”) hasta las técnicas (“nunca serán tan inteligentes”) y las viscerales (“son escalofriantes”).

“Esto es algo que pareciera que las personas sienten que está mal a un nivel visceral”, comenta Stephen Goose, el director de la división de armas de Human Rights Watch, que ha asumido un destacado papel en la impugnación de la deshumanización de la guerra. “El factor ugh se manifiesta realmente fuerte”.

Algunos expertos en robótica dudan que una computadora pueda alguna vez ser confiable en la distinción entre un enemigo y un inocente, ya no digamos determinar si una carga de explosivos es la respuesta correcta o proporcional. ¿Qué pasaría si el blanco potencial ya está herido o trata de rendirse? Y, aun si la inteligencia artificial logra o supera una competencia a nivel humano, los críticos señalan, nunca podrá hacer acopio de compasión.

Noel Sharkey, un informático teórico en la Universidad de Sheffield y presidente del Comité Internacional para el Control de Armas Robóticas, cuenta la historia de una patrulla estadounidense en Irak que se topó con un grupo de insurgentes, apuntaron sus rifles, luego, se dieron cuenta de que los hombres llevaban a cuestas el ataúd en un funeral. Haber matado a los dolientes podría haber hecho que toda una aldea se pusiera en contra de Estados Unidos. Los estadounidenses bajaron las armas. ¿Podría un robot hacer alguna vez ese tipo de determinaciones situacionales?

Y también está la cuestión de la responsabilidad. Si un robot bombardea una escuela, ¿quién es el culpable: el soldado que mandó a la máquina al campo? ¿Su comandante? ¿El fabricante? ¿El inventor?

A niveles altos del ejército, existen dudas sobre las armas con mentes propias. En noviembre pasado, el Departamento de la Defensa de Estados Unidos emitió lo que equivale a una moratoria de 10 años para su desarrollo mientras discute las implicaciones éticas y las posibles salvaguardas. Es probable que en un minuto se haga a un lado la directiva, si China le vende armas autónomas a Irán, pero es tranquilizante que el ejército estadounidense no compita en ese camino sin haberlo pensado seriamente.

En comparación con anteriores esfuerzos heroicos para proscribir las minas terrestres y detener la proliferación nuclear, la campaña en contra de los robots con licencia para matar enfrenta algunos obstáculos totalmente nuevos.

Para empezar, no está nada claro dónde trazar la línea. Mientras que el escenario tipo Terminator de soldados “ciborgs” está a décadas en el futuro, si no es que es una fantasía total, los ejércitos del mundo ya se mueven en un espectro de autonomía, para la que poco a poco incrementan la autoridad de las máquinas en el combate.

El ejército ya permite que las máquinas tomen decisiones críticas cuando las cosas se mueven con demasiada rapidez para la intervención humana deliberada. Estados Unidos tiene desde hace mucho buques de guerra clase Aegis con defensas antimisiles automáticas que, en segundos, pueden identificar, rastrear y derribar amenazas que se aproximan. Y el papel de la maquinaria se está expandiendo al punto en el que la decisión humana final de matar estará predeterminada, en gran medida, por la inteligencia generada por las máquinas.

“¿El problema es el dedo en el gatillo?”, pregunta Peter W. Singer, un especialista en el futuro de la guerra, en la Institución Brookings. “¿O es la parte que me dice: 'ése es uno de los malos’?”.

Israel es el primer país en hacer y desplazar (y vender a China, India, Corea del Sur y otros) un arma que ataca preventivamente, sin que un humano esté a cargo. El planeador teledirigido, llamado Harpy, está programado para reconocer y automáticamente bombardear en picada cualquier señal de radar que no esté en su base de datos de “amigos”. No se han reportado fallas hasta ahora, pero supongamos que un adversario instala su radar antiaéreo en el techo de un hospital, ¿qué pasaría?

Sharkey señala que el Harpy es un arma que ya cruzó un umbral preocupante y es probable que no haya retroceso. Otros sistemas se le acercan, como el X-47B de la Naval de Estados Unidos, un avión de combate sin piloto, semiindependiente y basado en un portaviones, que se encuentra en la etapa de pruebas. Por ahora, no está armado, pero se construyó con dos compartimentos para armas. Ya estamos metidos hasta los tobillos en el futuro.

Para los comandantes militares, el atractivo de las armas autónomas es casi irresistible y no se parece mucho a ningún avance tecnológico anterior. Los robots son más baratos que los sistemas pilotados, o, incluso, los aviones teledirigidos, que requieren veintenas de técnicos que respalden al piloto remoto. Estos sistemas no ponen en riesgo de morir, resultar heridos o padecer traumas mentales a las tropas. No se cansan ni se asustan. Es un arma que no depende de los comandos de la base y puede seguir peleando después de que el enemigo bloqueó las comunicaciones, lo cual es cada vez más factible en la era del pulso electromagnético y los ciberataques.

Y ningún estratega militar quiere ceder una ventaja ante un adversario potencial. Son más de 70 los países que actualmente tienen aviones teledirigidos, y es difícil trabajar con la tecnología de algunos de ellos para removerles las ataduras virtuales. “Aun si hubiera una prohibición, ¿cómo la harías cumplir?”, pregunta Ronald Arkin, un informático teórico y director del laboratorio Mobile Robot en el Tecnológico de Georgia. “Sólo son programas informáticos”.

El ejército – y los mercaderes de la guerra – no son los únicos dedicados a esta tecnología. La robótica es una frontera científica hiperactiva que corre desde los laboratorios de inteligencia artificial más sofisticados hasta los programas informáticos de las escuelas de educación media. En las competencias de robótica que se organizan en todo el mundo, participa un cuarto de millón de escolares. (Mi hija de 10 años es una de ellos.) Y no se puede separar tan fácilmente a la ciencia para construir robots asesinos de la que se usa para hacer coches que se conducen solos o computadoras que sobresalen en el programa de concursos en la televisión, “Jeopardy”.

Arkin argumenta que la automatización también puede humanizar más a la guerra. Los robots pueden carecer de compasión, pero también carecen de las emociones que llevan a errores catastróficos, atrocidades y genocidios: vengatividad, pánico, animadversión tribal.

“Mis amigos que pelearon en Vietnam me contaron que le disparaban a todo lo que se moviera cuando estaban en zonas sin restricciones para usar armas”, expresó. “Creo que podemos diseñar sistemas inteligentes, letales y autónomos que tengan el potencial para mejorar eso”.

Arkin argumenta que es necesario restringir las armas autónomas, pero no limitando abruptamente la investigación. Defiende una moratoria al desplazamiento y una discusión a gran escala sobre las formas para que los humanos sigan a cargo.

Singer, de la Brookings, también recela de una prohibición: “Apoyo el propósito de atraer la atención hacia la resbalosa ladera por la que descendemos. Pero tenemos una historia que hace que yo no sea tan optimista”.

Como Singer, no tengo tantas esperanzas en una prohibición ejecutable de los robots letales, pero me encantaría estar equivocado. Si se hace que la guerra sea impersonal y segura, casi tan moralmente significativa como un videojuego, a mí me preocupa que las armas autónomas mermen nuestra humanidad. Tan inquietante como la idea de que los robots se estén volviendo más como los humanos es la perspectiva de que, en el proceso, nosotros nos volvamos más como los robots.

0Comentarios

publicidad