Toby Walsh, profesor en la Universidad New South Wales en Sídney, es uno de los principales expertos australianos en inteligencia artificial. Él y otros expertos realizaron un informe que detalla las promesas y obstáculos éticos de la adopción de la inteligencia artificial en su país.

  • Para recibir nuestra edición semanal en tu correo todos los lunes, regístrate aquí.

Walsh, de 55 años, trabaja con la Campaña para Detener a los Robots Asesinos (Campaign to Stop Killer Robots), una alianza de científicos y líderes de derechos humanos para frenar el desarrollo de armas robóticas autónomas.

Hablamos brevemente en la reunión anual de la Asociación Estadounidense para el Avance de la Ciencia en la que Walsh hizo una presentación. Después, hablamos dos horas por teléfono. Esta es una versión editada de estas conversaciones.

Es científico e inventor. ¿Cómo se convirtió en activista de la lucha en contra de los robots asesinos?

Sucedió de manera progresiva. Más o menos, a partir de 2013. Había estado leyendo mucho sobre armas robóticas. Me di cuenta de que muy pocos de mis colegas en el campo de la inteligencia artificial estaban pensando en los peligros de esta nueva clase de armas. Y si los consideraban, desestimaban a los robots asesinos como algo del futuro lejano.

Pero, según lo que podía ver, el futuro ya estaba aquí. Drones bombarderos sobrevolaban el cielo de Afganistán. Aunque los humanos en el suelo los controlaban, bastaría una pequeña medida técnica para volverlos autónomos.

Así que, en 2015, durante una conferencia científica, organicé un debate sobre ese asunto. Poco tiempo después, Max Tegmark, director del Instituto del Futuro de la Vida del Instituto Tecnológico de Massachusetts, me pidió que lo ayudara a divulgar una carta en la que hacía un llamado a la comunidad internacional para aprobar una prohibición preventiva contra todas las armas robóticas autónomas.

Firmé la petición y, en la siguiente gran conferencia de inteligencia artificial, la divulgué. Para cuando terminó esa reunión, teníamos más de cinco mil firmas. Entre ellas, las de personajes como Elon Musk, Daniel Dennett y Steve Wozniak.

Entre los riesgos de la inteligencia artificial, ¿habrá robots asesinos?

La RoboCup 2019, celebrada en Sídney, enfrenta equipos de robots entre sí en partidos de fútbol. Walsh es uno de los organizadores de la copa. Fotografía de Dean Sewell para el New York Times

¿Cuál era su argumento?

Que no podemos permitir que las máquinas decidan si los humanos viven o mueren. Es una incursión en territorio virgen. Las máquinas no tienen nuestra brújula moral, nuestra compasión, ni nuestras emociones. Las máquinas no son seres morales.

El argumento técnico es que se trata, potencialmente, de armas de destrucción masiva y la comunidad internacional hasta ahora las ha prohibido. 

Lo que diferencia a estas armas de otras que se han prohibido previamente es su potencial de discriminación. Podrías indicarle: “Solo mata a niños”, y después agregar programas de reconocimiento facial al sistema.

Además, si se producen estas armas, desequilibrarían la geopolítica del mundo. Las armas robóticas autónomas serían baratas y fáciles de producir. Algunas pueden fabricarse con una impresora 3D, y podrían caer fácilmente en manos de terroristas.

Otra cosa que las vuelve terriblemente desestabilizadoras es que sería difícil saber cuál es el origen de un ataque. Ya sucedió en el conflicto actual en Siria: tan solo en 2018 hubo un ataque con drones contra una base ruso-siria, y no sabemos quién fue en realidad el responsable.

¿Por qué prohibir un arma antes de que se produzca?

El mejor momento para prohibir ese tipo de armas es antes de que estén disponibles. Será mucho más difícil una vez que estén en las manos equivocadas o que sean aceptadas dentro del conjunto de herramientas militares. El tratado sobre armas láser cegadoras de 1995 quizá es el mejor ejemplo de una prohibición preventiva exitosa.

Tristemente, con casi todas las demás armas que se han regulado no tuvimos la precaución para hacerlo antes de que se usaran. Sin embargo, con las armas láser cegadoras, lo logramos. Dos empresas de armas, una china y una estadounidense, habían anunciado su intención de venderlas poco antes de que entrara en vigor la prohibición. Ninguna de las compañías continuó con sus planes.

¿A quién estaba dirigida su petición?

A la ONU. Siempre que voy allá, la gente parece estar dispuesta a escucharnos. Ni en mis sueños más alocados esperé sentarme con el subsecretario general de la ONU para informarle sobre esta tecnología. Un alto funcionario de la ONU me dijo: “Rara vez vemos que los científicos coinciden en defender la misma postura. Así que cuando eso sucede, los escuchamos”.

Hasta ahora, veintiocho países miembro han expresado su apoyo. El parlamento europeo ha hecho un llamado a favor del asunto. El ministro de Asuntos Exteriores alemán también lo ha hecho. ¡Aun así, son veintiocho países de doscientos! No es la mayoría.

¿Quién se opone al tratado?

Los candidatos evidentes son Estados Unidos, el Reino Unido, Rusia, Israel y Corea del Sur. China hizo un llamado a favor de la prohibición preventiva contra su despliegue, pero no contra el desarrollo de las armas.

Vale la pena señalar que las empresas que vendan estas armas y las defensas contra estas generarán una gran cantidad de dinero.

Entre los riesgos de la inteligencia artificial, ¿habrá robots asesinos?

Los robots que quedaron fuera del juego en la RoboCup se usaban para reparar otros. Fotografía de Dean Sewell para el New York Times

Entre los riesgos de la inteligencia artificial, ¿habrá robots asesinos?

Exhausto, uno de los participantes humanos de la RoboCup descansa. Fotografía de Dean Sewell para el New York Times

Los proponentes de las armas robóticas argumentan que, al limitar el número de combatientes humanos, las máquinas harían que los conflictos fueran menos mortíferos.

También he escuchado esos argumentos. Algunos dicen que las máquinas podrían ser más éticas porque las personas en los conflictos se asustan y hacen cosas terribles. Algunos simpatizantes de la tecnología esperan que eso no suceda si los robots libran las guerras, porque pueden programarse para apegarse a la ley humanitaria internacional.

El problema con ese argumento es que no tenemos ninguna manera de programar algo tan sutil como la ley humanitaria internacional.

Ahora bien, hay algunas cosas para las que las fuerzas militares puedan utilizar la robótica. Para despejar un campo minado, por ejemplo. Si un robot entra y estalla, puedes colocar otro en su lugar.

Desde 2013, ha invertido la misma cantidad de tiempo en su activismo que en sus investigaciones científicas. ¿Se arrepiente de algo?

No. Es importante hacer esto ahora mismo. Hace veinte años, como muchos de mis colegas, sentía que lo que estábamos haciendo en la inteligencia artificial estaba tan alejado de la práctica que no debíamos preocuparnos por sus consecuencias morales. Eso ya no es verdad.

Tengo una hija de 10 años. Cuando sea adulta, no quiero que me pregunte: “Papá, tenías una plataforma y autoridad. ¿Por qué no trataste de detener esta situación?”.

Entre los riesgos de la inteligencia artificial, ¿habrá robots asesinos?

Fotografía de Dean Sewell para el New York Times


©The New York Times 2019