Científicos de todo el mundo piden la prohibición de los "robots asesinos"

Entre los que adhieren a este mensaje están el astrofísico Stephen Hawking y el cofundador de Apple Steve Wozniak

Tiempo de lectura: -'

29 de julio de 2015 a las 05:00

Estás por alcanzar el límite de notas.

Suscribite ahora a

Pasá de informarte a formar tu opinión.

Suscribite desde US$ 3 45 / mes

Esta es tu última nota gratuita.

Se parte de desde US$ 3 45 / mes

Miles de investigadores y de personalidades del mundo científico, entre ellos el astrofísico Stephen Hawking y el cofundador de Apple Steve Wozniak, lanzaron este martes un llamamiento para pedir la prohibición de las armas ofensivas autónomas, los llamados "robots asesinos".

"Las armas autónomas seleccionan y atacan objetivos sin intervención humana", recuerda la carta, publicada en coincidencia con la apertura de la Conferencia Internacional Conjunta de Inteligencia Artificial (IJCAI) en Buenos Aires.

Toby Walsh, profesor de Inteligencia Artificial de la Universidad New South Wales de Australia y uno de los firmantes, sostuvo que "todas las tecnologías pueden ser usadas para el bien o para el mal", según un comunicado divulgado en la capital argentina.

"La tecnología de la Inteligencia Artificial (IA) ha alcanzado un punto en que el despliegue de estas armas será una posibilidad técnica (si no legal) en años, no décadas, y hay mucho en juego", añaden los firmantes, entre ellos investigadores y profesores de Harvard, Berkeley, Cambridge, París o Berlín.

Pese a advertir sobre el peligro de su uso, Walsh fue enfático en la defensa del desarrollo de la IA argumentando que puede ser usada para enfrentar muchos de los problemas más acuciantes de la sociedad actual como la inequidad y la pobreza, el creciente costo del cuidado de la salud y el impacto del calentamiento global.

También figuran entre los firmantes el empresario de altas tecnologías Elon Musk, presidente de Tesla (coches eléctricos), SolarCity y SpaceX (tecnología espacial); así como el nobel de Física Frank Wilczek o el cofundador de Skype, Jaan Tallinn.

¿Quién es el enemigo?

A diferencia de los drones, que necesitan una intervención humana, los "robots asesinos" pueden tomar decisiones de manera autónoma y preocupan tanto a la ONU como a la comunidad científica y humanitaria, que ya han mantenido dos reuniones de expertos sobre la cuestión en Ginebra.

Los más críticos con estas armas apuntan a que no distinguen entre civiles y combatientes y podrían programar ataques con efectos desproporcionados para la población civil.

Desde el punto de vista militar, estas armas tienen la ventaja de reducir las pérdidas humanas en el campo de batalla, pero los científicos recuerdan que eso abarataría el coste de ir a la guerra y podría provocar una nueva carrera armamentista.

"A diferencia de las armas nucleares, no requieren materias primas costosas o difíciles de obtener (...) Sólo será cuestión de tiempo hasta que aparezcan en el mercado negro y en las manos de los terroristas, dictadores (..) y señores de la guerra que deseen perpetrar limpiezas étnicas, etc." dice el texto.

La inteligencia artificial "tiene un gran potencial para beneficiar a la humanidad", pero "el inicio de una carrera armamentista de IA militar es una mala idea", según los firmantes.

Otra visión

Por su parte, Ricardo Rodríguez, investigador en IA de la estatal Universidad de Buenos Aires, le quitó dramatismo al tema en declaraciones a la AFP en el marco de la Conferencia en Buenos Aires.

"Hopkins cree que estamos cerca del Apocalipsis con la robótica y que al final la inteligencia artificial va a competir con la inteligencia humana, pero lo cierto es que se está lejos de hacer robots bélicos asesinos", sostuvo Rodríguez, uno de los organizadores del encuentro.

A raíz del debate, el experto recordó que "hace 20 años se hablaba del peligro de la clonación y fíjese cómo estamos ahora".

La carta fue enviada a la Organización de Naciones Unidas para que esta organización impulse la prohibición de los sistemas de armas autónomas ofensivas, indica el comunicado en Buenos Aires.

Existe un precedente de prohibición de armas que todavía no existen, cuando en 1998 se prohibieron las armas láser cegadoras antes de que empezaran a ser producidas en masa.

"¿Pueden las máquinas salvar vidas? ¿Llegarán a tener conciencia? ¿Jugarán a Angry Birds mejor que nosotros?", se preguntan los investigadores que participan del encuentro.

"Este es un momento emocionante para ser un investigador en IA. La inteligencia artificial se está desarrollando a un ritmo fenomenal, con aplicaciones nuevas e increíbles cada día", convocan entusiastas los organizadores.

CONTENIDO EXCLUSIVO Member

Esta nota es exclusiva para suscriptores.

Accedé ahora y sin límites a toda la información.

¿Ya sos suscriptor?
iniciá sesión aquí

Alcanzaste el límite de notas gratuitas.

Accedé ahora y sin límites a toda la información.

Registrate gratis y seguí navegando.