Actualizado hace: 935 días 14 horas 17 minutos
Inteligencia Artificial
Robots serán los nuevos enemigos

Como si se tratase de una mala versión de ‘Terminator’, científicos temen que la inteligencia artificial ponga en riesgo la raza humana.

Domingo 02 Agosto 2015 | 04:00

Más de 1.500 expertos en tecnología, científicos y filósofos firmaron una carta en contra del desarrollo de armas de inteligencia artificial (IA) en la Conferencia Internacional desarrollada la semana anterior en Buenos Aires, Argentina.

En ella, la comunidad científica advirtió sobre la aplicación de la IA al desarrollo de armas a nivel global, ya que es “factible” que en cuestión de “años, no décadas”, existan equipos capaces de seleccionar, fijar y atacar objetivos sin ninguna intervención humana. 
“Si algún poder militar principal empuja hacia el desarrollo de armas de inteligencia artificial, una carrera armamentística global es virtualmente inevitable y el final de esta trayectoria tecnológica es obvio: las armas autónomas se convertirán en los Kalashnikovs del mañana”, sentencia la carta. 
El texto, firmado por importantes científicos como Stephen Hawking, alerta, sobre todo, que esas armas puedan terminar en el mercado negro y en manos de terroristas, provocando una guerra donde toda la humanidad perdería. 
El polémico texto, que se viralizó a través de las redes sociales, detalló que a diferencia de las armas nucleares, el armamento de IA no requiere de costosos materiales para su elaboración, por lo que se volverían baratas de obtener y de producir masivamente. 
“Son ideales para tareas como asesinatos selectivos de personas o grupos étnicos o desestabilización de naciones, por lo que no sería beneficiosa para la humanidad”, agregaron los expertos.
El cofundador de Apple, Steve Wozniak; Elon Musk, presidente de Tesla y SpaceXel; y el responsable de IA de Google, Demis Hassabis, también plasmaron su rúbrica en la advertencia.  
ARMAS NUCLEARES. Stuart Russell, científico computacional de la Universidad de California en Berkeley y del Centro para el Estudio del Riesgo Existencial en la Universidad de Cambridge, comparó la inteligencia artificial con el desarrollo de armas nucleares. “Desde el principio, el principal interés de la tecnología nuclear fue una fuente inagotable de energía”, dijo Russell, agregando: “Creo que hay una analogía razonable entre una cantidad ilimitada de energía y cantidades ilimitadas de inteligencia. Ambas perspectivas parecen maravillosas hasta que uno piensa en los posibles riesgos”, advirtió. 
Russell, en declaraciones al rotativo ‘Daily Mail’, explicó que “la investigación en el campo nuclear se llevó a cabo con el objetivo de producir una nueva fuente de energía, pero los científicos también sabían que podría ser utilizada para crear armas de gran potencia”, por lo que teme que los militares pongan las armas bajo el control de la inteligencia artificial.
Según Russell, los científicos informáticos deben modificar los objetivos de su investigación para garantizar que los valores y objetivos humanos siguen siendo fundamentales para el desarrollo de la tecnología de la inteligencia artificial.
RIESGO LATENTE. No es la primera vez que figuras como Hawking y Musk denuncian los peligros de los ‘robots asesinos’, pero el tono de esta nueva carta fue especialmente dramático.
De hecho, las posibles aplicaciones militares de la IA han desencadenado una gran polémica en los últimos años y el debate incluso ha llegado hasta la Organización de Naciones Unidas (ONU), que ha dedicado reuniones de expertos a este tema e incluso se ha planteado una prohibición internacional de esta tecnología. En base a ello, existe un precedente de prohibición de armas que todavía no existen, cuando en 1998 se prohibieron las armas láser cegadoras antes de que empezaran a ser producidas en masa.
Ahora los firmantes de la nueva carta piden también que se prohíba específicamente el uso de la IA para el desarrollo de armas que podrían funcionar “más allá del control humano”.
Algunos expertos, sin embargo, son partidarios de los llamados “robots asesinos”, ya que consideran que al ser usados en la guerra podrían salvar vidas manteniendo a los soldados humanos fuera de los campos de batalla. “De la misma manera que la mayoría de los químicos y los biólogos no tienen ningún interés en desarrollar armas químicas o biológicas, la mayor parte de los investigadores en el campo de la inteligencia artificial no tienen interés alguno en la construcción de armas basadas en esta tecnología”, dice una parte del manifiesto.
FIN DE LA HUMANIDAD. Desde el pasado mes de diciembre, Hawking viene manifestando su postura contraria a las aplicaciones militares de la IA. “Los seres humanos, que están limitados por una evolución biológica lenta, no podrían competir con la IA y serían superados por ella. Este (los avances en IA) es el evento más grande en la historia humana, pero desafortunadamente es posible que también sea el último”, indicó el laureado investigador. 
“Las formas primitivas de la inteligencia artificial que ya tenemos han demostrado ser muy útiles. Pero creo que el completo desarrollo de la inteligencia artificial podría significar el fin de la raza humana”, declaró esta semana a la BBC.
Compartir en Facebook
Compartir en Twitter
  • ¿Qué te pareció la noticia?
  • Buena
  • Regular
  • Mala

Más noticias