_
_
_
_
_

Científicos contra robots armados

Un millar de expertos critican las armas autónomas porque carecen de criterios éticos

FOTO: Campaña contra el uso de robots en la guerra, en Londres en 2013.Foto: AGENCIA_DESCONOCIDA | Vídeo: afp

La inteligencia artificial está llegando a un desarrollo tan intenso que inquieta incluso a sus investigadores por el mal uso que se puede hacer de ella. Más de 1.000 científicos y expertos en inteligencia artificial y otras tecnologías han firmado una carta abierta contra el desarrollo de robots militares que sean autónomos y prescindan de la intervención humana para su funcionamiento. El físico Stephen Hawking, el cofundador de Apple, Steve Wozniak, y el de PayPal, Elon Musk, figuran entre los firmantes del texto, que se presentó ayer en Buenos Aires en la Conferencia Internacional de Inteligencia Artificial, un congreso donde se presentan más de 500 trabajos de esta especialidad y a la que acuden varios de los firmantes del manifiesto.

El documento no se refiere a los drones ni misiles comandados por humanos, sino a armas autónomas que dentro de pocos años podrá desarrollar la tecnología de inteligencia artificial y que supondrían una “tercera revolución en las guerras, después de la pólvora y el armamento nuclear”.

Los expertos reconocen que existen argumentos a favor de los robots militares, como el hecho de que reducirían las bajas humanas en conflictos bélicos. A diferencia de las armas nucleares, las autónomas no requieren altos costes ni materias primas difíciles de obtener para su construcción, según los firmantes. Por eso advierten de que es “solo cuestión de tiempo” que esta tecnología aparezca en el “mercado negro y en manos de terroristas, dictadores y señores de la guerra”. “Son ideales para asesinatos, la desestabilización de naciones, el sometimiento de poblaciones y crímenes selectivos de determinadas etnias”, alertan los científicos, que proponen que la inteligencia artificial se use para proteger a los humanos, en especial a los civiles, en los campos de batalla. “Empezar una carrera militar de armas de inteligencia artificial es una mala idea”, advierten. Comparan esta tecnología con las bombas químicas o biológicas.

“No se trata de limitar la inteligencia artificial, sino de introducir límites éticos en los robots, lograr que sean capaces de vivir en sociedad y, eso sí, rechazar de forma clara las armas autónomas sin control humano”, explica Francesca Rossi, presidenta de la conferencia internacional y una de las firmantes del texto. “Con la carta queremos tranquilizar a la gente que desde fuera de este mundo mira la inteligencia artificial con una preocupación a veces exagerada. A nosotros también nos interesan los límites éticos. Queremos reunir no solo a expertos en este asunto, sino a filósofos y psicólogos para lograr límites éticos en los robots similares a los de los humanos”, señala.

El peligro de reprogramar

El argentino Guillermo Simari, de la Universidad Nacional del Sur, organizador del congreso, comparte la filosofía de la carta. “Las máquinas pueden tomar decisiones con las que el humano no está de acuerdo. Los hombres tenemos filtros éticos. Se puede programar un filtro ético a la máquina, pero es muy fácil quitarlo”. Simari cree que el gran problema es la facilidad con la que puede reprogramarse una máquina. “Para hacer una bomba atómica uno necesita uranio enriquecido, que es muy difícil de conseguir. Para reprogramar una máquina militar basta con alguien con un ordenador escribiendo software”.

Únete a EL PAÍS para seguir toda la actualidad y leer sin límites.
Suscríbete

En el congreso también hay quien se sitúa en contra de la filosofía de la carta. “Aquí estamos los que creemos que hay que seguir desarrollando la inteligencia artificial y que puede ser controlada”, explica Ricardo Rodríguez, profesor de la Universidad de Buenos Aires y organizador del encuentro. El debate entre los científicos está vivo y ahora pasará a toda la sociedad.

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_