“Un programador podrá controlar todo un ejército, si las armas autónomas no se regulan”
La idea de que sólo algunos grupos de personas tengan control sobre algunas de las armas más poderosas que se hayan construido es aterradora, pero es la realidad en la que vivimos. En un futuro no muy lejano, ese increíble poder y responsabilidad podría caer en la inteligencia artificial y otros sistemas robóticos, que actualmente se encuentra en desarrollo.
En un par de cartas abiertas a los primeros ministros de Australia y Canadá, cientos de investigadores y científicos de la inteligencia artificial están pidiendo ayuda para evitar que eso suceda.
El temor, dicen, es que eliminar el elemento humano de las decisiones de vida y muerte podría marcar el comienzo de una era destructiva que finalmente traiga el fin de la humanidad. Los sistemas de armas de IA son, según las mentes más brillantes como Stephen Hawking “de destrucción masiva” y deben prohibirse antes de que puedan causar un daño grave.
“Delegar decisiones de vida o muerte a las máquinas cruza una línea moral fundamental, sin importar de qué lado se creen o quién las utilice” explica la carta. “Jugar a la ruleta rusa con las vidas de otros nunca puede justificarse simplemente sobre la base de la eficacia. Esto no solo es una cuestión fundamental de derechos humanos. La decisión de prohibir o utilizar armas autónomas va al núcleo de nuestra humanidad”.
¿Qué piensas del tema? Compartenos tus ideas en los comentarios.