El futuro que presentó Terminator, en el que la humanidad está en peligro de extinción después de que las máquinas se rebelasen, está hoy un poquito más cerca.
El propio ejército de los EE.UU. ya desarrolla robots capaces de seguir órdenes, y usa perros robóticos en bases militares; mientras que en el Reino Unido, ya se planea que el 25% del ejército de tierra sean robots en menos de diez años.
Estos robots no tienen necesariamente que ser humanoides, ni tener un aspecto terrorífico como los de las películas, ni parecerse a Arnold Schwarzenegger; pero sí que serán capaces de matar a seres humanos, rompiendo así la ley de Asimov más importante.
El futuro de Terminator
Es la conclusión a la que ha llegado la Comisión de Seguridad Nacional sobre Inteligencia Artificial, un panel liderado por el antiguo CEO de Google, Eric Schmidt para el Congreso de los EE.UU.
Este panel fue creado para responder a las dudas que los congresistas tienen sobre el futuro de la Inteligencia Artificial, y especialmente su posible uso en escenarios de guerra.
La creación de robots asesinos es un polémico paso, que puede abrir la puerta a conflictos más mortales, pero que algunas potencias mundiales ya están dando.
Es por esa, y otras razones, que el panel ha recomendado que los EE.UU. no se unan a una coalición mundial que pide la prohibición del uso de robots autónomos en conflictos armados; sin embargo, tampoco pide que se acelere el desarrollo de esa tecnología.
Robots más letales que humanos
La postura final del panel es que el gobierno y las cámaras deberían dejar la puerta abierta a la posibilidad de crear robots controlados por IA para la guerra, mucho más letales que un ser humano y capaces de acabar con ejércitos enteros por si solos.
De hecho, es es el principal argumento que el vicepresidente del panel ha presentado en defensa de las armas autónomas: que son tan buenas matando, que fallarán menos y por lo tanto, se reducirán los daños colaterales.
La lógica es que un robot sería capaz de matar sólo a los objetivos designados, y por lo tanto, las operaciones se saldarían con menos muertes, especialmente de inocentes.
Es por eso que, de manera tal vez algo chocante, el panel afirma que explorar la hipótesis de los robots soldados es un «imperativo moral», porque puede reducir la cantidad de víctimas en la guerra.
En cambio, el panel ha sido más cauto en la cuestión de si la IA debería ayudar a tomar decisiones en un conflicto; como por ejemplo, si un ordenador debería influir en el lanzamiento de una bomba nuclear.
Los miembros recomiendan que la IA se integre en la obtención de inteligencia para las operaciones, así como la creación de una «unidad especial de problemas digitales», similar al cuerpo médico de un ejército pero para ordenadores o robots.
VER TAMBIÉN ▶ Denunciante del Pentágono advierte sobre “fallo de Inteligencia OVNI”
0 comentarios