Científicos de la Sociedad Max Planck, una prestigiosa institución de investigación europea, afirman que la humanidad nunca podrá controlar una inteligencia artificial (IA) super inteligente, y que esta podría salvar o destruir a la humanidad.
El problema, de acuerdo a los científicos, es que no hay forma de contener un algoritmo de este tipo sin una tecnología mucho más avanzada que la que podemos construir hoy.
El equipo se centró principalmente en la cuestión de la contención.
Si un algoritmo todopoderoso decidiera de alguna manera que debe hacer daño a la gente, de una manera más parecida a la de «Terminator«, este acabará con la humanidad por completo.
Los científicos propusieron construir una especie de «algoritmo de contención» que simule el comportamiento del algoritmo peligroso y le impida hacer nada perjudicial.
Pero, como el algoritmo de contención tendría que ser al menos tan poderoso como el primero para poder hacerlo, los científicos declararon que el problema era imposible de resolver.
IA super inteligente: Todo es un debate teórico
Es probable que una Inteligencia Artificial lo suficientemente avanzada como para amenazar a la humanidad está todavía lejos, aunque gente muy inteligente está trabajando en ello.
«Una máquina super inteligente que controle el mundo suena a ciencia ficción», dijo Manuel Cebrián, coautor del estudio.
«Pero ya hay máquinas que realizan ciertas tareas importantes de forma autónoma sin que los programadores entiendan del todo cómo lo han aprendido».
«Por tanto, se plantea la cuestión de si esto podría llegar a ser en algún momento incontrolable y peligroso para la humanidad». Concluye Cebrián.
Si vamos a seguir adelante con la inteligencia artificial creando maquinas cada vez más inteligentes, es posible que ni siquiera sepamos cuándo llegará una super inteligencia más allá de nuestro control.
Eso significa que tenemos que empezar a hacer muchas preguntas serias sobre las direcciones que estamos tomando como sociedad.
VER TAMBIÉN ▶ «La Marina de EE.UU. podría tener un arma de modificación del espacio-tiempo»
Podemos irnos a la atodestrucción por culpa de tres tontos del haba egocentricos que juegan con fuego..sin preguntar al resto..ellos hacen..y ya se verá…es jugar a la ruleta rusa…la IA debe progresar bajo unas leyes especificas y un algoritmo fuerte implantado que sea el de obedecer a un humano,las ordenes las dan humanos , su creaccion es para proteger a la humanidad y su bienestar,la IA debe saber que sin el ser humano lapropia IA no tiene sentido de existir ella misma