Digital Tinsinuar TankTDT)

Star Trek Today: ¿Es posible que la humanidad no pueda controlar la inteligencia artificial súper inteligente?

Es posible que la humanidad no sea capaz de controlar la inteligencia artificial (IA) superinteligente, creen los autores de un estudio teórico reciente. Además, es posible que ni siquiera sepamos que tenemos este tipo de AI (inteligencia artificial) Haber creado.
El rápido progreso de los algoritmos de inteligencia artificial se está produciendo ante nuestros ojos. Las máquinas ganan contra los humanos en el go y el póquer, derrotan a los pilotos de combate experimentados en el combate aéreo, aprenden desde cero a través de prueba y error, presagian una gran revolución en la medicina y las ciencias de la vida, hacen diagnósticos y médicos y pueden diferenciar mejor entre las aves que los humanos. Esto muestra lo rápido que es el progreso en muchas áreas.

Fuente de la imagen: Pixabay


Referencia del episodio de Star Trek: General / Androides - AI

Con este avance surge la preocupación de si seremos capaces de controlar la inteligencia artificial. Preocupaciones que se han planteado durante al menos varias décadas. Conocemos a los tres famosos desde 1942 Leyes del robotque han favorecido al escritor Isaac Asimov esbozado en su cuento "The Game of Tag":

1) Un robot no debe causar daño a una persona o, por inacción, permitir que se cause daño a una persona,

2) un robot debe obedecer las órdenes de un humano, siempre que no infrinjan la primera ley, y

3) un robot debe protegerse a sí mismo siempre que no infrinja la primera o la segunda ley.

Posteriormente agregado Asimov se agrega una ley general 0: Un robot no debe causar daño a la humanidad ni causar daño por omisión.En 2014, el filósofo Nick Bostrom, director del Instituto para el Futuro de la Humanidad de la Universidad de Oxford, examinó cómo la IA superinteligente puede destruirnos, cómo podemos controlarla y por qué varios métodos de control pueden no funcionar. Bostrom identificó dos problemas con el control de la IA. El primero es el control sobre lo que puede hacer la IA. Por ejemplo, podemos controlar si debe conectarse a Internet. El segundo es el control sobre lo que quiere hacer. Para controlarlo tenemos que enseñarle, por ejemplo, los principios de la convivencia pacífica con los humanos. Como señaló Bostrom, la IA superinteligente probablemente podrá superar cualquier limitación que queramos ponerle sobre lo que puede hacer. En cuanto al segundo problema, Bostrom duda que estemos IA superinteligente podría enseñar cualquier cosa.

Ahora Manuel Alfonseca y su equipo de la Universidad Autónoma de Madrid han decidido abordar el problema del control de la inteligencia artificial. Describió los resultados de su trabajo en el Revista de Investigación de Inteligencia Artificial.

Los españoles señalan que cualquier algoritmo que se supone debe garantizar que la IA no dañe a las personas debe primero simular un comportamiento que podría resultar en daño a una persona para que la máquina pueda reconocerlo y detenerlo. Sin embargo, según los investigadores, ningún algoritmo podrá simular el comportamiento de la inteligencia artificial y determinar con absoluta certeza si es probable que una acción en particular resulte en daños a los humanos. Ya se ha comprobado que Primera ley de Asimov es un problema que no se puede calcular.
Además, es posible que ni siquiera sepamos que creamos una máquina superinteligente, concluyen los investigadores. La razón es que Teorema de Rice, que dice que no se puede adivinar el resultado de un programa de computadora con solo mirar su código.

Pero Alfonseca y sus compañeros también tienen buenas noticias. Bueno, ya no tenemos que preocuparnos por lo que hará la IA súper inteligente. De hecho, existen tres restricciones principales sobre el tipo de investigación que realizan los españoles. En primer lugar, esta IA superinteligente solo surgirá en 200 años. En segundo lugar, no se sabe siquiera si es posible crear este tipo de inteligencia artificial, es decir, una máquina que sea inteligente en tantas áreas como los humanos. Y tercero, incluso si no podemos controlar la IA superinteligente, debería ser posible controlar la inteligencia artificial que es superinteligente dentro de un rango estrecho.