Investigadores dicen que será imposible controlar una IA superinteligente : ScienceAlert

La idea de que la inteligencia artificial derroque a la humanidad se ha hablado durante décadas, y en 2021, los científicos emitieron su veredicto sobre si seríamos capaces de controlar una superinteligencia informática de alto nivel. ¿La respuesta? Casi definitivamente no.

El problema es que controlar una superinteligencia mucho más allá de la comprensión humana requeriría una simulación de esa superinteligencia que podemos analizar (y controlar). Pero si no somos capaces de comprenderlo, es imposible crear tal simulación.

Reglas como ‘no causar daño a los humanos’ no se pueden establecer si no entendemos el tipo de escenarios que se le ocurrirán a una IA, sugieren los autores del nuevo artículo. Una vez que un sistema informático está funcionando a un nivel por encima del alcance de nuestros programadores, ya no podemos establecer límites.

“Una superinteligencia plantea un problema fundamentalmente diferente a los que normalmente se estudian bajo el lema de la ‘ética de los robots'”. escribieron los investigadores.

“Esto se debe a que una superinteligencia tiene múltiples facetas y, por lo tanto, es potencialmente capaz de movilizar una diversidad de recursos para lograr objetivos que son potencialmente incomprensibles para los humanos, y mucho menos controlables”.

Parte del razonamiento del equipo provino de la problema de detención presentado por Alan Turing en 1936. El problema se centra en saber si un programa de computadora llegará o no a una conclusión y responderá (y se detendrá), o simplemente hará un ciclo indefinido tratando de encontrar una.

Como demostró Turing a través de algunos matemáticas inteligentes, si bien podemos saber eso para algunos programas específicos, es lógicamente imposible encontrar una manera que nos permita saber eso para cada programa potencial que podría escribirse. Eso nos lleva de vuelta a la IA, que en un estado superinteligente podría contener todos los programas informáticos posibles en su memoria a la vez.

Cualquier programa escrito para evitar que la IA dañe a los humanos y destruya el mundo, por ejemplo, puede llegar a una conclusión (y detenerse) o no; es matemáticamente imposible para nosotros estar absolutamente seguros de cualquier manera, lo que significa que no es controlable.

“En efecto, esto hace que el algoritmo de contención sea inutilizable”. dijo el científico informático Iyad Rahwan del Instituto Max-Planck para el Desarrollo Humano en Alemania en 2021.

La alternativa a enseñarle a la IA algo de ética y decirle que no destruya el mundo, algo que ningún algoritmo puede estar absolutamente seguro de hacer, dijeron los investigadores, es limitar las capacidades de la superinteligencia. Podría estar aislado de partes de Internet o de ciertas redes, por ejemplo.

El estudio también rechazó esta idea, sugiriendo que limitaría el alcance de la inteligencia artificial; el argumento es que si no vamos a usarlo para resolver problemas más allá del alcance de los humanos, ¿por qué crearlo?

Si vamos a seguir adelante con la inteligencia artificial, es posible que ni siquiera sepamos cuándo llega una superinteligencia fuera de nuestro control, tal es su incomprensibilidad. Eso significa que debemos comenzar a hacer algunas preguntas serias sobre las direcciones en las que vamos.

“Una máquina superinteligente que controla el mundo suena a ciencia ficción” dijo el informático Manuel Cebrián del Instituto Max-Planck para el Desarrollo Humano, también en 2021. “Pero ya hay máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores comprendan completamente cómo lo aprendieron”.

“Por lo tanto, surge la pregunta de si esto podría en algún momento volverse incontrolable y peligroso para la humanidad”.

La investigación fue publicada en el Revista de investigación de inteligencia artificial.

Una versión anterior de este artículo se publicó por primera vez en enero de 2021.

Leave a Comment

Your email address will not be published.