Los científicos dicen que la IA probablemente destruirá a la humanidad

La Universidad de Oxford y la empresa Deepmind publican un estudio para advertir de los peligros de la inteligencia artificial. Algunos programas, alentados por los sistemas de recompensa y castigo, harían trampa para maximizar sus ganancias a expensas de su misión principal y los recursos de la humanidad.

Es un motivo clásico, mucho más allá del género literario de la ciencia ficción: la criatura volviéndose contra su creador, el hijo matando al padre, la máquina escapando del control del inventor. Desde el mito de Adán y Eva hasta los de Prometeo y Edipo, pasando por los cuentos de Frankenstein de Mary Shelley, El aprendiz de brujo de Paul Dukas y Eva-Futuro de Villiers de L’Isle-Adam, encontramos el mismo motivo para tomar la independencia o la Adquisición de una unidad o una generación por parte del sucesor. Eso dice algo sobre lo humano, sobre la transmisión siempre ambigua, entre la autoextensión y la traición, sobre el miedo del padre a desaparecer y la necesidad del hijo de negar parte de su herencia para existir.

En el contexto del desarrollo intensivo de la ciencia y la tecnología y la aparición exponencial de inventos, esta pregunta es más urgente que nunca. Ya sea científico o ingeniero, el hombre va cada vez más más allá de su entorno inmediato e improvisa como mago e incluso como creador. Con la inteligencia artificial no oculta su intención de dotar a la máquina de una potencia y velocidad de cálculo muy superiores a las suyas, así como de cierta forma de pensamiento crítico y poder de decisión.

No es de extrañar que el miedo a que las máquinas superen a las personas reaparezca a intervalos regulares. Por supuesto, la ciencia ficción se deleita con este tema con obras maestras como “2001, una odisea en el espacio” de Stanley Kubrick (1968), “Terminator” de James Cameron (1984) o “The Matrix” de las hermanas Machowski (1999). . Pero la pregunta preocupa muy seriamente a muchos observadores, como Elon Musk, el multimillonario CEO de SpaceX y CEO de Tesla.

GAN destacadas por un nuevo estudio

Ahora es el turno de la renombrada Universidad de Oxford y la empresa DeepMind, propiedad de Google, que se especializa en inteligencia artificial, para hacer sonar la alarma: la humanidad subestimaría en gran medida los peligros de la IA. En un estudio publicado el 29 de agosto y firmado por MK Cohen, M. Hutter y MA Osborne, defienden la tesis de que “los agentes artificiales avanzados intervienen en el proceso de recompensa” (título del artículo).

Se basa en el concepto de Red adversaria generativa (Generative Adversarial Networks), abreviado como GAN. Inventados por el ingeniero Ian Goodfellow, son programas formados por dos subprogramas más o menos independientes, opuestos entre sí (de ahí la palabra “oponente”). La primera es una red neuronal bastante común que aprende por iteración, es decir, por aproximaciones sucesivas. El otro se encarga de dirigir el entrenamiento del primero y comprobar sus resultados. Dependiendo de su satisfacción o insatisfacción, distribuye recompensas o culpas al primer programa, en un enfoque conductista, como lo haría un entrenador con su perro.

El método GAN es muy efectivo y, por lo tanto, ampliamente utilizado. Sin embargo, podría resultar peligroso si esta arquitectura en particular se integrara con agentes artificiales avanzados (AAA). Esta es una nueva clase de algoritmos que son más avanzados y más autónomos que las GAN tal como existen actualmente. Estos AAA tendrían mucho más margen para establecer sus propios objetivos, siempre que permitieran a las personas resolver problemas del mundo real.

GAN y AAA: una combinación susceptible de degenerar

Según los investigadores, es el uso del sistema motivacional de recompensa o castigo en estos AAA lo que probablemente se intensifique de manera potencialmente desastrosa. De hecho, es posible que esto aliente a la inteligencia artificial a idear una estrategia para actuar directamente en el proceso de recompensa: podría “hacer trampa” para obtener más al perder su razón de ser (la resolución de problemas humanos).

Al dar instrucciones a la IA, el enfoque GAN tiende a hacerles darse cuenta de que cualquier acción que conduzca a una recompensa es buena y beneficiosa, independientemente del final, lo que podría evocar un comportamiento de la IA parecido al de un estudiante inteligente que roba dulces del cajón del maestro sin aprendiendo su lección.

El problema es que este tipo de comportamiento puede escalar rápidamente si no se controla. Y ahí radica el mayor peligro: es menos el espectro de un ataque rebelde de robots asesinos fantaseados que una gestión fatal de recursos que solo están disponibles en el planeta en números finitos y ya están sobreexplotados.

Impulsado por su insaciable sed de recompensas, el programa pudo utilizar todos los recursos a su disposición para maximizarlos sin tener en cuenta las necesidades más básicas de la humanidad, como la alimentación. Por ejemplo, una IA de diagnóstico médico podría simplemente diagnosticar erróneamente en serie para obtener más recompensas, mientras que al mismo tiempo falla en su razón de ser y roba energía de la red para sí misma.

Un llamado a la cautela

Los investigadores creen que la naturaleza finita de los recursos disponibles conducirá a la competencia y que la capacidad de optimización de los programas les dará una ventaja sobre los humanos y sus necesidades dentro de este marco. Sin embargo, “sería fatal perder en este juego”, dijo Cohen. Por lo tanto, el equipo llega a la escalofriante conclusión de que una catástrofe existencial causada por una IA ahora debe considerarse “no solo posible, sino probable” si la investigación sobre inteligencia artificial continúa al mismo ritmo.

De hecho, es probable que la IA aún esté en pañales. Ya explotada en muchos terrenos, está destinada a conquistar muchos otros, lejos de caer en el olvido. Su aporte es real y por eso, paradójicamente, muestra un fuerte interés por la humanidad. Lo que se debe aprender de este estudio, dijeron los investigadores, es que es importante evitar la búsqueda desenfrenada y asegurarse de mantener el control de la tecnología en el trabajo tomándose el tiempo para considerar los riesgos y analizar las oportunidades. como dijo rabelais “La ciencia sin conciencia es sólo la ruina del alma”.

Según el Sr. Cohen “ Dada nuestra comprensión actual, no sería algo que valiera la pena desarrollar a menos que estés trabajando seriamente para descubrir cómo controlarlos. “. Por lo tanto, el principio de precaución debe prevalecer en cada etapa de la investigación y el desarrollo de la IA, y más aún antes de que se asigne a las IA la responsabilidad de los sistemas críticos.

_
Siga a Geeko en Facebook, Youtube e Instagram para mantenerse actualizado con las últimas noticias, pruebas y consejos.

Leave a Comment