Las mejores mentes del planeta: la inteligencia artificial puede destruir a la humanidad

imagen
En la lista de escenarios del fin del mundo, los robots asesinos inteligentes que pueden borrar a la humanidad de la faz de la tierra son bastante altos. Y en la comunidad científica, cada vez más expertos en inteligencia artificial (IA) están de acuerdo en que las personas eventualmente crearán inteligencia artificial que se volverá más inteligente que ellos. Un momento llamado singularidad puede crear una utopía en la que los robots funcionan y las personas se relajan en el cielo. O conducirá a la destrucción de todas las formas de vida que AI considera competidores para el control del planeta, es decir, nosotros. Stephen HawkingSiempre hablé sobre la última opción y recientemente recordé esto en una entrevista con la BBC. Le sugerimos que se familiarice con algunos comentarios de Hawking y otros genios que creen que la IA puede convertirse en la puesta de sol de la humanidad .


Stephen Hawking



imagen
El desarrollo de la inteligencia artificial completa puede presagiar el principio del fin para las personas. Esto comenzará por sí solo y cambiará a un ritmo frenético. Las personas limitadas por la lenta evolución biológica no podrán resistir y serán desplazadas ”, dice un físico de fama mundial. Hawking ha presentado durante mucho tiempo su visión apocalíptica.

En respuesta a una película sobre la singularidad con la "Excelencia" de Johnny Depp, el científico criticó a los investigadores por no hacer nada para proteger a la humanidad de la IA: "Si la civilización alienígena superior nos enviara el mensaje" Llegaremos en unos pocos siglos ". respondieron, dicen, bueno, llámenos, cuando llegue aquí, ¿se abrirán las puertas? Probablemente no, pero eso es más o menos lo que sucede con la IA ".

Elon Musk



imagen

Conocido por sus empresas de tecnología de punta como Tesla y SpaceX , Musk no es fanático de la inteligencia artificial . En una conferencia en el MIT en octubre, comparó el uso de la IA con "llamar al demonio" y lo calificó como la amenaza más grande y real para la humanidad. También publicó un tweet que la IA podría ser más peligrosa que las armas nucleares. Musk pidió la creación de una regulación nacional e internacional del desarrollo de la IA.

Nick Bostrom



imagen

El filósofo sueco es el director del Instituto para la Humanidad Futura de la Universidad de Oxford, donde pasó mucho tiempo pensando en el resultado potencial de una singularidad. En su nuevo libro Superintellig, Bostrom escribe que tan pronto como las máquinas superan la inteligencia humana, pueden movilizarse y decidir destruir a las personas a la velocidad del rayo utilizando una variedad de estrategias (desarrollo discreto de un patógeno, atraer a las personas a su lado o simplemente debido a la fuerza bruta). El mundo del futuro será cada vez más tecnológico y complejo, pero no lo veremos. “Una sociedad de milagro económico y emprendimiento tecnológico en el que nadie estará. Disneylandia sin hijos ".

James barrat



imagen

Barrat es un escritor y documental que, en su nuevo libro, Nuestra última invención: Inteligencia artificial y el fin de la era humana, presenta entrevistas con filósofos e investigadores de IA. Él cree que las criaturas inteligentes, por su naturaleza, recolectan recursos y realizan tareas que, sin duda, harán de los competidores una IA y personas súper inteligentes, los principales consumidores de recursos en el planeta. Esto significa que incluso una máquina que se suponía que debía jugar ajedrez o realizar funciones simples puede pensar en otra cosa si es lo suficientemente inteligente. "Sin instrucciones de restricción cuidadosamente pensadas, un sistema decidido y autoconsciente para lograr sus objetivos progresará de la misma manera que ni siquiera podemos pensar por nosotros mismos", escribe el autor del libro.

Ala Varnor



imagen

Como matemático y escritor de ciencia ficción, Vindg acuñó el término "singularidad" para describir el punto de inflexión en el que las máquinas serán más inteligentes que los humanos. Él ve la singularidad como irreversible, incluso si las reglas internacionales controlan el desarrollo de la inteligencia artificial. "Las ventajas sobre los competidores de la automatización (económica, militar, incluso cultural) son tan atractivas que las leyes que prohíben tales cosas solo estimulan su uso por otros", escribe el autor en su ensayo de 1999. ¿Pero qué sucede cuando alcanzamos una singularidad? "La destrucción física de la raza humana será la única opción".

Source: https://habr.com/ru/post/es381157/


All Articles