Lo que piensan los investigadores de IA sobre los posibles riesgos asociados con él

Me interesé por los riesgos asociados con la IA en 2007. En ese momento, la reacción de la mayoría de las personas a este tema fue algo como esto: "Es muy divertido, vuelve cuando alguien que no sea idiota de Internet crea en él".

En los años siguientes, varias figuras extremadamente inteligentes e influyentes, incluidos Bill Gates , Stephen Hawking y Elon Musk , compartieron públicamente sus preocupaciones sobre los riesgos de la IA, seguidos por cientos de otros intelectuales, desde filósofos de Oxford hasta cosmólogos del MIT e inversores de Silicon Valley. . Y estamos de vuelta.

Luego la reacción cambió a: "Bueno, un par de científicos y empresarios pueden creer en ello, pero es poco probable que sean verdaderos expertos en este campo que estén realmente versados ​​en la situación".

De aquí surgieron declaraciones como el artículo de Popular Science " Bill Gates le teme a la IA, pero los investigadores de IA deberían saberlo ":
Habiendo hablado con investigadores de IA: investigadores reales, que apenas hacen que tales sistemas funcionen, sin mencionar que funcionan bien, queda claro que no temen que la superinteligencia se les acerque repentinamente, ni ahora ni en el futuro. . A pesar de todas las historias aterradoras contadas por Mask, los investigadores no tienen prisa por construir salas de protección y autodestrucción con una cuenta regresiva.

O, como escribieron en Fusion.net en el artículo " Objeción sobre robots asesinos de una persona que realmente está desarrollando IA ":
Andrew Angie desarrolla profesionalmente sistemas de inteligencia artificial. Enseñó un curso de IA en Stanford, desarrolló AI en Google, y luego se mudó al motor de búsqueda chino Baidu para continuar su trabajo a la vanguardia de la aplicación de AI a problemas del mundo real. Entonces, cuando se entera de cómo Elon Musk o Stephen Hawking, personas que no están familiarizadas directamente con la tecnología moderna, están hablando de IA, que podría destruir a la humanidad, casi se puede escuchar que se cubre la cara con las manos.

Ramez Naam de Marginal Revolution repite más o menos lo mismo en el artículo " ¿Qué piensan los investigadores sobre los riesgos de la IA? ":
Elon Musk, Stephen Hawking y Bill Gates han expresado recientemente su preocupación de que el desarrollo de la IA podría implementar el escenario "asesino de la IA" y potencialmente conducir a la extinción de la humanidad. No son investigadores de IA, y que yo sepa, no han trabajado directamente con la IA. ¿Qué piensan los verdaderos investigadores de IA sobre los riesgos de la IA?

Cita las palabras de investigadores de IA especialmente seleccionados, como los autores de otras historias, y luego se detiene, sin mencionar ninguna opinión diferente a esta.

Pero ellos existen. Los investigadores de IA, incluidos los líderes en el campo, han expresado activamente sus preocupaciones sobre los riesgos de la IA y más allá de la inteligencia, y desde el principio. Comenzaré enumerando a estas personas, a pesar de la lista de Naam, y luego pasaré a por qué no considero esto como una "discusión" en el sentido clásico que se espera al enumerar las estrellas.

Los criterios de mi lista son los siguientes: menciono solo a los investigadores más prestigiosos, o profesores de ciencias en buenos institutos con muchas citas de artículos científicos, o científicos muy respetados de la industria que trabajan para grandes empresas y tienen un buen historial. Se dedican a la inteligencia artificial y al aprendizaje automático. Tienen varias declaraciones fuertes en apoyo de un cierto punto de vista con respecto al inicio de una singularidad o riesgo grave de la IA en el futuro cercano. Algunos de ellos han escrito obras o libros sobre este tema. Otros simplemente expresaron sus pensamientos, creyendo que este es un tema importante digno de estudio.

Si alguien no está de acuerdo con la inclusión de una persona en esta lista o cree que olvidé algo importante, avíseme.

* * * * * * * * * *

Stuart Russell es profesor de ciencias de la computación en Berkeley, ganador del Premio IJCAI Computadoras y Pensamiento, investigador de la Asociación de Mecanización de Computadoras, investigador de la Academia Americana de Investigación Científica Avanzada, director del Centro de Sistemas Inteligentes, ganador del Premio Blaise Pascal, etc. etc. Coautor de AI: A Modern Approach , un libro de texto clásico utilizado en 1.200 universidades de todo el mundo. En su sitio web, escribe:
En el campo de la IA, se han llevado a cabo 50 años de investigación bajo la bandera de la suposición de que cuanto más inteligente, mejor. La preocupación por el beneficio de la humanidad debe combinarse con esto. El argumento es simple:

1. Es probable que la IA se cree con éxito.
2. El éxito ilimitado conlleva grandes riesgos y grandes beneficios.
3. ¿Qué podemos hacer para aumentar las posibilidades de obtener beneficios y evitar riesgos?

Algunas organizaciones ya están trabajando en estos temas, incluido el Instituto para el Futuro de la Humanidad en Oxford, el Centro de Estudios de Riesgo Existencial en Cambridge (CSER), el Instituto para el Estudio de la Inteligencia de Máquinas en Berkeley y el Instituto para la Vida Futura en Harvard / MIT (FLI). Estoy en consejos consultivos con CSER y FLI.

Así como los investigadores en fusión nuclear consideraron el problema de limitar las reacciones nucleares como uno de los problemas más importantes en su campo, el desarrollo del campo de la IA inevitablemente planteará cuestiones de control y seguridad. Los investigadores ya están comenzando a plantear preguntas, desde cuestiones puramente técnicas (los principales problemas de racionalidad y utilidad, etc.) hasta cuestiones ampliamente filosóficas.

En edge.org, describe un punto de vista similar:
Como explicaron Steve Omohandro, Nick Bostrom y otros, una discrepancia en los valores con los sistemas de toma de decisiones, cuyas posibilidades están en constante crecimiento, puede generar problemas, tal vez incluso problemas de la escala de extinción, si las máquinas son más capaces que las personas. Algunos creen que no hay riesgos previsibles para la humanidad en los próximos siglos, tal vez olvidando que la diferencia horaria entre la declaración de confianza de Rutherford de que la energía atómica nunca puede extraerse y transcurren menos de 24 horas por la invención de la reacción en cadena nuclear iniciada por neutrones .

También trató de convertirse en un representante de estas ideas en la comunidad académica, indicando :
Me parece que las personas principales en esta industria, que nunca antes han expresado sus temores, piensan que este problema debe tomarse muy en serio, y cuanto antes lo tomemos en serio, mejor.

David McAllister es profesor y miembro principal del Instituto de Tecnología de Toyota, afiliado a la Universidad de Chicago, quien trabajó anteriormente en las facultades del MIT y el Instituto Cornell. Es miembro de la American AI Association, ha publicado más de cien trabajos, llevado a cabo investigaciones en los campos del aprendizaje automático, la teoría de la programación, la toma de decisiones automáticas, la planificación de la inteligencia artificial, la lingüística computacional y ha tenido un gran impacto en los algoritmos de la famosa computadora de ajedrez Deep Blue. Según un artículo en el Pittsburgh Tribune Review:
El profesor de Chicago, David McAllister, considera inevitable el surgimiento de la capacidad de las máquinas inteligentes totalmente automáticas para diseñar y crear versiones más inteligentes de sí mismos, es decir, el inicio de un evento conocido como singularidad [tecnológica]. La singularidad permitirá que las máquinas se vuelvan infinitamente inteligentes, lo que lleva a un "escenario increíblemente peligroso", dice.

En su blog, Pensamientos sobre automóviles , escribe:
La mayoría de los informáticos se niegan a hablar sobre éxitos reales en IA. Creo que sería más razonable decir que nadie puede predecir cuándo se recibirá una IA comparable a la mente humana. John MacArthy me dijo una vez que cuando le preguntan qué tan pronto se creará la IA de nivel humano, responde que tiene entre quinientos y quinientos años. MacArthy era inteligente. Dadas las incertidumbres en esta área, es razonable considerar el problema de la IA amigable ...

En las primeras etapas, la IA generalizada estará a salvo. Sin embargo, las primeras etapas de OII serán un excelente sitio de prueba para AI como servidor u otras opciones amigables de AI. Ben Goertzel también anuncia un enfoque experimental en una buena publicación en su blog. Si nos espera la era de las OII seguras y no demasiado inteligentes, entonces tendremos tiempo para pensar en tiempos más peligrosos.

Fue miembro del grupo de expertos AAAI Panel On AI a largo plazo dedicado a las perspectivas a largo plazo de AI, presidió el comité de control a largo plazo y se describe de la siguiente manera :
Makalister me habló sobre el enfoque de la "singularidad", un evento en el que las computadoras se vuelven más inteligentes que las personas. No mencionó la fecha exacta de su ocurrencia, pero dijo que esto podría suceder en las próximas dos décadas, y que al final definitivamente sucedería. Aquí están sus puntos de vista sobre la singularidad. Ocurrirán dos eventos importantes: inteligencia operativa, en la que podemos hablar fácilmente con las computadoras, y una reacción en cadena de la inteligencia artificial, en la que la computadora puede mejorar sin ayuda, y luego repetirla nuevamente. El primer evento lo notaremos en sistemas de asistencia automática que realmente nos ayudarán. Más tarde se volverá realmente interesante comunicarse con las computadoras. Y para que las computadoras puedan hacer todo lo que las personas pueden hacer, debe esperar a que ocurra el segundo evento.

Hans Moravek es un ex profesor del Instituto de Robótica de la Universidad Carnegie Mellon, que lleva su nombre en el paraíso de Moravec , fundador de SeeGrid Corporation , que se especializa en sistemas de visión artificial para aplicaciones industriales. Su trabajo, " Síntesis de sensores en las rejillas de certeza de robots móviles " , ha sido citado más de mil veces, y fue invitado a escribir un artículo para la Enciclopedia Británica de Robótica, en un momento en que los artículos en enciclopedias fueron escritos por expertos mundiales en este campo, y no cientos de comentaristas anónimos en Internet.

También es autor de Robot: From a Simple Machine to a Transcendental Mind , que Amazon describe de la siguiente manera:
En este emocionante libro, Hans Moravek predice que para 2040, las máquinas se acercarán al nivel intelectual de las personas, y para 2050 nos superarán. Pero mientras Moravec predice el final de una era de dominación humana, su visión de este evento no es tan sombría. No está cercado de un futuro en el que las máquinas dominen el mundo, sino que lo acepta y describe un punto de vista sorprendente según el cual los robots inteligentes se convertirán en nuestros descendientes evolutivos. Moravec cree que al final de este proceso, "el vasto ciberespacio se unirá con la supermente inhumana y se ocupará de asuntos que estén lejos de las personas y de los humanos y las bacterias".

Shane Leg es cofundador de DeepMind Technologies , una startup de IA comprada en 2014 por $ 500 millones por Google. Recibió su doctorado del Instituto de IA con el nombre de Dale Moul en Suiza, y también trabajó en la División de Neurobiología Computacional. Gatsby en Londres. Al final de su disertación, "máquina de superinteligencia", escribe :
Si alguna vez aparece algo que pueda acercarse al poder absoluto, será una máquina súper inteligente. Por definición, podrá lograr una gran cantidad de objetivos en una amplia variedad de entornos. Si nos preparamos cuidadosamente para tal oportunidad de antemano, no solo podemos evitar el desastre, sino también comenzar una era de prosperidad, a diferencia de todo lo que existía antes.

En una entrevista posterior, dice :
AI es ahora donde estaba Internet en 1988. Las necesidades de aprendizaje automático se requieren en aplicaciones especiales (motores de búsqueda como Google, fondos de cobertura y bioinformática), y su número crece cada año. Creo que a mediados de la próxima década este proceso se volverá masivo y notable. El auge de la IA tendrá lugar alrededor de 2020, seguido de una década de rápido progreso, posiblemente después de las correcciones del mercado. La IA a nivel humano se creará a mediados de 2020, aunque muchas personas no aceptarán el inicio de este evento. Después de eso, los riesgos asociados con la IA avanzada se pondrán en práctica. No diré acerca de la "singularidad", pero esperan que en algún momento después de la creación de la OII las cosas locas comenzarán a suceder. Está en algún lugar entre 2025 y 2040.

Él y sus cofundadores Demis Khasabis y Mustafa Suleiman firmaron una petición para el Instituto para la Vida Futura con respecto a los riesgos de IA, y una de sus condiciones para unirse a Google fue que la compañía acuerda organizar un consejo de ética de IA para estudiar estos temas.

Steve Omohundro es un ex profesor de ciencias de la computación en la Universidad de Illinois, fundador del grupo de visión y capacitación en computación en el Centro para el Estudio de Sistemas Complejos, e inventor de varios desarrollos importantes en aprendizaje automático y visión por computadora. Trabajó en robots leyendo labios, el lenguaje de programación paralelo StarLisp, algoritmos de aprendizaje geométrico. Actualmente dirige Self-Aware Systems , "un equipo de científicos que trabaja para garantizar que las tecnologías inteligentes beneficien a la humanidad". Su trabajo, "Los fundamentos de la motivación de la IA " , ayudó a generar el dominio de la ética de la máquina, ya que señaló que los sistemas súper inteligentes se dirigirán hacia objetivos potencialmente peligrosos. El escribe:
Hemos demostrado que es probable que todos los sistemas avanzados de IA tengan un conjunto de motivaciones centrales. Es imperativo comprender estas motivaciones para crear tecnologías que aseguren un futuro positivo para la humanidad. Yudkovsky pidió una "IA amigable". Para hacer esto, necesitamos desarrollar un enfoque científico para el "desarrollo utilitario", que nos permitirá desarrollar funciones socialmente útiles que conduzcan a las secuencias que deseamos. Los rápidos avances en el progreso tecnológico sugieren que estos problemas pronto pueden volverse críticos.

Puede encontrar sus artículos sobre el tema "IA racional para el bien común" en el enlace .

Murray Shanahan tiene un doctorado en ciencias de la computación de Cambridge, y ahora es profesor de robótica cognitiva en el Imperial College de Londres. Publicó trabajos en campos como la robótica, la lógica, los sistemas dinámicos, la neurobiología computacional y la filosofía de la mente. Actualmente está trabajando en el libro Singularidad tecnológica , que se publicará en agosto. La anotación promocional de Amazon es la siguiente:
Shanahan describe los avances tecnológicos en IA, ambos realizados bajo la influencia del conocimiento de la biología, y desarrollados desde cero. Explica que cuando se crea la IA del nivel humano, una tarea teóricamente posible pero difícil, la transición a la IA superinteligente será muy rápida. Shanahan reflexiona sobre lo que puede conducir la existencia de máquinas superinteligentes en áreas como la personalidad, la responsabilidad, los derechos y la individualidad. Algunos representantes de la inteligencia artificial superinteligente pueden crearse en beneficio del hombre, otros pueden salirse de control. (¿Es decir, Siri o HAL?) La singularidad representa para la humanidad tanto una amenaza existencial como una oportunidad existencial para superar sus limitaciones. Shanahan deja en claro que si queremos lograr un mejor resultado, debemos imaginar ambas posibilidades.

Marcus Hutter es profesor de investigación en informática en la Universidad Nacional de Australia. Antes de eso, trabajó en el Instituto de IA con el nombre de Dale Mole en Suiza y en el Instituto Nacional de Informática y Comunicaciones de Australia, y también trabajó en el aprendizaje estimulado, los hallazgos bayesianos, la teoría de la complejidad computacional, la teoría de predicciones inductivas de Solomon, la visión por computadora y los perfiles genéticos. También escribió mucho sobre la singularidad. En el artículo " ¿Puede la inteligencia explotar? " Él escribe:
Este siglo puede ser testigo de una explosión tecnológica, cuya escala merece el nombre de singularidad. El escenario predeterminado es una comunidad de individuos inteligentes que interactúan en el mundo virtual, simulados en computadoras con recursos informáticos que aumentan hiperbólicamente. Esto inevitablemente va acompañado de una explosión de velocidad, medida por el tiempo físico, pero no necesariamente por una explosión de inteligencia. Si el mundo virtual está poblado por individuos libres e interactivos, la presión evolutiva conducirá a la aparición de individuos con inteligencia creciente que competirán por los recursos informáticos. El punto final de esta aceleración evolutiva de la inteligencia puede ser la comunidad de los individuos más inteligentes. Algunos aspectos de esta comunidad singular pueden estudiarse teóricamente con la ayuda de herramientas científicas modernas. Mucho antes de la aparición de esta singularidad, incluso colocando esta comunidad virtual en nuestra imaginación, uno puede imaginar la aparición de diferencias, como, por ejemplo, una fuerte caída en el valor de un individuo, que puede tener consecuencias radicales.

Jürgen Schmidhuber es profesor de IA en la Universidad de Lugano y ex profesor de robótica cognitiva en la Universidad Tecnológica de Munich. Desarrolla algunas de las redes neuronales más avanzadas del mundo, trabaja en robótica evolutiva y la teoría de la complejidad computacional, y se desempeña como investigador en la Academia Europea de Ciencias y Artes. En su libro, " Hipótesis de singularidades ", argumenta que "con la continuación de las tendencias existentes, enfrentaremos una explosión intelectual en las próximas décadas". Cuando se le preguntó directamente en Reddit AMA sobre los riesgos asociados con la IA, respondió :
. - , ? , , : , . - . , , . , . . . , , encontrar un nicho para la supervivencia ".

Richard Saton es profesor y miembro del Comité iCORE de la Universidad de Alberta. Se desempeña como investigador en la Asociación para el Desarrollo de la IA, coautor del libro de texto más popular sobre aprendizaje estimulado , el pionero del método de diferencias de tiempo, uno de los más importantes en este campo.

En su informeen una conferencia sobre IA organizada por el Instituto para el Futuro de la Vida, Saton argumentó que "existe una posibilidad real de que incluso con nuestras vidas" se cree una IA que sea intelectualmente comparable a los humanos, y agregó que esta IA "no nos obedecerá", "lo hará para competir y cooperar con nosotros "y que" si creamos esclavos súper inteligentes, obtendremos oponentes súper inteligentes ". En conclusión, dijo que "necesitamos pensar a través de mecanismos (sociales, legales, políticos, culturales) para asegurar el resultado deseado", pero que "inevitablemente la gente común será menos importante". También mencionó problemas similares en la presentación del Instituto Gadsby. También en el libro de Glenn Beckexisten tales líneas: "Richard Saton, uno de los mayores expertos en IA, predice una explosión de inteligencia en algún lugar a mediados de siglo".

Andrew Davison es profesor de visión artificial en el Imperial College London, líder en equipos de visión robótica y el Laboratorio de Robótica Dyson, e inventor del sistema de marcado y localización computarizado MonoSLAM. En su sitio web, escribe :
, , , , 2006 : , (, 20-30 ). « » ( , ), , , , . , , , , , , .

, , , ( ). , . « » . , , , .

Alan Turing e Irving John Goode no necesitan ser presentados. Turing inventó los fundamentos matemáticos de la ciencia computacional y le puso el nombre de máquina de Turing, integridad de Turing y prueba de Turing. Goode trabajó con Turing en Bletchley Park, ayudó a crear una de las primeras computadoras e inventó muchos algoritmos conocidos, por ejemplo, el algoritmo de transformación de Fourier discreto rápido, conocido como el algoritmo FFT. En su trabajo, ¿pueden pensar los coches digitales? Turing escribe:
Asumamos que tales máquinas pueden ser creadas, y consideremos las consecuencias de su creación. Tal acto, sin duda, será recibido con hostilidad, a menos que hayamos avanzado en la tolerancia religiosa desde la época de Galileo. La oposición consistirá en intelectuales temerosos de perder sus trabajos. Pero es probable que los intelectuales se equivoquen. Será posible hacer muchas cosas en un intento por mantener su intelecto al nivel de los estándares establecidos por las máquinas, ya que después del inicio del método de la máquina, no lleva mucho tiempo hasta el momento en que las máquinas superan nuestras capacidades insignificantes. En algún momento, debemos esperar que las máquinas tomen el control.

Mientras trabajaba en Atlas Computer Lab en los años 60, Goode desarrolló esta idea en " Razonamiento de la primera máquina ultrainteligente ":
, , . – , . , , « », . , – , .

* * * * * * * * * *

Me molesta que esta lista pueda dar la impresión de una cierta disputa entre "creyentes" y "escépticos" en esta área, durante la cual se aplastan mutuamente. Pero no lo creo.

Cuando leo artículos sobre escépticos, siempre encuentro dos argumentos. En primer lugar, todavía estamos muy lejos de la IA del nivel humano, sin mencionar la superinteligencia, y no hay una forma obvia de alcanzar tales alturas. En segundo lugar, si exige prohibiciones en la investigación de IA, es un idiota.

Estoy completamente de acuerdo con ambos puntos. Como los líderes del movimiento de riesgo de IA.

Encuesta entre investigadores de IA ( Muller y Bostrom, 2014) mostraron que, en promedio, dan el 50% por el hecho de que la IA de nivel humano aparecerá en 2040 oda, y el 90%, que aparecerá en 2075. En promedio, el 75% de ellos cree que la superinteligencia ("inteligencia de máquina, excede seriamente las capacidades de cada persona en la mayoría de las profesiones ") aparecerá dentro de los 30 años posteriores al advenimiento de la IA de nivel humano. Y aunque la técnica de esta encuesta plantea algunas dudas, si acepta sus resultados, resulta que la mayoría de los investigadores de IA están de acuerdo en que algo de lo que vale la pena preocuparse aparecerá en una o dos generaciones.

Pero Luke Muelhauser, director del Instituto de Inteligencia de Máquinas, y Nick Bostrom, director del Instituto para el Futuro de la Humanidad, declararon que sus predicciones para el desarrollo de la IA son mucho más tardías que las predichas por los científicos involucrados en la encuesta. Si estudiasA partir de los datos sobre las predicciones de IA de Stuart Armstrong, se puede ver que, en general, las estimaciones sobre el momento de la aparición de AI realizadas por los partidarios de AI no difieren de las estimaciones realizadas por los escépticos de AI. Además, la predicción a largo plazo en esta tabla pertenece al propio Armstrong. Sin embargo, Armstrong trabaja actualmente en el Instituto para el Futuro de la Humanidad, llamando la atención sobre los riesgos de la IA y la necesidad de investigar los objetivos de la superinteligencia.

La diferencia entre los partidarios y los escépticos no está en sus evaluaciones de cuándo deberíamos esperar la aparición de la IA a nivel humano, sino en cuándo debemos comenzar a prepararnos para esto.

Lo que nos lleva al segundo punto. Parece que la posición de los escépticos es que, aunque probablemente deberíamos enviar a un par de personas inteligentes a trabajar en una evaluación preliminar del problema, no hay necesidad de entrar en pánico o prohibir la investigación de IA.

Los fanáticos de la IA insisten en que, aunque no necesitamos entrar en pánico o prohibir la investigación de la IA, probablemente valga la pena enviar a un par de personas inteligentes a trabajar en una evaluación preliminar del problema.

Jan Lekun es posiblemente el escéptico más ardiente de los riesgos de IA. Fue citado abundantemente en un artículo sobre Popular Science , en una publicación sobre Marginal Revolution , y también habló con KDNuggets e IEEEsobre los "problemas inevitables de la singularidad", que él mismo describe como "estar tan lejos que se puede escribir ciencia ficción sobre ellos". Pero cuando se le pidió que aclarara su posición, declaró:
Elon Musk está muy preocupado por las amenazas existenciales para la humanidad (por eso construye cohetes para enviar personas a colonizar otros planetas). Y aunque el riesgo de una rebelión de la IA es muy pequeño y muy lejano al futuro, debemos pensar en ello, desarrollar medidas y reglas de precaución. Así como el comité de bioética apareció en los años setenta y ochenta, antes del uso generalizado de la genética, necesitamos comités de ética de inteligencia artificial. Pero, como escribió Yoshua Benjio, todavía tenemos mucho tiempo.

Eric Horvitz es otro experto a menudo referido como el principal portavoz del escepticismo y las limitaciones. Su punto de vista se describió en artículos como "El Director de Investigación de Microsoft cree que la IA fuera de control no nos matará " y " Eric Horvitz de Microsoft cree que la IA no debe tener miedo ". Pero aquí está lo que dijo en una entrevista más larga con NPR:
Keist: Horvitz duda que las secretarias virtuales se conviertan en algo que conquiste el mundo. Él dice que esto es de esperarse para que una cometa evolucione en un Boeing 747. ¿Significa esto que se burla de una singularidad?

Horvitz: No. Creo que hubo una mezcla de conceptos, y yo también tengo sentimientos encontrados.

Keist: En particular, debido a ideas como la singularidad, Horvits y otros expertos en inteligencia artificial están tratando cada vez más de lidiar con los problemas éticos que pueden surgir con la inteligencia artificial específica en los próximos años. También hacen preguntas más futuristas. Por ejemplo, ¿cómo puedo hacer un botón de apagado de emergencia para una computadora que puede cambiar por sí misma?

Horvits: Realmente creo que hay mucho en juego para gastar tiempo y energía buscando soluciones activamente, incluso si la probabilidad de tales eventos es pequeña.

Esto generalmente coincide con la posición de muchos de los agitadores de riesgo de IA más ardientes. Con tales amigos, no se necesitan enemigos.

El artículo de Slate, " No tengas miedo de la IA " , también sorprendentemente pone las cosas en la luz correcta:
Como afirma el propio Musk, la solución al riesgo de IA radica en la colaboración sobria y racional de científicos y legisladores. Sin embargo, es bastante difícil entender cómo hablar sobre "demonios" puede ayudar a lograr este noble objetivo. Ella incluso puede obstaculizarla.

En primer lugar, hay grandes agujeros en la idea del script Skynet. Aunque los investigadores en el campo de las ciencias de la computación creen que el razonamiento de Mask "no es completamente una locura", todavía están demasiado lejos de un mundo en el que el entusiasmo por la IA oculta una realidad de IA un poco menos a la que se enfrentan nuestros científicos informáticos.

Ian Lekun, el jefe del laboratorio de IA en Facebook, resumió esta idea en una publicación en Google+ en 2013: la exageración está dañando a la IA. En las últimas cinco décadas, la exageración ha matado a la IA cuatro veces. Ella necesita ser detenida ". Lekun y otros tienen miedo de exagerar. El incumplimiento de las altas expectativas impuestas por la ciencia ficción conduce a recortes serios en los presupuestos para la investigación de IA.

Los científicos que trabajan en IA son personas inteligentes. No están interesados ​​en caer en trampas políticas clásicas, en las que se dividirían en campos y se acusarían mutuamente de pánico u ostrichism. Aparentemente, están tratando de encontrar un equilibrio entre la necesidad de comenzar el trabajo preliminar relacionado con la amenaza que se avecina en algún lugar en la distancia, y el riesgo de causar una sensación tan fuerte que los golpeará.

No quiero decir que no hay diferencia de opinión sobre qué tan pronto debe comenzar a abordar este problema. Básicamente, todo se reduce a si es posible decir que "resolveremos el problema cuando lo encontremos", o esperar un despegue tan inesperado, debido a lo cual todo se saldrá de control y para lo cual, por lo tanto, debemos prepararnos por adelantado Veo menos evidencia de la que me gustaría que la mayoría de los investigadores de IA con sus propias opiniones entiendan la segunda posibilidad. ¿Qué puedo decir, incluso si en un artículo sobre Revolución Marginal se cita a un experto que dice que la superinteligencia no representa una gran amenaza, porque "las computadoras inteligentes no pueden establecerse objetivos por sí mismas", aunque cualquiera que lea Bostrom sabe que Todo el problema es.

Todavía hay una montaña de trabajo por hacer. Pero no para seleccionar específicamente artículos en los que "los verdaderos expertos en IA no se preocupen por la superinteligencia".

Source: https://habr.com/ru/post/es402379/


All Articles