Elon Musk financia grupos de investigación sobre inteligencia artificial es seguro

imagen
Cartel promocional de la película Terminator: Genesis

La semana pasada, la organización privada sin fines de lucro Future of Life Institute (FLI), con sede en Boston, EE. UU., Anunció que recibió una importante ronda de financiación de $ 10 millones. La parte principal de la donación de $ 7 millones fue hecha por Elon Musk, el resto del dinero fue transferido por otra organización sin fines de lucro, el Proyecto de Filantropía Abierta.. La principal ocupación de FLI es encontrar grupos de investigación especializados que trabajen en el campo de la inteligencia artificial y su financiación. Una de las metas establecidas para los científicos que reciben subvenciones de FLI es desarrollar una "mente de computadora" que sea segura para la humanidad, que no conduzca a una catástrofe global en el futuro.

Millones de dólares del jefe de SpaceX y del grupo Open Philanthropy Project se dividirán entre 37 grupos de investigación que trabajan en universidades conocidas y que han demostrado su valía. Listas de BusinessInsiderAlgunos de estos proyectos de ciencias. Por ejemplo, un grupo conjunto de científicos de las universidades de Berkeley y Oakford se dedica a la creación de algoritmos entrenados en preferencias humanas, que en el futuro ayudarían a la inteligencia artificial a comportarse "como un ser humano". Los empleados de la Universidad de Duke (EE. UU., Carolina del Norte) establecieron un objetivo más ambicioso: quieren desarrollar un sistema de inteligencia artificial que pueda tomar decisiones basadas en la "moralidad humana". En la Universidad de Denver, en realidad están trabajando en formas de contrarrestar a Skynet, lidiando con la posible pérdida de control de las armas robóticas.

A fines de noviembre del año pasado, Elon Musk señalóen una discusión pública en Internet sobre la seguridad de la inteligencia artificial. A juzgar por las palabras del jefe de SpaceX, desconfía de la capacidad de las computadoras para pensar y predice la aparición de "algo muy peligroso dentro de 5 a 10 años", lo que significa que solo la IA es un peligro. Por alguna razón desconocida, el comentario de Mask desapareció unos minutos después de la publicación, pero otros usuarios de Edge.org lograron guardarlo como una captura de pantalla. El portavoz de Mask prometió en el futuro presentar la opinión oficial de su jefe sobre este tema, pero, al parecer, esto aún no ha sucedido.

Cabe señalar que Musk se adhiere a la opinión del famoso científico británico Stephen Hawking, quien habló antescomo sigue: “Todos estos logros [en el desarrollo de la inteligencia artificial] se desvanecen en el contexto de lo que nos espera en las próximas décadas. La creación exitosa de inteligencia artificial será el evento más grande en la historia de la humanidad. Desafortunadamente, puede ser el último si no aprendemos a evitar riesgos ". Hawking cree que hay muy pocos trabajos científicos serios dedicados al estudio de la seguridad de la IA, y hay muy pocas organizaciones científicas que puedan hacer esto. Curiosamente, Hawking mencionó FLI entre tales organizaciones. Se desconoce con certeza si existe alguna conexión entre Stephen Hawking y Elon Musk.

Hay un punto de vista alternativo de los científicos, sin embargo, no con un nombre tan grande como el profesor Hawking. Creen que el tema de descontrolar la inteligencia artificial es más un tema para las películas de ciencia ficción que para preocupaciones serias. Lea sus argumentos en contra aquí .

Source: https://habr.com/ru/post/es381497/


All Articles