Cómo Elon Musk y Y Combinator planean detener la tiranía de las computadoras
Van a financiar una nueva organización, OpenAI , para crear los tipos más avanzados de inteligencia artificial, y luego dar los resultados a la sociedad.
Como si el área de desarrollo de IA careciera de competencia (gigantes como Google, Apple, Facebook, Microsoft e incluso fabricantes de automóviles como Toyota ya están tratando de contratar investigadores), puede dar la bienvenida a un nuevo jugador, pero no uno simple. Esta es una organización sin fines de lucro OpenAI, cuyo anuncio tuvo lugar en diciembre de 2015 , y que promete dar todos los resultados del trabajo al dominio público, incluidas las patentes, todo para evitar una distopía en la que las computadoras son superiores en la inteligencia de las personas.La financiación será proporcionada por un grupo de celebridades tecnológicas, incluidas personas como Elon Musk, Reid Hoffman, Peter Thiel, Jessica Livingston y Amazon Web Services. Juntos planean gastar mil millones de dólares a largo plazo. Musk y Sam Altman, director de Y Combinator, cuyo equipo de investigación también contribuirá (y Altman también participará), liderarán el proyecto.No es sorprendente ver en esta serie la Máscara, conocida por criticar a la IA. ¿Pero qué hay de Y Combinator? Startup incubator, que abrió hace 10 años como un proyecto de verano, financió seis startups. La incubadora pagó sus salarios a los fundadores y dio valiosos consejos sobre el desarrollo empresarial. Desde entonces, YC ha ayudado a casi mil empresas, incluidas Dropbox, Airbnb y Stripe, y recientemente abrió un departamento de investigación. En los últimos dos años, ha sido administrado por Altman, cuya compañía Loopt comenzó en 2005, y en 2012 se vendió por $ 43.2 millones. Aunque YC y Altman fundaron OpenAI, y Altman también es el director de esta empresa, todavía es independiente.En esencia, OpenAI es un laboratorio de investigación diseñado para contrarrestar a las grandes corporaciones para que no puedan obtener grandes ganancias al recibir IA a su disposición. El proyecto también trabajará contra gobiernos que pueden usar la IA para fortalecer su poder y oprimir a los ciudadanos. Parece demasiado idealista, pero el equipo ya ha contratado a algunas personas serias, incluido el ex tecnólogo jefe de Stripe, Greg Brockman (será el jefe de tecnología de OpenAI), y el investigador de clase mundial Ilya Sackweaver, que trabajó para Google y pertenecía a un famoso grupo de jóvenes científicos, estudió bajo el liderazgo del pionero de redes neuronales Jeff Hinton en Toronto. Será el director del departamento de investigación. Otras vacantes fueron ocupadas por jóvenes talentosos cuyas hojas de vida incluyeron trabajo en proyectos de investigación, Facebook AI y DeepMind.La compañía también cuenta con asesores estrella, incluido Alan Kay, uno de los pioneros de la informática.Los líderes del proyecto hablaron conmigo sobre él y sus aspiraciones. Al principio hablé con Altman, y luego nuevamente con él en compañía de Musk y Brockman. Los combiné en un artículo.¿Cómo empezó todo?
Sam Altman: Lanzamos el equipo de investigación de YC hace un mes y medio, pero los pensamientos sobre IA me han estado visitando durante mucho tiempo, al igual que Ilona. Si piensas en las cosas más importantes para el futuro del mundo entero, entonces, en mi opinión, una buena IA estará entre las más importantes. Por eso creamos OpenAI. La organización intentará desarrollar IAs amigables para las personas. Y dado que es sin fines de lucro, todo el mundo lo poseerá.Elon Musk: Como sabes, por un tiempo tuve miedo de la IA. Y hablé mucho con Sam y Reid [Hoffman], Peter Thiel y otros. Y pensamos: "¿No hay forma de asegurarnos, o al menos aumentar la probabilidad de que la IA nos brinde alguna ventaja?" Como resultado de las conversaciones, decidimos que organizar una OSFL sería una buena idea. Y nos concentraremos muy seriamente en la seguridad.Desde un punto de vista filosófico, hay un elemento importante: queremos una IA generalizada. Hay dos opiniones: ¿necesitamos mucha IA o solo algunas IA? Creemos que mucho es mejor. Y es bueno si pueden representarse como una extensión de la voluntad del hombre.La voluntad del hombre?
IM: AI como una extensión de ti mismo, es decir, que una persona vive en simbiosis con AI, en lugar de que AI sea algún tipo de inteligencia central de algún tipo. ¿Qué piensa, por ejemplo, de las aplicaciones en Internet? Tiene correo electrónico, redes sociales, aplicaciones móviles. Ellos, en esencia, te hacen superhombre, y no piensas en ellos como algo separado, piensas en ellos como una extensión de ti mismo. Por lo tanto, en la medida en que podamos llevar a cabo la IA en esta dirección, queremos hacer esto. Y encontramos muchos ingenieros de ideas afines e investigadores de IA que piensan lo mismo.SA: Creemos que es mejor si la IA se desarrolla para aumentar las capacidades individuales y mejorar a las personas, y será accesible para todos, y no será la única entidad que es un millón de veces más poderosa que una persona. Dado que nuestra empresa no tiene fines de lucro, nos centraremos no en enriquecer a los accionistas, sino en lo que es mejor para el futuro de la humanidad.¿Pero Google no comparte el desarrollo con el público, como acaba de hacer con el aprendizaje automático?
SA: Comparten muchos desarrollos. Pero con el tiempo, a medida que nos acercamos más y más a superar la inteligencia humana, surge la pregunta de qué decide compartir Google.¿Y su proyecto no superará la inteligencia humana?
SA: Creo que sí, pero será un proyecto de código abierto que cualquiera, no solo, digamos, Google, puede usar. Todo lo que el grupo desarrollará estará disponible para todos. Si toma este trabajo y lo adapta a sus necesidades, no tiene que compartir los resultados. Pero todo lo que hagamos estará disponible para todos.¿Y si soy el Dr. Evil y lo uso para mis propios fines? ¿No me ayudas con esto?
IM: Esta es una pregunta maravillosa, y discutimos mucho al respecto.SA: Hay muchos pensamientos sobre este tema. Del mismo modo que las personas protegen a la humanidad de los médicos malvados por el hecho de que hay muchos de ellos, y solo hay un médico, creemos que nuestro esquema funcionará, en el que muchos AI trabajarán contra villanos raros. Este esquema es mejor que aquel en el que hay una IA, más poderoso que cualquier otra cosa. Si esta cosa poderosa se dispara, o el Dr. Evil toma el control de él, y no tiene nada a lo que oponerse, este será un gran problema.¿Controlarás lo que surge de OpenAI?
SA: Queremos construir un sistema de control con el tiempo. Hasta ahora, solo seremos Ilon y yo. El desarrollo de la IA real todavía está muy lejos. Creo que tendremos tiempo suficiente para crear una función de control.IM: Voy a pasar un tiempo con el equipo del proyecto en la oficina aproximadamente una vez a la semana o dos semanas, aprendiendo sobre actualizaciones, expresando mi opinión y entendiendo hasta qué punto la IA ha avanzado y qué tan cerca llegamos a algo peligroso. Personalmente, voy a tomar muy en serio la seguridad. Estoy muy preocupado por esto. Y si descubrimos algunos momentos arriesgados, sin duda lo haremos público.¿Tienes algún ejemplo de IA malvada?
SA: Hay mucha ciencia ficción, antes de la implementación de la cual aún faltan muchos años: Terminator y similares. No me preocupa la ocurrencia de tales cosas en el corto plazo. Pero qué tipo de problema tendrá que enfrentar, aunque no se trata de una IA malvada, lo mismo ocurre con la automatización general y la desaparición de empleos. Otro ejemplo de IA malvada es cuando la gente habla de programas inteligentes que rompen las computadoras mejor que los humanos. Y esto ya está sucediendo.¿Empiezas a trabajar con algún tipo de sistema listo?
SA: No. El estudio comenzará como en cualquier laboratorio, y durante mucho tiempo se verá como un laboratorio. Hasta ahora nadie sabe cómo construirlo. Ya tenemos ocho investigadores, y varios más se unirán al proyecto dentro de unos meses. Hasta ahora, trabajarán en la oficina de YC y, a medida que crezcan, se mudarán a la suya. Jugarán con ideas y escribirán software para comprender si pueden desarrollar el estado actual de la creación de IA.¿Participará gente de afuera en esto?
SA: por supuesto. Uno de los beneficios de un programa abierto es que los laboratorios pueden colaborar con cualquier persona porque pueden compartir información libremente. Es muy difícil trabajar con los empleados de Google, ya que tienen toneladas de restricciones de privacidad.Sam, si OpenAI trabajará en la oficina de YC, ¿tus startups tendrán acceso a los resultados de su trabajo?
SA: Si OpenAI se convierte en una tecnología interesante y todos pueden usarla de forma gratuita, esto será una ventaja para cualquier empresa de tecnología. Pero no más que eso. Sin embargo, le pediremos a nuestras startups que brinden tanta información como consideren adecuada para OpenAI. E Ilon también pensará en lo que Tesla y SpaceX pueden compartir.¿Y qué es, por ejemplo, la información que se puede compartir?
SA: Muchas cosas. Por ejemplo, todos los datos con Reddit pueden ser un excelente conjunto de entrenamiento. Los videos de capacitación de Tesla Robot Mobile también serán muy valiosos. Grandes cantidades de datos son muy importantes. La gente se vuelve más inteligente leyendo libros. Pero una persona se vuelve más inteligente solo leyendo el libro. Y si una de las máquinas Tesla, por ejemplo, descubre algo sobre la nueva situación, entonces todas las máquinas Tesla se beneficiarán automáticamente de esto.IM: En general, no tenemos una gran cantidad de planes específicos, ya que la compañía solo está en su infancia. Ella está en estado de embrión. Pero Tesla realmente tiene muchos datos del mundo real, gracias a los millones de millas que se acumulan cada día desde nuestra flota. Tesla puede tener más datos del mundo real que cualquier otra compañía en el mundo.
La IA requiere una gran potencia informática. ¿Qué infraestructura tendrás?
CA: Nos asociamos con Amazon Web Services. Proporcionan un proyecto de gran capacidad.¿Y el proyecto obtendrá mil millones?
IM: Podemos decir que habrá aún más. No damos presupuestos exactos, pero obtendremos grandes ingresos de todas estas personas.Que hora es
SA: Por el tiempo requerido para crear un sistema. Ahorraremos, pero el proyecto, aparentemente, está diseñado por décadas y requerirá mucha gente y equipo.¿Y el beneficio no es obligatorio para ti?
IM: exactamente. Esta inversión no tiene fines de lucro. Es posible que los ingresos aparezcan en el futuro, tal como lo recibe el Instituto de Investigación sin fines de lucro de Stanford. En el futuro, pueden aparecer ingresos, pero no habrá ganancias que enriquezcan a los copropietarios, no habrá acciones y otras cosas. Nosotros creemos que si.Ilon, anteriormente has invertido en la compañía DeepMind AI, según tengo entendido, por las mismas razones: para seguir el desarrollo de la IA. Y luego Google los compró. ¿Es este el segundo intento?
IM: En realidad no soy un inversor en el sentido habitual. No realizo inversiones con el objetivo de obtener ganancias financieras. Invierto en empresas que ayudo a crear, y puedo ayudar a un amigo, ya sea por un objetivo en el que creo o por lo que me emociona. No diversifico fuera de mi empresa en un sentido material. Pero mis "inversiones" en DeepMind se hicieron para una mejor comprensión de la inteligencia artificial y su supervisión, si lo desea.¿Competirá con los mejores científicos que pueden trabajar en DeepMind, Facebook o Microsoft?
SA: La contratación va bien hasta ahora. Los investigadores están muy satisfechos con la libertad, la apertura y la oportunidad de compartir su trabajo, que no se encuentra en un laboratorio de producción regular. Hemos reunido un equipo inicial de tan alta calidad que el resto se unirá solo para el trabajo conjunto con ellos. Y también creo que nuestra misión, visión y estructura son muy populares entre las personas.¿Cuántos investigadores necesitarás? Cientos?
SA: Quizás.Volvamos a la idea de que el uso general de la IA puede salvarnos de las consecuencias negativas. ¿Existe el riesgo de que hacerlo más accesible aumente su peligro potencial?
SA: Me gustaría contar todas esas horas que pasé discutiendo sobre esto con Ilon y otros. Y aún 100% no estoy seguro. ¿No puedes estar 100% seguro? Pero pruebe diferentes opciones de desarrollo. La seguridad a través del secreto en el caso de la tecnología rara vez funcionó. Si alguien lo entiende solo, ¿cómo decidir quién tiene Google, el gobierno estadounidense, el gobierno chino, ISIS [organización prohibida en Rusia - aprox. Transl.], ¿O quién? Hay muchos villanos en el mundo, pero la humanidad está prosperando. ¿Y qué sucede si uno de ellos resulta ser mil millones de veces más poderoso que la otra persona?IM: Creo que la mejor defensa contra el uso indebido de la IA será armar a la mayor cantidad de personas posible. Si todos tienen capacidades de IA, entonces no habrá un conjunto tan pequeño de personas que tendrán superpoderes a su disposición.Ilon, eres director en dos compañías y eres miembro de la junta directiva de la tercera. Parece que no tienes mucho tiempo libre para dedicar a su nuevo proyecto.
IM: Eso es verdad. Pero la seguridad de la IA ha estado presionando en mi mente durante demasiado tiempo, y creo que por mi tranquilidad haré un trato conmigo mismo. Source: https://habr.com/ru/post/es396621/
All Articles