Como Elon Musk e Y Combinator planejam parar a tirania dos computadores

Eles vão financiar uma nova organização, a OpenAI , para criar os tipos mais avançados de inteligência artificial - e depois fornecer os resultados à sociedade.



Como se a área de desenvolvimento de IA não tivesse concorrência - gigantes como Google, Apple, Facebook, Microsoft e até montadoras como a Toyota já estão tentando contratar pesquisadores - pode receber um novo player, mas não um simples. Esta é uma organização sem fins lucrativos OpenAI, cujo anúncio ocorreu em dezembro de 2015 e promete dar todos os resultados do trabalho ao domínio público, incluindo patentes - tudo para evitar uma distopia na qual os computadores são superiores na inteligência das pessoas.

O financiamento será fornecido por um grupo de celebridades tecnológicas, incluindo pessoas como Elon Musk, Reid Hoffman, Peter Thiel, Jessica Livingston e Amazon Web Services. Juntos, planejam gastar um bilhão de dólares a longo prazo. Musk e Sam Altman, diretor da Y Combinator, cuja equipe de pesquisa também contribuirá (e Altman também participará), liderarão o projeto.

Não é surpreendente ver nesta série a Máscara, conhecida por criticar a IA. Mas e o Y Combinator? A incubadora de startups, que abriu há 10 anos como um projeto de verão, financiou seis startups. A incubadora pagou seus salários aos fundadores e deu conselhos valiosos sobre desenvolvimento de negócios. Desde então, a YC ajudou quase mil empresas, incluindo Dropbox, Airbnb e Stripe, e abriu recentemente um departamento de pesquisa. Nos últimos dois anos, foi administrado pela Altman, cuja empresa Loopt começou em 2005 e em 2012 foi vendida por 43,2 milhões de dólares. Embora YC e Altman tenham fundado a OpenAI, e Altman também seja o diretor desta empresa, ela ainda é independente.

Em essência, o OpenAI é um laboratório de pesquisa projetado para combater grandes corporações, para que elas não possam obter lucros muito grandes ao receber a IA à sua disposição. O projeto também trabalhará contra governos que podem usar a IA para fortalecer seu poder e oprimir os cidadãos. Parece idealista demais, mas a equipe já contratou pessoas sérias, incluindo o ex-chefe tecnólogo do Stripe, Greg Brockman (ele será chefe de tecnologia da OpenAI) e o pesquisador de classe mundial Ilya Sackweaver, que trabalhou para o Google e pertencia a um famoso grupo de jovens cientistas, estudou sob a liderança do pioneiro em redes neurais Jeff Hinton em Toronto. Ele será o diretor do departamento de pesquisa. Outras vagas foram ocupadas por jovens talentosos, cujos currículos incluíam trabalhos em projetos de pesquisa, Facebook AI e DeepMind.A empresa também conta com consultores renomados, incluindo Alan Kay, um dos pioneiros da ciência da computação.

Os líderes do projeto conversaram comigo sobre ele e suas aspirações. No começo, conversei com Altman e depois novamente com ele na companhia de Musk e Brockman. Eu os combinei em um artigo.

Como tudo começou?


Sam Altman: Lançamos a equipe de pesquisa da YC há um mês e meio, mas pensamentos sobre a IA estão me visitando há muito tempo, assim como Ilona. Se você pensar nas coisas mais importantes para o futuro do mundo inteiro, então, na minha opinião, uma boa IA estará entre as mais importantes delas. É por isso que criamos o OpenAI. A organização tentará desenvolver IAs amigáveis ​​para as pessoas. E como não tem fins lucrativos, o mundo inteiro será o dono.

Elon Musk: Como você sabe, por algum tempo eu tive medo da IA. E conversei muito com Sam e Reid [Hoffman], Peter Thiel e outros. E pensamos: "Não há como garantir, ou pelo menos aumentar a probabilidade de que a IA nos traga vantagens?" Como resultado das conversas, decidimos que organizar uma NPO seria uma boa ideia. E nos concentraremos muito seriamente na segurança.

Do ponto de vista filosófico, há um elemento importante: queremos uma IA generalizada. Existem duas opiniões - precisamos de muita IA ou apenas de algumas? Pensamos que muito é melhor. E é bom que eles possam ser representados como uma extensão da vontade do homem.

A vontade do homem?


IM: AI como uma extensão de si mesmo, ou seja, que uma pessoa vive em simbiose com a IA, em vez de a IA ser algum tipo de inteligência central de algum tipo. O que você pensa, digamos, dos aplicativos na Internet - você tem email, redes sociais, aplicativos móveis. Eles, em essência, fazem de você um super-homem, e você não pensa neles como algo separado, pensa neles como uma extensão de si mesmo. Portanto, na medida em que possamos conduzir a IA nessa direção, queremos fazer isso. E encontramos muitos engenheiros com ideias semelhantes e pesquisadores de IA que pensam o mesmo.

SA: Acreditamos que é melhor se a IA se desenvolver para aumentar as capacidades individuais e melhorar as pessoas, e será acessível a todos e não será a única entidade que é um milhão de vezes mais poderosa que uma pessoa. Como nossa empresa é sem fins lucrativos, não nos concentraremos no enriquecimento dos acionistas, mas no que é melhor para o futuro da humanidade.

Mas o Google não compartilha o desenvolvimento com o público, como acaba de fazer com o aprendizado de máquina?


SA: Eles compartilham muitos desenvolvimentos. Mas, com o tempo, à medida que nos aproximamos cada vez mais da inteligência humana, surge a pergunta sobre o que o Google decide compartilhar.

E seu projeto não vai superar a inteligência humana?


SA: Acho que sim, mas será um projeto de código aberto que qualquer pessoa, e não apenas o Google, por exemplo, pode usar. Tudo o que o grupo desenvolverá estará disponível para todos. Se você aceitar esse trabalho e adaptá-lo às suas necessidades, não precisará compartilhar os resultados. Mas tudo o que fizermos estará disponível para todos.

E se eu sou o Dr. Evil, e usá-lo para meus próprios propósitos? Você não me ajuda com isso?


IM: Essa é uma pergunta maravilhosa, e discutimos muito sobre isso.

SA: Há muitas reflexões sobre esse assunto. Assim como as pessoas protegem a humanidade dos médicos do Mal pelo fato de haver muitos deles e de haver apenas um médico, pensamos que nosso esquema funcionará, no qual muitas IAs trabalharão contra vilões raros. Esse esquema é melhor do que aquele em que existe uma IA, mais poderosa do que qualquer outra coisa. Se essa coisa poderosa desaparecer das bobinas, ou o Dr. Evil assumir o controle, e ele não tiver nada contra, isso será um grande problema.

Você vai controlar o que cresce com o OpenAI?


SA: Queremos construir um sistema de controle ao longo do tempo. Até agora, seremos apenas eu e Ilon. O desenvolvimento da IA ​​real ainda está muito distante. Acho que teremos tempo suficiente para criar uma função de controle.

IM: vou passar algum tempo com a equipe do projeto no escritório cerca de uma vez por semana ou duas semanas, aprendendo sobre atualizações, expressando minha opinião e entendendo até que ponto a IA avançou e quão perto chegamos a algo perigoso. Pessoalmente, levarei muito a sério a segurança. Estou muito preocupado com isso. E se descobrirmos alguns momentos de risco, certamente tornaremos isso público.

Você tem algum exemplo de IA do mal?


SA: Há muita ficção científica, antes da implementação ainda há muitos anos - Terminator e similares. Não me preocupo com a ocorrência de tais coisas tão cedo. Mas que tipo de problema terá que enfrentar - embora isso não seja uma IA maligna - o mesmo ocorre com a automação geral e o desaparecimento de empregos. Outro exemplo de IA malévola é quando as pessoas falam sobre programas inteligentes que quebram computadores melhor que os humanos. E isso já está acontecendo.

Você começa a trabalhar com algum tipo de sistema pronto?


SA: Não. O estudo começará como em qualquer laboratório e, por muito tempo, parecerá um laboratório. Até agora ninguém sabe como construí-lo. Já temos oito pesquisadores e vários outros entrarão no projeto dentro de alguns meses. Até agora, eles trabalharão no escritório da AC e, à medida que crescerem, mudarão para seus próprios. Eles brincam com idéias e escrevem software para entender se conseguem desenvolver o estado atual da arte de criar IA.

Pessoas de fora participarão disso?


SA: Claro. Um dos benefícios de um programa aberto é que os laboratórios podem colaborar com qualquer pessoa, pois podem compartilhar informações livremente. É muito difícil trabalhar com funcionários do Google, pois eles têm muitas restrições de privacidade.

Sam, se a OpenAI trabalhar no escritório da AC, suas startups terão acesso aos resultados do trabalho deles?


SA: Se o OpenAI for desenvolvido em uma tecnologia interessante e todos puderem usá-lo gratuitamente, isso será uma vantagem para qualquer empresa de tecnologia. Mas não mais do que isso. No entanto, pediremos às nossas startups que forneçam o máximo de informações que entenderem para a OpenAI. E Ilon também vai pensar no que Tesla e SpaceX podem compartilhar.

E quais, por exemplo, serão as informações que podem ser compartilhadas?


SA: Muitas coisas. Por exemplo, todos os dados com o Reddit podem ser um ótimo conjunto de treinamento. Os vídeos de treinamento do Tesla Robot Mobile também serão muito valiosos. Enormes quantidades de dados são muito importantes. As pessoas ficam mais espertas lendo livros. Mas uma pessoa se torna mais inteligente apenas lendo o livro. E se uma das máquinas Tesla, por exemplo, descobrir algo sobre a nova situação, todas as máquinas Tesla se beneficiarão automaticamente disso.

IM: Em geral, não temos um grande número de planos específicos, pois a empresa está apenas na sua infância. Ela está em estado de embrião. Mas a Tesla realmente tem muitos dados do mundo real, graças aos milhões de milhas que se acumulam todos os dias em nossa frota. A Tesla pode ter mais dados do mundo real do que qualquer outra empresa no mundo.



A IA requer um poder de computação sério. Que infraestrutura você terá?


CA: Somos parceiros da Amazon Web Services. Eles fornecem um projeto de capacidade muito grande.

E o projeto receberá um bilhão?


IM: Podemos dizer que haverá ainda mais. Não fornecemos cotações exatas, mas grandes receitas virão de todos esses indivíduos.

Que horas são


SA: pelo tempo necessário para criar um sistema. Economizaremos, mas o projeto, aparentemente, foi desenvolvido por décadas e exigirá muitas pessoas e equipamentos.

E o lucro não é obrigatório para você?


IM: Exatamente. Este investimento não tem fins lucrativos. É possível que a receita apareça no futuro, assim como o Instituto de Pesquisa sem fins lucrativos de Stanford a recebe. No futuro, a receita poderá aparecer, mas não haverá lucros enriquecendo os coproprietários, não haverá ações e outras coisas. Achamos que sim.

Ilon, você já investiu na empresa DeepMind AI, pelo que entendi, pelas mesmas razões - para acompanhar o desenvolvimento da IA. E então o Google comprou. Esta é a segunda tentativa?


IM: Na verdade, não sou investidor no sentido usual. Não faço investimentos com o objetivo de obter lucro financeiro. Eu invisto em empresas que ajudo a criar e posso ajudar um amigo, por alguma meta em que acredito ou pelo que me excita. Eu não diversifico fora da minha empresa em um sentido material. Mas meus "investimentos" no DeepMind foram feitos para uma melhor compreensão da IA ​​e sua supervisão, se você preferir.

Você competirá com os melhores cientistas que podem trabalhar no DeepMind, no Facebook ou na Microsoft?


SA: A contratação está indo bem até agora. Os pesquisadores estão muito satisfeitos com a liberdade, abertura e a oportunidade de compartilhar seu trabalho, que não é um laboratório de produção regular. Reunimos uma equipe inicial de alta qualidade que o restante se unirá apenas ao trabalho conjunto com eles. E também acho que nossa missão, visão e estrutura são muito populares entre as pessoas.

Quantos pesquisadores você precisará? Centenas?


SA: Talvez.

Vamos voltar à ideia de que o uso geral da IA ​​pode nos salvar das consequências negativas. Existe o risco de torná-lo mais acessível aumentar seu potencial perigo?


SA: Gostaria de contar todas as horas que gastei discutindo sobre isso com Ilon e outros. E ainda assim 100%, não tenho certeza. Você não tem 100% de certeza? Mas tente diferentes opções de desenvolvimento. A segurança através do sigilo no caso da tecnologia raramente funcionava. Se alguém fica sozinho, como decidir quem possui o Google, o governo americano, o governo chinês, ISIS [organização proibida na Rússia - aproximadamente tradução], ou quem? Existem muitos vilões no mundo, mas a humanidade está prosperando. E o que acontece se um deles se mostra um bilhão de vezes mais poderoso que a outra pessoa?

IM: Eu acho que a melhor defesa contra o uso inadequado da IA ​​será armar o maior número possível de pessoas. Se todos tiverem recursos de IA, não haverá um conjunto tão pequeno de pessoas que terão super poderes à sua disposição.

Ilon, você é diretor de duas empresas e faz parte do conselho de administração da terceira. Parece que você não tem muito tempo livre para se dedicar ao seu novo projeto.


IM: Isso é verdade. Mas a segurança da IA ​​vem pressionando minha mente há muito tempo, e acho que, para o bem da minha paz de espírito, farei um acordo comigo mesmo.

Source: https://habr.com/ru/post/pt396621/


All Articles