Desenvolvedores OpenAI treinando IA com Reddit


Jen-San Huang, CEO da Nvidia, mostra DGX-1 a Ilon Mask, co-fundador da OpenAI OpenAI, uma

organização sem fins lucrativos de código aberto envolvida em pesquisas no campo da inteligência artificial, recebeu um supercomputador DGX-1 da Nvidia. Os especialistas da OpenAI estão atualmente trabalhando em uma forma "fraca" de IA. Os cientistas estão desenvolvendo sistemas que podem processar uma enorme quantidade de dados primários, produzindo um conjunto estruturado de informações. Isso requer computadores poderosos, e o DGX-1 é um complexo de computação muito poderoso. A Nvidia afirma que o DGX-1 é baseado em uma nova geração de GPUs que fornecem velocidades de processamento de dados comparáveis ​​aos servidores de arquitetura 250 x86.

Os criadores do OpenAI são Elon Musk e Sam Altman. Os principais objetivos da organização são atrair cientistas que trabalham no campo da IA ​​para colaboração. Os resultados da pesquisa estão planejados para serem abertos e acessíveis a todos os participantes. Segundo os fundadores, tudo isso ajudará a impedir o surgimento de "inteligência artificial" maligna. Musk declarou essa ameaça muitas vezes.

O DGX-1 está posicionado como o primeiro supercomputador de aprendizado profundo do mundo, com capacidade computacional suficiente para o desenvolvimento de IA. Usando esse supercomputador, os pesquisadores da OpenAI poderão aprender a forma fraca da IA ​​muito mais rapidamente do que com os servidores convencionais. Na primeira etapa, a IA será ensinada a entender a comunicação de texto das pessoas. Um tesouro em mente, neste caso, servirá como Reddit. As mensagens do recurso "alimentarão" a IA e ele aprenderá a entender a relação entre palavras individuais, seus grupos e sentenças. A tarefa é complicada pelo fato de o texto com Reddita estar saturado de jargão, abreviações, esses não são textos acadêmicos.

Andrej Karpathy, pesquisador da OpenAI, diz que a IA de auto-aprendizado se tornará mais inteligente com o tempo. "O aprendizado profundo é uma classe especial de modelos, porque quanto maior o modelo, melhor ele funciona", diz ele.

A linguagem continua sendo uma questão importante para os desenvolvedores de inteligência artificial. E embora muitos problemas tenham sido resolvidos, ainda há mais a ser resolvido. Há pouco tempo, o Google realizou um experimento quando um sistema de autoaprendizagem foi treinado usando diálogos de filmes. Depois de algum tempo, descobriu-se que a IA fornece respostas bastante toleráveis ​​para perguntas relativamente complexas. Às vezes, uma tentativa de aproximar a forma fraca da IA ​​e as pessoas produz resultados inesperados. Em março deste ano, a Microsoft lançoue no Twitter, o adolescente bot Tay, e ele aprendeu mal em apenas um dia. Depois disso, os funcionários da Microsoft consideraram melhor excluir quase todas as mensagens Tay e o enviaram para dormir.

Os cientistas da OpenAI querem entender se um robô pode aprender um idioma interagindo com pessoas do mundo real. O experimento com o Reddit é o primeiro passo na série de experimentos pretendida. Graças ao DGX-1, o treinamento será muito mais rápido do que o planejado. A IA pode ser treinada no exemplo de matrizes de dados maiores que o planejado. Além do texto, a IA será treinada por tentativa e erro para executar várias ações. Este método pode ser usado para ensinar inteligência artificial a jogar videogame. Talvez ele seja capaz de entender que o acúmulo de moedas em vários jogos permite aumentar o número de pontos ganhos e melhorar as habilidades do personagem.



Por que tudo isso é necessário? Em termos práticos, uma forma fraca de IA pode ser usada em muitas áreas. Por exemplo, crie um robô capaz de realizar tarefas domésticas. E esse robô funcionará cada vez melhor com o tempo, pois é capaz de aprender. Também é necessária uma forma fraca de IA para melhorar o desempenho de carros autônomos atualmente sendo desenvolvidos por várias empresas, incluindo o Google. Quanto à forma forte de IA, vale a pena temer que ele não comece a usar as pessoas para seus próprios propósitos, como Musk mencionou repetidamente.

Vários pesquisadores questionam a viabilidade da missão da OpenAI de criar uma "boa" superinteligência artificial. Segundo os representantes da própria organização, a ameaça de criar uma IA mal-intencionada é compensada pelo fato de que tecnologias e resultados de desenvolvimento são acessíveis a todos. Ao mesmo tempo, Nick Bostrom, um cientista de Oxford, acredita que é a abertura que pode levar a resultados negativos. O fato de todos compartilharem os resultados da pesquisa com todos, diz Bostrom, pode ser um problema. "Se você tem um botão" fazer todo mundo se sentir mal ", é improvável que você queira compartilhá-lo com todos", diz Bostrom. Mas no caso do OpenAI, esse botão estará disponível para todos. Se a organização ocultar os resultados de seu trabalho, que considera perigosos, a existência do OpenAI perderá seu significado, pois a organização não será mais aberta.

No entanto, Bostrom acredita que deve haver resultados positivos. O principal resultado é uma diminuição na probabilidade de controlar a superinteligência de uma empresa no caso de uma forte forma de IA. Monopolizar uma forma forte de IA é ruim e o OpenAI provavelmente reduzirá a probabilidade de um desenvolvimento desse tipo de eventos.

Source: https://habr.com/ru/post/pt396947/


All Articles