O livro "Arquitetos da inteligência"

imagem A inteligência artificial (IA) está se movendo rapidamente da ficção científica para a vida cotidiana. Os dispositivos modernos reconhecem a fala humana, são capazes de responder a perguntas e realizar a tradução automática. Em várias áreas, desde a condução de um veículo não tripulado até o diagnóstico de câncer, são utilizados algoritmos de reconhecimento de objetos baseados em IA, cujas capacidades são superiores às humanas. As grandes empresas de mídia usam o jornalismo robótico para criar artigos semelhantes aos direitos autorais a partir dos dados coletados. A IA está obviamente pronta para se tornar uma tecnologia verdadeiramente universal, como a eletricidade.

Quais abordagens e tecnologias são consideradas as mais promissoras? Que grandes descobertas são possíveis nos próximos anos? É possível criar uma máquina verdadeiramente pensante ou IA comparável à humana, e em quanto tempo? Quais riscos e ameaças estão associados à IA e como evitá-los? A IA causará caos na economia e no mercado de trabalho? As máquinas superinteligentes sairão do controle humano e se tornarão uma ameaça real?

Claro, é impossível prever o futuro. No entanto, os especialistas sabem mais sobre o estado atual da tecnologia, bem como sobre inovações no futuro próximo, do que qualquer outra pessoa. Você terá reuniões brilhantes com pessoas reconhecidas como R. Kurzweil, D. Hassabis, J. Hinton, R. Brooks e muitos outros.

Yan Lekun


VICE-PRESIDENTE E FUNDADOR DO LABORATÓRIO DE PESQUISA DA AI NO FACEBOOK (FAIR), PROFESSOR DE CIÊNCIA DA COMPUTAÇÃO NA UNIVERSIDADE DE NOVA IORQUE

Juntamente com Jeffrey Hinton e Joshua Benjio, Ian Lekun faz parte de um grupo de pesquisadores cujos esforços e perseverança levaram à atual revolução em relação às redes neurais e aprendizado profundo. Enquanto trabalhava no Bell Labs, ele inventou redes neurais convolucionais. Ele recebeu um diploma de engenheiro elétrico em Paris pela ESIEE e um doutorado em ciência da computação pela Universidade de Pierre e Marie Curie. Após a pós-graduação, ele trabalhou no Laboratório Jeffrey Hinton da Universidade de Toronto.

Martin Ford: A explosão de interesse em aprendizado profundo nos últimos 10 anos é uma conseqüência da melhoria simultânea das redes neurais, aumentando o poder dos computadores e a quantidade de dados disponíveis?

Yang Lekun: Sim, mas o processo foi mais deliberado. Apareceu em 1986–87. o algoritmo de retropropagação tornou possível o treinamento de redes neurais multicamadas. Isso causou uma onda de interesse que durou até 1995. Em 2003, Jeffrey Hinton, Joshua Benggio e eu propusemos um plano para renovar o interesse da comunidade por esses métodos, porque estavam confiantes em sua vitória iminente. Então, podemos dizer que houve uma conspiração deliberada.

M.F .: Você já entendeu todas as perspectivas? IA e aprendizado profundo agora são considerados sinônimos.

I. L .: Sim e não. Sabíamos que os métodos formariam a base da visão computacional, reconhecimento de fala e, possivelmente, algumas outras coisas, mas ninguém esperava que eles se estendessem à compreensão de linguagem natural, robótica, análise de imagens médicas e até contribuíssem para o surgimento de veículos não tripulados. No início dos anos 90. Eu pensei que o movimento em direção a essas coisas seria mais suave e elas apareceriam um pouco mais cedo. Estávamos aguardando a revolução que aconteceu por volta de 2013.

M.F .: E como surgiu seu interesse em IA e aprendizado de máquina?

Y. L .: Desde a infância, eu estava interessado em ciência, tecnologia e questões globais sobre a origem da vida, a inteligência, a origem da humanidade. A ideia de IA me encantou. Mas nos anos 1960-70. ninguém fez isso na França, então depois da escola eu fui estudar como engenheiro.

Em 1980, gostei muito do livro sobre a filosofia da linguagem e da aprendizagem: o debate entre Jean Piaget e Noam Chomsky (“Linguagem e aprendizagem: uma discussão entre Jean Piaget e Noam Chomsky”), no qual o criador da teoria do desenvolvimento cognitivo e do linguista discutiu natureza e educação , bem como o surgimento de linguagem e inteligência.

Do lado de Piaget, o professor do MIT Seymour Peypert falou sobre as origens do aprendizado de máquina no final da década de 1960. realmente contribuiu para a interrupção do trabalho com redes neurais. E agora, depois de 10 anos, ele exaltou o chamado perceptron - um modelo muito simples de aprendizado de máquina que apareceu na década de 1950. e no qual ele trabalhou na década de 1960. Então, pela primeira vez, me familiarizei com o conceito de aprendizado de máquina e fiquei absolutamente fascinado por ele. A capacidade de aprender, considerei parte integrante da inteligência.

Como estudante, li tudo o que pude encontrar sobre aprendizado de máquina e fiz vários projetos sobre esse tópico. Descobriu-se que no Ocidente ninguém trabalha com redes neurais. Alguns pesquisadores japoneses trabalharam no que mais tarde ficou conhecido como esse termo. Em nosso país, esse tópico não interessava a ninguém, em parte por causa do que apareceu no final da década de 1960. livros de Peypert e Minsky.

Comecei uma pesquisa independente e, em 1987, defendi minha dissertação de doutorado Modeles connexionnistes de l'apprentissage ("Modelos de aprendizado conexionistas"). Meu gerente Maurice Milgram não lidou com esse tópico e me disse diretamente que ele poderia se tornar meu consultor oficialmente, mas ele não poderia me ajudar tecnicamente.

No início dos anos 80 Descobri uma comunidade de pessoas que trabalhavam em redes neurais e as contatei. Como resultado, em paralelo com David Rumelhart e Jeffrey Hinton, descobri algo como o método de propagação reversa do erro.

M.F .: Ou seja, no início dos anos 80. No Canadá, existem numerosos estudos nessa área?

Y. L.: Não, tudo aconteceu nos EUA. No Canadá, esses estudos ainda não foram realizados. No início dos anos 80 Jeffrey Hinton era funcionário da Universidade da Califórnia, San Diego, onde trabalhou com psicólogos cognitivos como David Rumelhart e James McClelland. Como resultado, apareceu um livro explicando a psicologia com a ajuda de redes neurais simples e modelos de computador. Jeffrey tornou-se professor assistente na Universidade Carnegie Mellon. Ele só se mudou para Toronto em 1987. Então me mudei para Toronto e trabalhei em seu laboratório por um ano.

M.F .: No início dos anos 80. Eu era estudante de ciência da computação e não lembro que redes neurais foram usadas em algum lugar. Agora a situação mudou dramaticamente.

Y. L .: As redes neurais não estão apenas à margem da ciência. Nos anos 70 e início dos anos 80. eles foram realmente anatematizados. Os artigos foram rejeitados por uma menção às redes neurais.

O conhecido artigo Optimal Perceptual Inference, publicado em 1983 por Jeffrey Hinton e Terry Seinowski. Para descrever nele um dos primeiros modelos de aprendizagem profunda e rede neural, eles usaram palavras de código, mesmo no nome.

M.F .: Você é conhecido como o autor de uma rede neural convolucional. Por favor, explique o que é?

Y. L .: Inicialmente, essa rede neural foi otimizada para o reconhecimento de objetos em imagens. Porém, pode ser aplicado a uma ampla gama de tarefas, como reconhecimento de fala e tradução automática. A idéia para sua criação foi servida pelas características do córtex visual do cérebro de animais e seres humanos, estudadas nas décadas de 1950 e 1960. David Hubel e Thorsten Wiesel, que mais tarde receberam o Prêmio Nobel de Neurobiologia.

A rede convolucional é uma maneira especial de conectar neurônios que não são uma cópia exata dos neurônios biológicos. Na primeira camada - a camada de convolução - cada neurônio é associado a um pequeno número de pixels da imagem e calcula a soma ponderada de seus dados de entrada. Durante o treinamento, os pesos mudam. Grupos de neurônios veem pequenas áreas da imagem. Se um neurônio detectar um recurso específico em uma área, outro neurônio detectará exatamente o mesmo recurso na área adjacente e todos os outros neurônios nas áreas restantes da imagem. A operação matemática que os neurônios realizam juntos é chamada de convolução discreta. Daí o nome.

Em seguida, vem a camada não linear, na qual cada neurônio é ativado ou desativado, dependendo se a soma ponderada calculada pela camada de convolução acabou sendo maior ou menor que o limite especificado. Por fim, a terceira camada executa uma operação de redução de amostragem para garantir que uma leve distorção ou deformação da imagem de entrada não mude muito a saída. Isso fornece independência das deformações da imagem de entrada.

De fato, uma rede convolucional é uma pilha organizada a partir de camadas de convolução, não linearidade e subamostragem. Quando são dobrados, aparecem neurônios que reconhecem objetos. Por exemplo, um neurônio que liga quando o cavalo está na imagem, outro neurônio para carros, um terceiro para pessoas e assim por diante, para todas as categorias necessárias.

Além disso, o que a rede neural faz é determinado pela força das conexões entre os neurônios, ou seja, pesos. E esses pesos não são programados, mas são o resultado do treinamento.

A imagem do cavalo é mostrada na rede e, se não responder "cavalo", será informado que isso está errado e será solicitado a resposta correta. Depois disso, usando o algoritmo de propagação de erro de retorno, a rede ajusta os pesos de todas as conexões para que, na próxima vez em que a mesma imagem seja exibida, o resultado fique mais próximo do desejado. Ao mesmo tempo, você tem que mostrar a ela milhares de imagens.

M. F. - É este ensino com um professor? Pelo que entendi, agora essa é a abordagem dominante.

Y. L .: Exatamente. Quase todos os aplicativos modernos de aprendizagem profunda usam treinamento de professores. A mágica é que a rede treinada geralmente fornece as respostas certas, mesmo para imagens que não haviam sido mostradas antes. Mas precisa de um grande número de exemplos.

M.F .: E o que se pode esperar no futuro? Será possível ensinar um carro quando criança, que só precisa mostrar um gato uma vez e dar um nome a ele?

I. L .: Na verdade, você não está certo. Os primeiros treinamentos convolucionais realmente acontecem em milhões de imagens de várias categorias. E então, se você precisar adicionar uma nova categoria, por exemplo, ensinar um computador a reconhecer gatos, algumas amostras serão suficientes. Afinal, a rede já está treinada para reconhecer objetos de quase qualquer tipo. As adições ao treinamento estão relacionadas a um par de camadas superiores.

MF: Já se parece com o modo como as crianças estudam.

Y. L.: Não, infelizmente, não é nada disso. As crianças obtêm a maioria das informações antes que alguém lhes diga: "Este é um gato". Nos primeiros meses de vida, as crianças aprendem sem ter idéia do idioma. Eles reconhecem a estrutura do mundo simplesmente observando o mundo e interagindo um pouco com ele. Essa maneira de acumular conhecimento não está disponível para máquinas. Como chamá-lo não está claro. Alguns usam o termo provocador "ensino sem professor". Isso às vezes é chamado de treinamento antecipatório ou indutivo. Eu chamo de auto-estudo. Ao treinar esse tipo, não há como se preparar para executar uma tarefa, é simplesmente observar o mundo e como ele funciona.

M.F .: O aprendizado reforçado se enquadra nessa categoria?

Y. L.: Não, esta é uma categoria completamente diferente. De fato, existem três categorias principais: aprendizado reforçado, treinamento de professores e auto-aprendizado.

O treinamento com reforço ocorre por tentativa e erro e funciona bem em jogos nos quais você pode fazer quantas tentativas quiser. O bom desempenho do AlphaGo foi alcançado depois que a máquina jogou mais jogos do que toda a humanidade nos últimos três mil anos. Para problemas do mundo real, essa abordagem é impraticável.

Uma pessoa pode aprender a dirigir um carro em 15 horas de treinamento sem colidir com nada. Se você usar os métodos de treinamento existentes com reforços, o carro, para aprender a andar sem motorista, terá que cair de um penhasco 10 mil vezes antes que ela entenda como evitar isso.

M.F .: Parece-me que este é um argumento a favor da modelagem.

Y. L .: Pelo contrário, é uma confirmação de que o tipo de treinamento utilizado pelas pessoas é muito diferente do aprendizado reforçado. Isso é semelhante ao treinamento de reforço baseado em modelo. Afinal, uma pessoa, dirigindo pela primeira vez, tem um modelo do mundo e pode prever as consequências de suas ações. Como fazer a máquina estudar independentemente os modelos prognósticos é o principal problema não resolvido.

M.F .: É sobre isso que você trabalha com o Facebook?

I. L .: Sim, essa é uma das coisas em que estamos trabalhando. Também treinamos a máquina para observar diferentes fontes de dados. Estamos construindo um modelo de mundo, esperando nele refletir o senso comum, para que mais tarde possa ser usado como prognóstico.

M.F .: Algumas pessoas pensam que apenas o aprendizado profundo não é suficiente, e nas redes deve haver inicialmente uma estrutura responsável pela inteligência. E você parece convencido de que a inteligência pode emergir organicamente de redes neurais relativamente universais.

Y. L.: Você exagera. Todo mundo concorda com a necessidade da estrutura, a questão é como ela deve ser. E por falar em pessoas que acreditam que deve haver estruturas que forneçam pensamento lógico e a capacidade de argumentar, você provavelmente quer dizer Gary Marcus e, possivelmente, Oren Etzioni. Discutimos com Gary sobre esse assunto esta manhã. Sua opinião não é bem recebida na comunidade, porque, sem dar a menor contribuição ao aprendizado profundo, ele escreveu criticamente sobre isso. Oren trabalhou nesta área por algum tempo e, ao mesmo tempo, fala muito mais suavemente.

De fato, a idéia de redes convolucionais surgiu como uma tentativa de adicionar estrutura às redes neurais. A questão é: o que permite à máquina manipular caracteres ou, por exemplo, corresponder aos recursos hierárquicos da linguagem?

Muitos de meus colegas, incluindo Jeffrey Hinton e Joshua Benggio, concordam que mais cedo ou mais tarde poderemos ficar sem estruturas. Eles podem ser úteis a curto prazo, porque ainda não foi inventada uma maneira de auto-aprendizado. Esse ponto pode ser contornado, vinculando tudo à arquitetura. Mas a microestrutura do córtex, visual e pré-frontal, parece completamente homogênea.

M.F .: O cérebro usa algo semelhante ao método de propagação de erros?

I. L .: Isso é desconhecido. Pode acontecer que essa não seja a propagação de retorno na forma como a conhecemos, mas uma forma semelhante de aproximação da estimativa do gradiente. Joshua Benggio trabalhou em formas biologicamente plausíveis de estimativa de gradiente. Há uma chance de o cérebro estimar o gradiente de qualquer função alvo.

M.F .: Quais outras coisas importantes estão sendo trabalhadas no Facebook?

Y. L .: Estamos envolvidos em uma variedade de pesquisas básicas, além de questões de aprendizado de máquina; portanto, lidamos principalmente com matemática aplicada e otimização. Está em andamento o trabalho de aprendizagem reforçada e os chamados padrões geradores, que são uma forma de autoaprendizagem ou aprendizagem antecipada.

MF: O Facebook desenvolve sistemas que podem manter uma conversa?

Y. L .: Listei os tópicos fundamentais de pesquisa acima, mas também existem muitas áreas de sua aplicação. O Facebook está desenvolvendo ativamente desenvolvimentos no campo da visão computacional, e pode-se argumentar que temos o melhor grupo de pesquisa do mundo. Trabalhamos muito no processamento de texto em um idioma natural. Isso inclui tradução, generalização, categorização (descobrir qual tópico está sendo discutido) e sistemas de diálogo para assistentes virtuais, sistemas de perguntas e respostas, etc.

M.F .: Você acha que um dia haverá uma IA capaz de passar no teste de Turing?

I. L .: Em algum momento, isso acontecerá, mas não considero o teste de Turing um bom critério: é fácil de enganar e está um pouco desatualizado. Muitos esquecem ou se recusam a acreditar que a linguagem é um fenômeno secundário em relação à inteligência.

»Mais informações sobre o livro podem ser encontradas no site do editor
» Conteúdo
» Trecho

Cupom de desconto de 25% para vendedores ambulantes - Intelligence Architects

Após o pagamento da versão impressa do livro, um livro eletrônico é enviado por e-mail.

Source: https://habr.com/ru/post/pt476466/


All Articles