O aprendizado de máquina enfrentou um problema de matemática não resolvido

Saudação, Khabrovites! Antecipando o lançamento de novos tópicos nos cursos avançados e básicos "Matemática para Ciência de Dados" , queremos compartilhar com você uma tradução bastante interessante. Não haverá prática neste artigo, mas o material é interessante para desenvolvimento e discussão geral.





Um grupo de pesquisadores enfrentou um problema matemático aberto associado a uma série de paradoxos lógicos que foram descobertos pelo famoso matemático austríaco Kurt Gödel na década de 1930.

Os matemáticos que trabalharam em problemas de aprendizado de máquina provaram que a possibilidade de "aprendizado", isto é, se o algoritmo pode extrair um padrão de dados limitados, está intimamente relacionada ao paradoxo conhecido como hipótese do continuum. Gödel disse que, usando os recursos padrão de uma linguagem matemática, uma hipótese não pode ser confirmada nem refutada. As descobertas mais recentes de pesquisa sobre esse tópico foram publicadas na Nature Machine Intelligence em 7 de janeiro .

"Foi uma surpresa para nós", disse Amir Yehudaev, da Technion, Instituto de Tecnologia de Israel em Haif, que co-escreveu o estudo. Ele disse que, apesar de várias questões técnicas, também conhecidas como "insolúveis", ele não esperava que esse fenômeno ocorresse na tarefa aparentemente simples do aprendizado de máquina.

John Tucker, especialista em ciência da computação na Swansea University, Reino Unido, diz que este trabalho é "um resultado tangível à margem do nosso conhecimento", com implicações fundamentais para a matemática e o aprendizado de máquina.

Nem todos os conjuntos são iguais.


Os pesquisadores geralmente determinam a capacidade de aprender em termos de se um algoritmo pode generalizar seu conhecimento. O algoritmo fornece a resposta "sim" ou "não", por exemplo, para a pergunta "Existe um gato na imagem?" Para um número limitado de objetos e, em seguida, ele deve fazer uma previsão para novos objetos anteriormente desconhecidos.

Yehudaev e seus colegas obtiveram resultados examinando a relação entre aprender e "espremer", o que inclui encontrar uma maneira de mapear as características de um grande conjunto de dados para um conjunto menor. Os autores descobriram que a capacidade de compactação da informação reduz efetivamente a questão da teoria dos conjuntos - conjuntos matemáticos de objetos, como conjuntos nos diagramas de Venn. Em particular, isso se aplica a conjuntos de vários tamanhos que contêm um número infinitamente grande de objetos.

Georg Cantor, o fundador da teoria dos conjuntos, na década de 1870, provou que nem todos os conjuntos infinitos são iguais: por exemplo, o conjunto de números inteiros é "menor" que o conjunto de todos os números reais, também conhecido como continuum. (Como os números reais incluem números irracionais e racionais e números inteiros.) Cantor também sugeriu que não há conjuntos de tamanho intermediário, ou seja, maiores que o conjunto de números inteiros, mas menores que o continuum. Mas ele não conseguiu provar essa hipótese contínua, como muitos matemáticos e lógicos - seus seguidores.

Seus esforços foram em vão. Em 1940, Godel conduziu um estudo (que foi concluído apenas na década de 1960 pelo matemático americano Paul Cohen), no qual, usando axiomas, ele provou que a hipótese do continuum não pode ser verdadeira nem falsa.

O trabalho de Gödel e Cohen sobre a hipótese do continuum admite que podem existir universos matemáticos paralelos que atendem às leis da matemática padrão: aquele em que a hipótese do continuum se torna um axioma geralmente aceito, ou seja, é declarado verdadeiro e o segundo em que também é declarado falso.

Membro de aprendizagem


Em seu trabalho mais recente, Yehudaev e seus colegas definem o aprendizado como a capacidade de fazer previsões para um conjunto de dados relativamente grande, amostrando um pequeno número de pontos de dados. A conexão com o problema do Cantor é que existem infinitas maneiras de selecionar um conjunto menor, mas o tamanho desse infinito é desconhecido.

Além disso, os autores mostram que, se a hipótese do continuum for verdadeira, uma pequena amostra será suficiente para extrapolação. Mas se for falso, não poderá haver uma amostra finita que seja suficiente. Assim, eles acreditam que o problema de aprendizagem é realmente equivalente à hipótese do continuum. Como resultado, o problema da aprendizagem também está em um estado de incerteza, que só pode ser resolvido com a escolha de um universo axiomático.

"O resultado do estudo também ajuda a construir uma compreensão mais ampla da aprendizagem", diz Yehudaev. "Essa conexão entre compressão e generalização é realmente fundamental para entender o processo de aprendizagem."

"Os pesquisadores descobriram vários desses problemas" insolúveis "", diz Peter O'Hearn, especialista em ciência da computação da University College London. Em particular, de acordo com os resultados do trabalho de Godel, Alan Turing, um dos fundadores da teoria dos algoritmos, descobriu uma classe de perguntas que nenhum programa de computador pode responder por qualquer número finito de etapas.

"No entanto, a insolubilidade obtida em estudos recentes é muito rara e muito mais surpreendente", acrescenta O'Hearn: indica que Godel descobriu a incompletude interna de qualquer tipo de linguagem matemática. É provável que os resultados obtidos sejam importantes para a teoria do aprendizado de máquina, mas é improvável que tenha um grande impacto prático.

Escreva nos comentários o que você pensa sobre este material e convidamos você a um webinar gratuito , no qual falaremos sobre métodos de análise de regressão em Data Science .

Source: https://habr.com/ru/post/pt484238/


All Articles