Como foi o ano de 2019 no campo da matemática e da ciência da computação?

A tradução do artigo foi preparada especialmente para os alunos dos cursos básico e avançado “Matemática para Ciência de Dados” .




No ano passado, matemáticos e cientistas da computação fizeram grandes avanços na teoria dos números, teoria dos grafos, aprendizado de máquina e computação quântica e até revisaram nossos conceitos fundamentais de matemática e redes neurais.

Para matemáticos e especialistas em ciência da computação, 2019 foi um ano de repetição e estudo aprofundado. Alguns revisaram os princípios fundamentais, enquanto outros encontraram evidências surpreendentemente simples, novos métodos para resolver problemas ou compreenderam soluções inesperadas para problemas de longa data. Algumas dessas realizações já encontraram ampla aplicação na física e em outras disciplinas científicas. Outros existem apenas como uma teoria (ou apenas por diversão), e do ponto de vista prático hoje não traz nenhum benefício.

Quanta decidiu destacar uma tentativa de uma década de livrar a matemática do duro sinal de igual e substituí-lo por um conceito mais flexível de "equivalência". Também conversamos sobre novas idéias na teoria geral das redes neurais que poderiam fornecer aos especialistas em ciência da computação o cobiçado fundamento teórico para o sucesso de algoritmos de aprendizado profundo.

Enquanto isso, objetos matemáticos comuns, como matrizes e redes, revelavam novas idéias inesperadas em provas curtas e elegantes, e problemas de dez anos da teoria dos números finalmente conseguiram soluções. Os matemáticos aprenderam mais sobre como a regularidade e a ordem surgem em sistemas caóticos, números aleatórios e outras áreas aparentemente aleatórias. De um jeito ou de outro, o aprendizado de máquina estava se tornando mais poderoso, mudando abordagens e áreas de pesquisa científica, enquanto os computadores quânticos provavelmente chegariam a um ponto crítico.

Estabelecendo as bases da compreensão


E se o sinal de igual - a base de toda a matemática - fosse apenas um erro? Um número crescente de matemáticos, liderados em parte por Jacob Lurie, do Institute for Advanced Study, querem reescrever a ciência, substituindo "igualdade" por uma linguagem mais livre de "equivalência" . “Hoje, os fundamentos da matemática são construídos sobre conjuntos de objetos chamados conjuntos, mas há dez anos vários matemáticos começaram a trabalhar com grupos mais universais chamados categorias, que transmitem mais informações do que conjuntos e refletem mais relações possíveis do que a“ igualdade ”. Desde 2006, Lurie publicou mais de mil páginas de teoria matemática sobre como traduzir a matemática moderna no idioma da teoria das categorias.

Há pouco tempo, outros matemáticos começaram a estabelecer os princípios fundamentais de um campo no qual não há dogma predominante que possa ser descartado: o campo do aprendizado de máquina. A tecnologia subjacente aos algoritmos de aprendizado de máquina mais bem-sucedidos de hoje está se tornando cada vez mais necessária na ciência e na sociedade; no entanto, poucas pessoas realmente entendem como isso funciona. Em janeiro, escrevemos sobre tentativas de criar uma teoria das redes neurais , que explica o efeito da estrutura sobre as capacidades da rede.

Um novo olhar para velhos problemas


Só porque o caminho parece familiar, não se pode dizer que não há segredos nele. Durante séculos, matemáticos, físicos e engenheiros trabalharam com termos matemáticos, como "autovalores" e "autovetores", usando-os para matrizes que refletem transformações de objetos de diferentes maneiras. Em agosto, três físicos e um matemático deduziram uma nova fórmula simples que relaciona os dois conjuntos de quantidades de uma nova maneira, simplificou bastante o trabalho dos físicos no estudo de neutrinos e deu origem a novas descobertas matemáticas. Após a publicação do estudo, os cientistas descobriram que esse relacionamento foi descoberto há muito tempo, mas era ignorado o tempo todo.

Um dia, a rotina da ciência da computação foi iluminada pela descoberta de um matemático que de repente resolveu um dos maiores problemas em aberto nesse campo, comprovando a hipótese de sensibilidade (https://www.quantamagazine.org/mathematician-solves-computer-science-conjecture -in-two-pages-20190725 /), que descreve a probabilidade de afetar a saída do chip alterando os dados em uma entrada. A prova acabou por ser desarmante simples e compacta o suficiente para ser generalizada em um tweet. Ao mesmo tempo, no mundo da teoria dos grafos, outro artigo espartano (desta vez pesando apenas três páginas) refutou a hipótese de dez anos atrás sobre como escolher cores para os nós da rede, uma hipótese que afeta mapas, layout de assentos e sudoku.

Sinal em ruído


A matemática geralmente envolve encontrar algum tipo de ordem dentro da bagunça, extraindo padrões ocultos da aparente aleatoriedade. Em maio, uma equipe usou as chamadas funções mágicas para mostrar que as melhores maneiras de organizar pontos em espaços de oito e 24 dimensões também são universalmente ótimas, ou seja, resolvem um número infinito de tarefas que vão além do empacotamento apertado de esferas iguais. Ainda não está claro por que as funções mágicas são tão universais. "Existem alguns problemas na matemática que são resolvidos com a ajuda da perseverança e força bruta", disse o matemático Henry Cohn. "Além disso, há momentos em que parece que a matemática quer que algo aconteça."

Outros cientistas, no entanto, encontraram padrões imprevisíveis. Sarah Paluse provou que seqüências numéricas chamadas "progressões polinomiais" são inevitáveis ​​em conjuntos de números suficientemente grandes, mesmo que os números neles sejam selecionados aleatoriamente. Até matemáticos provaram que, sob certas condições, os padrões surgem em um processo duas vezes aleatório de analisar formas de maneira aleatória, se as próprias formas também são aleatórias. Além disso, reforçando a conexão entre caos e ordem, em março, Tim Austin provou que todas as descrições matemáticas das mudanças são, em última análise, uma mistura de sistemas ordenados e aleatórios - e mesmo os ordenados precisam de um elemento de aleatoriedade. Finalmente, no mundo real, os físicos estão trabalhando para entender quando e como sistemas caóticos, de vagalumes tremeluzentes a neurônios disparadores, podem sincronizar e se mover como um todo .

Jogo com números


No ensino fundamental, todos aprendemos a multiplicar da maneira antiga, mas em março de 2019, dois matemáticos descreveram um método mais rápido de multiplicação . Em vez de multiplicar cada dígito do primeiro número por cada dígito do segundo, o que é bastante inútil para números grandes, a calculadora pode combinar vários métodos, incluindo adição, multiplicação e permutação dos números, para finalmente obter o resultado em um número muito menor de etapas. Esta é realmente a maneira mais eficaz de multiplicar números de longe.

Outras descobertas interessantes no mundo dos números deste ano falam sobre como expressar o número 33 como a soma de três cubos , provando uma hipótese de longa data sobre como aproximar números irracionais , como Pi, e aprofundar a relação entre as somas e produtos do conjunto números .

Os crescentes desafios do aprendizado de máquina


Os cientistas estão cada vez mais se voltando para as máquinas em busca de ajuda, não apenas na obtenção de dados, mas também na compreensão deles. Em março, conversamos sobre o aprendizado de máquina alterando a taxa de crescimento da ciência . Um processo chamado modelagem generativa, por exemplo, pode ser a “terceira maneira” de formular e testar hipóteses após métodos tradicionais de observação e modelagem, embora muitos ainda o vejam simplesmente como um método simplificado de processamento de informações. De qualquer forma, como Dan Falk escreveu, o aprendizado de máquina "muda o gosto das descobertas científicas e, é claro, simplifica o caminho para isso".

Se falamos sobre o que o aprendizado de máquina nos ajudou no último ano, vale a pena notar que os pesquisadores descobriram algoritmos que poderiam prever terremotos no noroeste do Oceano Pacífico, enquanto a equipe multidisciplinar descobriu como a visão funciona, criando um modelo matemático baseado em anatomia do cérebro . Mas isso ainda está longe: uma equipe da Alemanha anunciou que as máquinas geralmente não conseguem reconhecer imagens porque se concentram mais nas texturas do que nas formas, e a rede neural, apelidada de BERT, aprendeu a derrotar as pessoas em testes de compreensão de leitura , apenas para os pesquisadores se perguntavam se a máquina realmente entendia alguma coisa ou era apenas melhor nos testes.

Próximas etapas no desenvolvimento de computadores quânticos


Depois de muitos anos de ignorância no ano passado, os pesquisadores finalmente alcançaram um estágio importante no entendimento da questão da computação quântica - embora, como em todo o quantum, esse entendimento esteja repleto de incertezas. Computadores clássicos convencionais são construídos em um sistema de números binários e operam em bits, enquanto computadores quânticos operam em qubits, que usam regras quânticas para aumentar o poder da computação. Em 2012, John Preskill cunhou o termo "superioridade quântica" para descrever o ponto em que um computador quântico supera o clássico. Relatórios de sistemas quânticos mais rápidos fizeram com que muitos especialistas suspeitassem que poderíamos chegar a esse ponto em 2019 , e em outubro o Google anunciou que esse momento finalmente chegara . No entanto, a IBM, como rival do Google nesse assunto, não concordou com essa afirmação, dizendo que ela causa "muito ceticismo". No entanto, o progresso óbvio na criação de computadores quânticos viáveis ​​ao longo dos anos também levou pesquisadores, como Stephanie Vener, a começar a construir a próxima geração de Internet quântica .

Nesta tradução do artigo chegou ao fim. E convidamos você a abrir dias nos cursos básicos e avançados "Matemática para Ciência de Dados" , para conhecer mais detalhadamente o currículo.

Source: https://habr.com/ru/post/pt485342/


All Articles