As lembranças de como Niels Bohr discutiu com Albert Einstein, e George Westinghouse e Nikola Tesla com Thomas Edison, há muito se transformam em lendas. Essas discussões científicas não foram esquecidas até agora, porque, por um lado, somente o tempo poderia resolvê-las. Por outro lado, seus resultados determinaram o desenvolvimento da tecnologia nas próximas décadas. Existem discussões semelhantes hoje? Existe. E eles são tão quentes e interessantes quanto eram cem anos atrás.
Talvez a controvérsia mais interessante do nosso tempo seja a disputa entre Vladimir Vapnik (inventor do método do vetor de suporte ou SVM - support vector machine), com Larry Jakel, seu chefe no Bell Labs e um defensor de redes neurais convolucionais.
Fotos do blog de Jan LeCunn no Google+Sua aposta documentada é trazida em sua página do Google+ por Jan LeCunn (ideólogo de redes neurais convolucionais), que atuou como juiz da disputa e garantiu todas as condições com sua própria assinatura. E eles eram os seguintes.
Imagem retirada do blog do Jan LeCunn no Google+Larry Jakel argumentou que em 2000, seria desenvolvida uma compreensão teórica de por que grandes redes neurais funcionariam bem (em termos de limites de aplicação e condições semelhantes às que descrevem o funcionamento do SVM).
Vladimir Vapnik argumentou que, em 2005, ninguém em sã consciência usaria redes neurais das mesmas arquiteturas propostas em 1995, todo mundo mudaria para suportar máquinas vetoriais.
Estava em jogo um lindo jantar, a ser pago por alguém cuja previsão não se concretizou.
Assim, no ano 2000, não havia uma teoria clara do funcionamento das redes neurais; elas permaneciam caixas pretas. No entanto, as pessoas em sã consciência continuam a usar as redes das mesmas arquiteturas que foram propostas há quase um quarto de século atrás, apesar das previsões de V. Vapnik.
Ambos os participantes perderam a aposta. E para jantar em um restaurante para três pessoas (com a participação de Jan LeCund), ambos pagos.
Uma bela história sobre uma discussão científica moderna - por que não é uma nova lenda que será recontada após décadas e até séculos? Mas não se trata de beleza, mas de dois campos de desenvolvedores e pesquisadores comparáveis em tamanho e importância, que discutem entre si sobre o que é mais eficiente de usar - redes neurais misteriosas ou o método de vetor de suporte bem estudado que foi bem estudado e descrito na literatura.
No final do século passado, poucos acreditavam em redes neurais. Embora a CNN (redes neurais convolucionais) estivesse sendo desenvolvida na mesma época que a SVM, entre 1988 e 1992. A prática moderna e a literatura científica mostram que hoje em dia, na era da revolução do aprendizado profundo, as redes neurais são usadas cada vez mais ativamente e ajudam a resolver problemas complexos, por exemplo, no campo do reconhecimento de fala. O método SVM está perdendo sua popularidade, mas ainda permanece em demanda em algumas tarefas.

A Guerra das Correntes (uma disputa entre T. Edison e D. Westinghouse) terminou apenas em 2007, quando o último consumidor de DC desapareceu em Nova York. Gostaria de acreditar que a discussão entre V. Vapnik e L. Jakel terminará mais rápido, porque seu resultado, ao que parece, já está claro. Hoje todo mundo fala sobre o profundo aprendizado da revolução e o fato de que as redes neurais realmente derrotaram na prática tudo o que existia antes deles. Mas! Permanece um ponto importante mencionado neste debate - ainda não há um entendimento claro dos limites e condições de aplicabilidade das redes neurais, não existe uma descrição analítica completa de todos os processos dentro das "caixas pretas". Agora estamos observando como a análise está desaparecendo em segundo plano, dando lugar à engenharia e aos empíricos.
Será que algum dia será sabido como funciona uma caixa preta chamada “rede neural”? O tempo dirá. Enquanto isso, argumentem, senhores!