Um vislumbre da caixa preta - um novo sistema do MIT mostrará como os algoritmos de aprendizado de máquina funcionam

O MIT introduziu uma ferramenta interativa que esclarece por que um sistema inteligente toma uma decisão ou outra. Este artigo é sobre como funciona.


/ Unsplash / Randy Fath

Problema na caixa preta


Os sistemas automatizados de aprendizado de máquina (AutoML) testam e modificam repetidamente os algoritmos e seus parâmetros. Usando o método de aprendizado por reforço , esses sistemas selecionam modelos de IA mais adequados do que outros para resolver um determinado problema. Por exemplo, para automatizar o suporte técnico . Mas os sistemas AutoML agem como caixas-pretas, ou seja, seus métodos são ocultos aos usuários.

Esse recurso complica bastante a depuração de algoritmos de aprendizado de máquina. E, por exemplo, no caso de sistemas de piloto automático, as consequências podem ser fatais. Em 2016, Tesla no piloto automático pela primeira vez se tornou participante de um acidente fatal, colidindo com um caminhão grande. A causa do acidente é desconhecida de maneira confiável. Os especialistas têm apenas uma suposição - o algoritmo misturou um caminhão alto com um sinal de trânsito instalado na borda inferior do viaduto. E o erro ainda não foi eliminado - no início de março, os Estados Unidos sofreram novamente um acidente semelhante .

Para explicar como um algoritmo de máquina chegou a uma conclusão ou outra, os engenheiros usam técnicas posteriores ou modelos interpretados como árvores de decisão . No primeiro caso, os dados de entrada e saída são usados ​​para aproximar o "processo de pensamento" do algoritmo. A precisão de tais técnicas é baixa.

As árvores de decisão são uma abordagem mais precisa, mas funcionam apenas com dados categorizados . Portanto, para problemas complexos, a visão por computador é inconveniente.

Engenheiros do MIT, da Universidade de Ciência e Tecnologia de Hong Kong e da Universidade de Zhejiang decidiram corrigir a situação. Eles apresentaram uma ferramenta para visualizar os processos que ocorrem dentro de uma caixa preta. Ele foi chamado de ATMSeer.

Como o sistema funciona


O ATMSeer é baseado em modelos ajustados automaticamente (ATM). Este é um sistema automatizado de aprendizado de máquina que procura os modelos mais eficazes para resolver problemas específicos (por exemplo, procurar objetos). O sistema seleciona arbitrariamente o tipo de algoritmo - uma rede neural, árvores de decisão, uma " floresta aleatória " ou regressão logística. Da mesma forma, determina os hiperparâmetros do modelo - o tamanho da árvore ou o número de camadas da rede neural.

O ATM realiza uma série de experimentos com dados de teste, ajustando automaticamente hiperparâmetros e avaliando o desempenho. Com base nessas informações, ela escolhe o seguinte modelo, que pode mostrar os melhores resultados.

Cada modelo é apresentado na forma de um tipo de "unidade de informação" com variáveis: algoritmo, hiperparâmetros, desempenho. As variáveis ​​são exibidas nos gráficos e diagramas correspondentes. Além disso, os engenheiros podem editar manualmente esses parâmetros e monitorar as alterações no sistema inteligente em tempo real.

Os engenheiros do MIT mostraram a interface da ferramenta no vídeo a seguir . Nele, eles resolveram vários casos de usuários.


O painel de controle do ATMSeer permite gerenciar o processo de aprendizado e baixar novos conjuntos de dados. Também exibe os indicadores de desempenho de todos os modelos em uma escala de zero a dez.

Perspectivas


Os engenheiros dizem que a nova ferramenta contribuirá para o desenvolvimento do campo de aprendizado de máquina, tornando o trabalho com algoritmos inteligentes mais transparentes. Vários especialistas em MO já observaram que, com o ATMSeer, eles estão mais confiantes na correção de seus modelos gerados pelo AutoML.

O novo sistema também ajudará as empresas a atender aos requisitos do GDPR. Os regulamentos gerais de proteção de dados exigem algoritmos de aprendizado de máquina para garantir a transparência . Os desenvolvedores de sistemas inteligentes devem ser capazes de explicar as decisões tomadas pelos algoritmos. Isso é necessário para que os usuários possam entender completamente como o sistema processa seus dados pessoais.


/ Unsplash / Esther Jiao

No futuro, você pode esperar mais ferramentas para olhar para a caixa preta. Por exemplo, engenheiros do MIT estão trabalhando em outra solução. Ajudará os estudantes de medicina a treinar habilidades de redação da história.

Além do MIT, a IBM trabalha nesta área. Juntamente com colegas de Harvard, eles introduziram a ferramenta Seq2Seq-Vis. Ele visualiza o processo de tomada de decisão na tradução automática de um idioma para outro. O sistema mostra como cada palavra na fonte e no texto final é associada a exemplos nos quais a rede neural foi treinada. Portanto, é mais fácil determinar se ocorreu um erro devido a dados de entrada incorretos ou a um algoritmo de pesquisa.

As ferramentas que tornam os algoritmos de aprendizado de máquina mais transparentes também encontrarão aplicativos no ITSM ao implementar o Service Desk. Os sistemas ajudarão no treinamento de bots de bate-papo inteligentes e evitarão situações em que eles não se comportam conforme o esperado .



Materiais do nosso blog corporativo:


E um blog sobre Habré:

Source: https://habr.com/ru/post/pt459030/


All Articles