Dmitry Muromtsev (ITMO) - sobre modelagem ontológica e formação de inteligência conversacional

Dmitry Muromtsev, chefe do ITMO do laboratório internacional "Métodos inteligentes de processamento de informações e tecnologias semânticas" e chefe do departamento de IPM , falou sobre a essência da modelagem ontológica, o uso de gráficos de conhecimento em processos de negócios e o trabalho de criação de inteligência de conversação.



Entrevistador: Anna Angelova (A.A.)
Reclamado: Dmitry Muromtsev (D.M.)

AA: Qual é a essência da modelagem ontológica e como está indo a compilação de gráficos de conhecimento?

DM: Modelagem ontológica é a compilação de modelos de informação na forma de descrições conceituais de áreas que atendem a certos padrões. Existem idiomas especiais para ontologias, eles são padronizados e já são utilizados na indústria. O principal objetivo das ontologias é descrever dados e esquemas de conhecimento que podem existir em uma ampla variedade de fontes. O problema é que existem muitas dessas fontes, que diferem bastante no tipo de armazenamento de dados, na arquitetura de software etc. Para conectá-las a um único espaço de informações, são necessários mecanismos especiais de integração - são precisamente as ontologias. Eles são usados ​​na integração de bancos de dados, na descrição de dados mal estruturados na Internet, na criação de bases de conhecimento sobre um tópico específico ou em grandes bases de conhecimento não temáticas - por exemplo, com base nas informações da Wikipedia.

O próprio processo de criação implica a participação de especialistas em domínio: os especialistas estão sempre envolvidos nas questões para as quais os dados serão apresentados na coluna de conhecimento. Por exemplo, esses podem ser problemas relacionados ao patrimônio cultural, medicina, educação ou qualquer produção.

Esses especialistas identificam conceitos-chave - objetos que são extremamente importantes para uma determinada área de assunto. Por exemplo, o patrimônio cultural são os objetos de arte, os criadores desses objetos, o processo criativo, os processos de restauração ou algum tipo de modificação (se é um objeto arquitetônico, pode ser reconstruído), são questões de exibição, armazenamento etc. Tudo o que é importante para uma descrição completa do assunto áreas formuladas por um especialista. Além disso, denota o relacionamento, o relacionamento entre esses objetos. Essa descrição formalizada permite, posteriormente, fazer pesquisas em gráficos de conhecimento.

Tecnologicamente, o procedimento de transformação pode ser bastante complexo e incluir muitas ferramentas: ferramentas de processamento de linguagem natural, aprendizado de máquina, reconhecimento de padrões e várias outras ferramentas. Por fim, obtemos uma rede ou gráfico de objetos interconectados. A principal característica desse sistema, diferentemente dos bancos de dados, é que essa rede é auto-descritiva e auto-documentada. Não precisa de explicações adicionais do desenvolvedor .

AA: Qual é o escopo dos gráficos de conhecimento?

D.M .: Quase qualquer. Agora, existem gráficos de conhecimento de conteúdo universal (o mais famoso é o Google), há Wikidata, Dbpedia, que são mais remanescentes da Wikipedia em termos de cobertura. Existem gráficos de conhecimento especializados: sobre medicina, sobre patrimônio cultural, de acordo com dados abertos do estado. Existem colunas de conhecimento corporativo - elas são de domínio público.

AA: Conte-nos sobre o projeto para o DataFabric. Do que eles precisavam e que resultados foram alcançados?

DM: Vamos levantar a questão um pouco mais amplamente. O projeto para DataFabric é um exemplo, tivemos vários deles. Iniciamos nossa atividade há cerca de 8 anos. Gastamos uma parte significativa do tempo na popularização de tecnologias semânticas, na realização de vários eventos científicos e educacionais , hackathons etc. Nos reunimos regularmente com representantes do setor. Dezenas dessas reuniões acontecem anualmente e alguns representantes do setor estão interessados.

Na situação com a DataFabric, trabalhavam principalmente seus especialistas, que consultamos em termos de metodologia e recomendamos determinadas tecnologias e ferramentas. Também verificamos seus resultados - uma análise de como tudo foi feito corretamente. O projeto desta empresa é interessante, pois é o primeiro exemplo na Rússia quando uma empresa investe seus próprios recursos no desenvolvimento de gráficos de conhecimento, no desenvolvimento de tecnologia de dados relacionada e conseguiu provar que pode ser rentável. Até onde eu sei, a empresa continua a usar o gráfico de conhecimento criado e planeja desenvolvê-lo. A partir dos discursos de seus representantes, podemos concluir que, graças ao gráfico do conhecimento, eles foram capazes de automatizar uma grande quantidade de trabalho manual. Mas, para obter informações mais precisas, é melhor entrar em contato diretamente com a empresa.

Sergey Isaev,
CEO DataFabric

Queríamos criar um sistema inteligente de verificação de contraparte e coletar informações da empresa. Éramos uma empresa muito pequena e queríamos obter uma vantagem competitiva. Nossos concorrentes - Spark Interfax, Kontur.Fokus - são muito grandes, poderosos, estão no mercado há muitos anos e, assim, “de frente”, é impossível competir com eles.

Coletamos todas as mesmas informações sobre a empresa que nossos concorrentes: dados do Federal Tax Service, Rosstat e outras fontes. Nós os carregamos em um único banco de dados. Como temos um gráfico, as conexões entre todos os objetos aparecem nele. O sistema utiliza modelagem ontológica: descrevemos para ele o valor de absolutamente todos os dados com os quais trabalha. Portanto, ela começa a entender o contexto, a carga semântica de certos dados. Graças a isso, ela pode até fazer perguntas abertas, por exemplo: "Mostre-me todas as empresas que provavelmente quebrarão no próximo ano". Como ela entende o significado de cada palavra nesse assunto, ela fornecerá uma lista.

Não sei quanto os concorrentes gastam tempo, dinheiro e energia na solução de seus problemas. Mas eu sei que eles têm centenas de desenvolvedores, e temos apenas 12 pessoas, e criamos nosso sistema em um ano e meio. Agora, você pode prototipar rapidamente novos casos, novos serviços, porque é mais inteligente e flexível.

AA: Existem muitos parceiros no local do laboratório que você chefia. Quais deles estão colaborando em projetos em andamento?

DM: Se tomarmos a cooperação no sentido mais amplo da palavra, o Conselho de Dados Abertos da Federação Russa será o principal em termos de quantidade de tempo alocado. Estamos tentando realizar trabalhos metodológicos e de pesquisa no país, com o objetivo de promover gráficos de conhecimento para autoridades federais e outras estruturas necessárias para a publicação de dados abertos. Agora, o requisito da lei para a publicação de dados abertos é bastante formal e limitado. Estamos tentando provar que isso pode ser feito com muito mais eficiência, e isso trará benefícios muito maiores para a economia. Também cooperamos ativamente em tecnologias educacionais de e-learning com diferentes estruturas. Existem projetos de pesquisa com várias universidades na Alemanha, Finlândia e Áustria.

AA: Quais atividades das empresas do setor devem ser monitoradas?

DM: Para a comunidade como um todo. Está claro que as grandes empresas são, de certo modo, um indicador de quão maduras são as tecnologias. Porém, na última conferência da ISWC na Áustria - e esta é a maior conferência do mundo sobre tecnologias semânticas -, um relatório do Google levantou muitas questões: os problemas que eles colocavam para si mesmos muitas vezes já eram resolvidos por mais empresas de pesquisa.

Caracteristicamente, grandes players, como regra, não fazem pesquisas a partir do zero. Eles apresentam um problema específico, depois encontram uma equipe que pode resolvê-lo e começam a cooperar com ele ou comprá-lo, se for algum tipo de startup. Ou seja, os grandes players têm maior probabilidade de desempenhar um papel sistêmico.

E se você seguir a comunidade como um todo, poderá ver muitos grupos de pesquisa interessantes, empresas e startups que oferecem as soluções mais inovadoras. Por exemplo, agora há uma tendência muito séria no desenvolvimento de bots de bate-papo , interfaces de voz e outros sistemas, que depois de um tempo serão praticamente assistentes de pleno direito, assistentes.

AA: Seu laboratório também está desenvolvendo projetos de processamento de fala. Dois deles são indicados no site: um é concluído e o outro continua. Conte-nos sobre eles.

[nota: “Desenvolvimento da morfologia do computador para estudos de caso de um texto variável”, 2015–2016; “Desenvolvimento de um analisador sintático da fala espontânea russa usando métodos de mineração de dados usando bases de conhecimento semânticas”, 2015–2018]

DM: O primeiro projeto foi iniciado pelo Center for Speech Technologies - a criação de um gerente de diálogo inteligente. Essas soluções que existem agora são bastante primitivas. Eles são confrontados quando um cliente liga para uma organização ou um banco e ele precisa mudar de uma linha para outra por um longo tempo. Sistemas mais avançados são capazes de analisar o texto obtido durante o reconhecimento - por exemplo, Siri, Amazon Alexa. Mas o conteúdo deste texto para a máquina permanece desconhecido. Aliás, na Rússia, o projeto iPavlov foi lançado recentemente, mas até agora há poucos dados sobre seus resultados.

Além disso, assim que reconhecemos o sinal de fala, precisamos entender que tipo de pergunta ele contém. O problema é que, quando as pessoas se comunicam, o canal de interação da fala é apenas um de muitos. Informacionalmente, ele não é o mais carregado. Existem canais de comunicação não verbal, existe conhecimento geral sobre o mundo, um contexto que uma pessoa entende etc. Na falta de informações adicionais, é quase impossível entender do que se trata. Se pegarmos as transcrições dos textos e tentarmos entregá-las a alguém, excluindo completamente o contexto, muito provavelmente até uma pessoa não será capaz de entendê-las. Portanto, agora estamos tentando criar analisadores que processem efetivamente a fala e identifiquem objetos e os relacionamentos entre eles - ou seja, criem modelos de informações da mensagem contida no texto. E mais trabalho está planejado para enriquecer esses modelos com informações de outras fontes.

AA: Você pode elaborar? Qual é a diferença entre as direções de pesquisa do projeto concluído e o projeto atualmente em andamento?

DM: Estas são direções interconectadas. É impossível fazer uma análise qualitativa sem estudos de caso, porque você precisa ensinar os padrões de algoritmo de reconhecimento de padrões no texto. Isso fizemos no primeiro projeto. O segundo estuda os princípios da formação de objetos. O texto contém uma descrição de certos conceitos. Esses conceitos podem ser mais informativos do que as informações presentes sobre eles no texto. Portanto, você precisa entrar em contato com outras bases de dados e gráficos e tentar suplementar essas informações de outras fontes.

Suponha que um cliente ligue para o suporte e fale sobre um problema. Ele pode não nomear o dispositivo ou processo de usar o sistema corretamente. O usuário não é obrigado a possuir a integridade das informações técnicas. Ao entender o contexto, o sistema pode complementar os dados do usuário com informações de suas fontes. Isso simplifica bastante o processo de identificação de problemas.

O primeiro projeto foi pequeno, realizado em colaboração com o Center for Speech Technology. Provamos nele que o uso combinado de ontologia, sistema de reconhecimento de fala e analisador de texto pode levar à formação da chamada inteligência conversacional. Mostramos com sucesso como isso funciona. O próximo estágio é uma pesquisa mais profunda em cada uma dessas áreas. No campo da modelagem ontológica, não trabalhamos mais com o discurso em geral, mas com as informações da Internet no campo do patrimônio cultural: como modelá-lo, enriquecê-lo, como fazer uma busca estruturada por essas informações. No campo da análise, o trabalho continua. Conseguimos bons resultados na qualidade do processamento de texto.

O próximo estágio é a combinação dessas áreas e a criação de um sistema para enriquecer dados de várias fontes, incluindo modalidades não textuais.

AA: Última pergunta: no que o laboratório está planejando trabalhar no próximo ano?

DM: Duas direções se cristalizaram em nós: a Internet das coisas e a inteligência conversacional. A segunda direção se tornará dominante. A Internet das coisas é uma direção de apoio: é a criação de interfaces de voz e texto (chat bots) para interação com vários dispositivos, robôs, sistemas de informação.

Tudo isso tornará a interação humana com objetos de informação mais transparente e natural.

Source: https://habr.com/ru/post/pt409051/


All Articles