Dmitry Muromtsev (ITMO) - sobre modelado ontológico y la formación de inteligencia conversacional

Dmitry Muromtsev, jefe del laboratorio internacional "Métodos inteligentes de procesamiento de información y tecnologías semánticas" ITMO y jefe del departamento de IPM , habló sobre la esencia del modelado ontológico, el uso de gráficos de conocimiento en los procesos comerciales y el trabajo de crear inteligencia conversacional.



Entrevistador: Anna Angelova (A.A.)
Demandada: Dmitry Muromtsev (D.M.)

AA: ¿Cuál es la esencia del modelado ontológico y cómo va la compilación de gráficos de conocimiento?

DM: El modelado ontológico es la compilación de modelos de información en forma de descripciones conceptuales de áreas temáticas que satisfacen ciertos estándares. Existen lenguajes especiales para ontologías, están estandarizados y ya se utilizan en la industria. El objetivo principal de las ontologías es describir los esquemas de datos y conocimientos que pueden existir en una amplia variedad de fuentes. El problema es que hay muchas de estas fuentes, que difieren mucho en el tipo de almacenamiento de datos, en la arquitectura de software, etc. Para conectarlas en un solo espacio de información, se necesitan mecanismos especiales de integración: son precisamente las ontologías. Se utilizan al integrar bases de datos, describir datos mal estructurados en Internet, al crear bases de conocimiento sobre un tema específico o bases de conocimiento no temáticas y grandes, por ejemplo, basadas en información de Wikipedia.

El proceso de creación en sí implica la participación de expertos en el dominio: los expertos siempre están involucrados en aquellos temas para los cuales los datos se presentarán en la columna de conocimiento. Por ejemplo, estos pueden ser problemas relacionados con el patrimonio cultural, la medicina, la educación o cualquier producción.

Estos expertos identifican conceptos clave: objetos que son críticamente importantes para un área temática determinada. Por ejemplo, el patrimonio cultural son los objetos de arte, los creadores de estos objetos, el proceso creativo, los procesos de restauración o algún tipo de modificación (si es un objeto arquitectónico, podría ser reconstruido), estos son temas de exhibición, almacenamiento, etc. Todo lo que es importante para una descripción completa del tema. áreas formuladas por un experto. Además denota la relación, la relación entre estos objetos. Esta descripción formal permite posteriormente realizar consultas a gráficos de conocimiento.

Tecnológicamente, el procedimiento de transformación puede ser bastante complejo e incluir muchas herramientas: herramientas de procesamiento de lenguaje natural, aprendizaje automático, reconocimiento de patrones y una serie de otras herramientas. En última instancia, obtenemos una red o gráfico de objetos interconectados. La característica clave de dicho sistema, a diferencia de las bases de datos, es que esta red es autodescriptiva y autodocumentada. No necesita explicaciones adicionales del desarrollador .

AA: ¿Cuál es el alcance de los gráficos de conocimiento?

D.M .: Casi cualquiera. Ahora hay gráficos de conocimiento de contenido universal (el más famoso es Google), hay Wikidata, Dbpedia, que recuerdan más a Wikipedia en términos de cobertura. Existen gráficos de conocimientos especializados: en medicina, en patrimonio cultural, según datos de estado abierto. Hay columnas de conocimiento corporativo: están en el dominio público.

AA: Cuéntanos sobre el proyecto para DataFabric. ¿Qué necesitaban y qué resultados se lograron?

DM: Hagamos una pregunta un poco más amplia. El proyecto para DataFabric es un ejemplo, tuvimos varios de ellos. Comenzamos nuestra actividad hace unos 8 años. Pasamos una parte importante del tiempo en la popularización de las tecnologías semánticas, en diversos eventos científicos y educativos , hackatones, etc. Nos reunimos regularmente con representantes de la industria. Docenas de tales reuniones tienen lugar anualmente, y algunos representantes de la industria están interesados.

En la situación con DataFabric, trabajaron principalmente sus especialistas, a quienes consultamos en términos de metodología y recomendamos ciertas tecnologías y herramientas. También verificamos sus resultados: un análisis de cómo se hizo todo correctamente. El proyecto de esta compañía en sí es interesante, ya que es el primer ejemplo en Rusia cuando una empresa ha invertido sus propios fondos en el desarrollo de gráficos de conocimiento, en el desarrollo de tecnología de datos relacionada y ha logrado demostrar que puede ser rentable. Hasta donde yo sé, la compañía continúa usando el gráfico de conocimiento creado y planea desarrollarlo. De los discursos de sus representantes podemos concluir que gracias a la gráfica del conocimiento pudieron automatizar una gran cantidad de trabajo manual. Pero para obtener información más precisa, es mejor contactar a la empresa directamente.

Sergey Isaev,
CEO DataFabric

Queríamos crear un sistema inteligente de verificación de contraparte y recopilar información de la empresa. Éramos una empresa muy pequeña y queríamos obtener una ventaja competitiva. Nuestros competidores, Spark Interfax, Kontur.Fokus, son muy grandes, poderosos, han estado en el mercado durante muchos años y, de esa manera, "de frente", es imposible competir con ellos.

Recopilamos la misma información sobre la compañía que nuestros competidores: datos del Servicio Federal de Impuestos, Rosstat y otras fuentes. Los cargamos en una sola base de datos. Como tenemos un gráfico, las conexiones entre todos los objetos aparecen en él. El sistema utiliza modelos ontológicos: describimos para él el valor de absolutamente todos los datos con los que trabaja. Por lo tanto, ella comienza a comprender el contexto, la carga semántica de ciertos datos. Gracias a esto, incluso se le pueden hacer preguntas abiertas, por ejemplo: "Muéstrame todas las empresas que probablemente quiebren el próximo año". Como ella comprende el significado de cada palabra en este asunto, dará una lista.

No sé cuánto gastan los competidores en tiempo, dinero y energía para resolver sus problemas. Pero sé que tienen cientos de desarrolladores, y solo tenemos 12 personas, y creamos nuestro sistema en un año y medio. Ahora le permite crear rápidamente prototipos de casos nuevos, servicios nuevos, porque es más inteligente y flexible.

AA: Hay muchos socios en el sitio del laboratorio que diriges. ¿Cuáles de ellos están colaborando en proyectos en curso?

DM: Si tomamos cooperación en el sentido más amplio de la palabra, entonces el Consejo de Datos Abiertos de la Federación de Rusia será el principal en términos de la cantidad de tiempo asignado. Estamos tratando de llevar a cabo un trabajo metodológico y de investigación allí, destinado a promover gráficos de conocimiento a las autoridades federales y otras estructuras que se requieren para publicar datos abiertos. Ahora, el requisito de la ley para la publicación de datos abiertos es bastante formal y limitado. Estamos tratando de demostrar que esto se puede hacer de manera mucho más eficiente, y esto traerá beneficios mucho mayores a la economía. También cooperamos activamente en tecnologías educativas de aprendizaje electrónico con diferentes estructuras, hay proyectos de investigación con varias universidades en Alemania, Finlandia, Austria.

AA: ¿Qué actividades de las empresas en la industria deberían ser monitoreadas?

DM: Para la comunidad en su conjunto. Está claro que las grandes empresas son, en cierto sentido, un indicador de cuán maduras son las tecnologías. Pero en la última conferencia de ISWC en Austria, y esta es la conferencia más grande del mundo sobre tecnologías semánticas, un informe de Google planteó muchas preguntas: los problemas que se planteaban a sí mismos a menudo ya habían sido resueltos por más compañías de investigación.

Característicamente, los jugadores grandes, por regla general, no investigan desde cero. Plantean un problema específico, luego encuentran un equipo que pueda resolver este problema y comienzan a cooperar con él o a comprarlo si es algún tipo de inicio. Es decir, los grandes jugadores tienen más probabilidades de desempeñar un papel sistémico.

Y si sigue a la comunidad en su conjunto, puede ver muchos grupos de investigación, compañías y startups interesantes que ofrecen las soluciones más innovadoras. Por ejemplo, ahora hay una tendencia muy seria en el desarrollo de bots de chat , interfaces de voz y otros sistemas, que después de un tiempo serán prácticamente asistentes completos, asistentes.

AA: Su laboratorio también está desarrollando proyectos de procesamiento del habla. Dos de ellos están indicados en el sitio: uno está completo y el otro continúa. Cuéntanos sobre ellos.

[nota: "Desarrollo de la morfología informática para estudios de caso de un texto variable", 2015–2016; "Desarrollo de un analizador sintáctico del habla espontánea rusa utilizando métodos de minería de datos utilizando bases de conocimiento semántico", 2015–2018]

DM: El primer proyecto fue iniciado por el Center for Speech Technologies: la creación de un administrador de diálogo inteligente. Esas soluciones que existen ahora son bastante primitivas. Se enfrentan cuando un cliente llama a una organización o a un banco y tiene que cambiar de una línea a otra durante mucho tiempo. Los sistemas más avanzados pueden analizar el texto que se obtiene durante el reconocimiento, por ejemplo, Siri, Amazon Alexa. Pero el contenido de este texto para la máquina sigue siendo desconocido. En Rusia, por cierto, el proyecto iPavlov se lanzó recientemente, pero hasta ahora hay pocos datos sobre sus resultados.

Además, tan pronto como reconozcamos la señal de voz, debemos entender qué tipo de pregunta contiene. El problema es que cuando las personas se comunican, el canal de interacción del habla es solo uno de muchos. Informativamente, él no es el más cargado. Hay canales de comunicación no verbal, hay un conocimiento general sobre el mundo, un contexto que una persona entiende, etc. En ausencia de información adicional, es casi imposible entender de qué se trata. Si tomamos las transcripciones de los textos y tratamos de dárselos a alguien, excluyendo completamente el contexto, lo más probable es que incluso una persona no pueda entenderlos. Por lo tanto, ahora estamos tratando de crear analizadores que procesen efectivamente el discurso e identifiquen los objetos y las relaciones entre ellos, es decir, creen modelos de información del mensaje contenido en el texto. Y se planea más trabajo para enriquecer estos modelos con información de otras fuentes.

AA: ¿Puedes elaborar? ¿Cuál es la diferencia entre las direcciones de investigación del proyecto completado y el proyecto que está actualmente en curso?

DM: Estas son direcciones interconectadas. Es imposible hacer un análisis cualitativo sin estudios de casos, porque necesita enseñar los patrones de reconocimiento de patrones en el texto del algoritmo. Esto lo hicimos en el primer proyecto. El segundo estudia los principios de la formación de objetos. El texto contiene una descripción de ciertos conceptos. Estos conceptos en sí mismos pueden ser más informativos que la información presente sobre ellos en el texto. En consecuencia, debe ponerse en contacto con otras bases de conocimiento y gráficos e intentar complementar esta información de otras fuentes.

Supongamos que un cliente llama a soporte y habla sobre un problema. Es posible que no nombre el dispositivo o el proceso de usar el sistema correctamente. No se requiere que el usuario posea la integridad de la información técnica. Al comprender el contexto, el sistema puede complementar los datos del usuario con información de sus fuentes. Esto simplifica enormemente el proceso de identificación del problema.

El primer proyecto fue pequeño, llevado a cabo en colaboración con el Centro de Tecnología del Habla. Probamos en él que el uso combinado de ontología, un sistema de reconocimiento de voz y un analizador de texto pueden conducir a la formación de la llamada inteligencia conversacional. Hemos demostrado con bastante éxito cómo funciona esto. La siguiente etapa es una investigación más profunda en cada una de estas áreas. En el campo del modelado ontológico, ya no trabajamos con el discurso en general, sino con información de Internet en el campo del patrimonio cultural: cómo modelarlo, enriquecerlo, cómo hacer una búsqueda estructurada de esta información. En el campo del análisis, el trabajo continúa. Hemos logrado buenos resultados en la calidad del procesamiento de texto.

La siguiente etapa es la combinación de estas áreas y la creación de un sistema para enriquecer los datos de varias fuentes, incluidas las modalidades sin texto.

AA: Última pregunta: ¿en qué planea trabajar el laboratorio el próximo año?

DM: Dos direcciones cristalizaron en nosotros: el Internet de las cosas y la inteligencia conversacional. La segunda dirección se volverá dominante. El Internet de las cosas es una dirección de apoyo: es la creación de interfaces de voz y texto (chat bots) para la interacción con varios dispositivos, robots, sistemas de información.

Todo esto hará que la interacción humana con los objetos de información sea más transparente y natural.

Source: https://habr.com/ru/post/es409051/


All Articles