Facebook está experimentando con un bot que puede regatear y mentir



En su mayor parte, los asistentes digitales que nos ofrecen compañías como Apple, Amazon, Google, son simples. Prácticamente no tienen la oportunidad de mantener una conversación con su dueño. Bueno, sí, los bots pueden responder la pregunta "¿Cómo estás?", Pero se confunden y responden fuera de lugar al complicar las preguntas. En general, estos sistemas se pueden considerar como asistentes solo con un estiramiento, mientras que es más probable que sea una estratagema de marketing, un juguete para geeks.

Pero si los bots pudieran llevar a cabo una conversación más productiva, entender mejor a sus dueños, entonces serían mucho más útiles. Entonces, ahora Facebook está trabajando para mejorar las propiedades de los bots, tratando de hacerlos más perfectos. En general, la red social ha estado lidiando con bots durante un par de años, pero ahora los desarrolladores realmente tienen algo interesante. Este es un chatbot llamado asistente M. Fue creado por empleados de la división FAIR.

Hasta ahora, el trabajo se ha limitado solo al arte de la negociación, los robots están tratando de aprender a convencer a su interlocutor de algo. En el futuro, se agregarán nuevas funciones al sistema actual y veremos qué puede resultar de él. Ahora el robot incluso aprendió a decir mentiras o exagerar, tratando de arrastrar al interlocutor a su lado.

La parte central de todo el sistema es una red neuronal, que está capacitada para realizar diálogos de cierto tipo. Además, es una red de autoaprendizaje que recuerda todos los diálogos anteriores y extrae la experiencia necesaria. El trabajo del bot se prueba, lo que permite a los voluntarios comunicarse con él. Después del siguiente diálogo, se les pide a los voluntarios que evalúen el diálogo estableciendo un cierto puntaje.

Los propios desarrolladores describen su tarea principal en este caso, como entrenar al bot para predecir posibles opciones para el desarrollo de la conversación. "Entendiendo" lo que se puede discutir, el bot anticipa la frase del interlocutor e intenta convencerlo de su inocencia (el tema de los diálogos es diverso). No hay nada sorprendente en el hecho de que la máquina prevea variantes del desarrollo de eventos: las tecnologías para esto ya existen. Los mismos sistemas informáticos que juegan ajedrez o go pueden hacer lo mismo.



Los desarrolladores de Facebook han logrado un éxito significativo en su trabajo. En cualquier caso, los voluntarios que se comunican con el sistema no siempre entienden que se están comunicando con la máquina (algunos de ellos se comunican con las personas, otros con el bot). Curiosamente, el bot aprendió varias estrategias de negociación, por ejemplo, en algunos casos, presiona activamente al interlocutor durante todo el diálogo para comprometerse al final, pero aún así convencer al oponente de algo (en particular, la necesidad de comprar algo) Los bots creados sobre la base del asistente M se comunican no solo con las personas, sino también entre ellos.

Facebook tiene una plataforma de software de entrenamiento bot llamada Mechanical Turk. Pero, según algunos expertos, le permite dar solo habilidades básicas de comunicación a los sistemas de software. El bot no puede obtener habilidades más avanzadas con su ayuda. En diálogos simples, esto es suficiente, pero si se pasa a un nivel más complejo (discutiendo los problemas políticos más simples), se hará evidente de inmediato que la persona se está comunicando con el programa.

Curiosamente, el entrenamiento de la red neuronal también se llevó a cabo simulando una conversación entre dos personas interlocutoras. Entonces, se les pidió a dos voluntarios que discutieran cómo compartirían cualquier cosa valiosa si caía en sus manos. Estos cuadros de diálogo fueron grabados y luego alimentados a la red neuronal. Intentaron enseñarle a Bota a dialogar a su favor, y no sin éxito.

Curiosamente, FAIR tiene dos modelos de bot. El primero es el autoaprendizaje, es un modelo dinámico, y el segundo es un modelo estático que los desarrolladores entrenan, pero que no puede cambiar ningún parámetro de su propio trabajo de forma independiente. Y los bots que trabajan según el primer modelo se comunicaban solo con los bots creados según el segundo modelo. Esto se hace porque si ambas plataformas pueden cambiar sus propios parámetros, entonces, durante la conversación, cambiaron gradualmente el idioma inglés, creando algún tipo de dialecto propio. Entonces todavía hay dificultades, y los representantes de Facebook están trabajando activamente en ellas.

Los empleados de Facebook planean usar los resultados de su trabajo para crear un asistente digital mucho más avanzado que ahora.

Source: https://habr.com/ru/post/es404583/


All Articles