L'espéranto pour les robots et agents Smith

Le dictionnaire de William Shakespeare compte 12 000 mots. Le dictionnaire du nègre de la tribu cannibale "Mumbo-Yumbo" fait 300 mots. Ellochka Schukin du livre «12 chaises» coûte facilement et librement trente.

L'homme comprend facilement Ellochka. Hélas, Shakespeare préfère comprendre un ordinateur qu'Ellochka. Il nous suffit de comprendre le contexte et l'intonation - nous allons comprendre le reste - et l'ordinateur a besoin de clarté à chaque terme. De préférence sans synonymes. Plus il y a d'images cachées derrière chaque mot, plus il est difficile à comprendre. La nature contextuelle des mots humains n'est qu'une des difficultés de l'enseignement de l'intelligence artificielle en langage naturel. Si vous pouvez distinguer les oignons comestibles des oignons abattus si vous avez une description complète de la situation, alors le déni de sens par l'ironie ou les questions rhétoriques n'est reconnu que par l'intonation. La syntaxe et l'ordre des mots dans une phrase créent une complexité supplémentaire.

Igor Mordach, un employé de l'OpenAI American Laboratory of Artificial Intelligence, a cependant décidé que la langue d'Ellochkin est loin d'être une impasse, mais un exemple très approprié, sur lequel les robots construiront une langue pour leur communication, puis ils nous comprendront. Il n'a regretté que 30 mots pour l'ordinateur Ellochka. Dans son expérience, un programme informatique a créé le langage à partir de zéro.



A la recherche d'un langage universel pour communiquer avec les machines


La précision de la reconnaissance du langage naturel parmi les leaders des systèmes cognitifs (IBM Watson, Google, ABBYY, Microsoft, Nanosemantics) nous permet de comprendre généralement le sens et de répondre à une question écrite avec une base de connaissances de sujet prédéterminée, mais une conversation même avec une précision de reconnaissance de 90% est en fait très fatigant. Le discours conversationnel, saturé d'interjections et se déroulant souvent dans une grande entreprise à l'intersection de dialogues, met le bot dans sa capacité à maintenir la conversation au niveau d'un enfant de trois ans.

La capacité des programmes à répondre avec précision à la signification des phrases résoudrait de nombreux problèmes d'interface, ce qui signifie connecter les robots (agents d'intelligence artificielle) à toute tâche humaine quotidienne. Il y a un dialogue avec les machines même maintenant - le téléviseur, par exemple, communique dans le langage de la télécommande. Mais comprend très peu d'équipes. Et il ne les comprend qu'après programmation. À partir de cet exemple simple, il est clair que pour une communication rapide et flexible avec des programmes et des appareils polyvalents (au moins des robots), les intermédiaires doivent être supprimés du dialogue. Parmi eux, hélas, des programmeurs.

Les optimistes de la linguistique informatique associent les espoirs aux réseaux de neurones. Selon eux, le seul problème est la nécessité de traiter un grand nombre d'exemples. Les opposants considèrent la tâche comme insoluble. Pas tant à cause de l'échelle de la formation, mais à cause de l'équivalence de cette tâche à celle de créer la conscience dans les machines. Chacune des parties interprète des exemples de comptage de dauphins ou de communication de singes à leur avantage - certains comme une perspective, d'autres comme une impasse. Pour ceux qui s'intéressent aux détails sur Habré et GT, il existe de nombreux articles sur le langage naturel. Par exemple, «Introduction à la reconnaissance du langage naturel» .

Le sujet de cet article est la troisième approche, prise comme base par Igor Mordach - laisser les machines elles-mêmes apprendre d'abord à communiquer dans le langage qu'elles créent. Le processus de développement de votre langage permettra aux agents logiciels de l'intelligence artificielle de mieux comprendre l'algorithme d'ajustement des termes à de nouvelles significations, des règles de formation de phrases et d'utiliser ces connaissances pour des conversations avec des personnes. C'est exactement ce que Mordach, qui travaillait auparavant en tant que spécialiste de la création de héros de films de robots en mouvement, a fixé la tâche. Dans ce contexte, Igor a décidé que la formation aux mouvements contient des algorithmes de collecte d'informations et leur utilisation simultanée partielle, qui peuvent être utilisés dans n'importe quelle formation.

Pour enseigner aux bots le langage des bots (agents logiciels), ils les ont placés dans l'univers conditionnel du «carré blanc», leur ont fixé des objectifs, une énergie de mouvement et la capacité de traiter l'expérience de se relier au but. Initialement, les bots avaient un ensemble minimal de commandes d'action, une expérience personnelle de succès et ont également donné un moyen d'échanger des informations - par un «contact tactile» étroit ou par un prototype à distance «d'audition et de vue» (ici, il est plus approprié d'utiliser le terme direction du flux d'informations). Le but des robots dans l'univers conditionnel du «carré blanc» était d'atteindre un certain point par vous-même, de dire votre objectif à un autre agent, d'échanger des objectifs, de pousser un autre agent vers la cible en l'absence d'échange d'informations entre eux. Les cibles et les robots différaient en couleur ou en taille.

Pour l'agent Smith, la matrice, lorsqu'elle a été créée par Mordach, ressemblerait à ceci:


Dans l'expérience OpenAI, le paramètre mesuré du succès des essais et erreurs était le fait et la vitesse de réalisation des objectifs. Ils pourraient être l'inaction ou le mouvement d'un certain point (contact direct avec la cible ou contact par le biais d'autres agents) dans le monde virtuel du carré blanc. Plus l'objectif a été atteint rapidement, plus la liste des termes utilisés dans la boîte de dialogue des objectifs en cours a été reconnue. Les objectifs et le succès étaient à la fois individuels et collectifs.

En cours de réalisation, les bots ont enrichi la réserve linguistique de nouveaux concepts correspondant classiquement aux humains - des termes de mouvement aux concepts: au-dessus, en dessous, à droite, à gauche. Mordach espère qu'en fixant les règles de formation des mots, les bots pourront plus facilement «comprendre» les mêmes règles dans les langues humaines. Y compris l'apprentissage de la précision de l'utilisation de termes comparatifs et indéfinis. L'IA a une mauvaise compréhension des termes abstraits et généralisés. Plus précisément, il ne comprend rien du tout, mais il est prêt à travailler avec certaines phrases, et pour d'autres, il est nécessaire d'obtenir des informations de clarification. Dans l'expression «la voiture va vite», au moins le mot «rapide» - doit être mesuré. Même en termes de règles de circulation, «rapide» est toujours un tableau de valeurs qui s'inscrivent dans un certain intervalle. Plus précisément, plusieurs intervalles - pour la ville, les autoroutes et les zones rurales.

Les réseaux de neurones, bien sûr, savent travailler avec des termes vagues, mais leur formation commence généralement pas à partir de zéro, contient un certain nombre de règles de traitement de départ et ne dépend pas non plus de l'accumulation d'expérience de signalisation sur le type de canal par lequel les informations sont transmises. Ce sont les principales nouveautés des expériences de Mordach.

Comparaison des communications à distance et de la communication tactile des bots:

Le manque de corps et de frontières rend tous ces termes conditionnels, bien sûr.

Un point remarquable est que le succès de chaque bot a été calculé comme une fraction du succès de tous les bots, encourageant la coopération pour atteindre l'objectif. Autrement dit, la qualité du vocabulaire a été estimée par la totalité de la langue utilisée. Il s'avère que quelqu'un devait nécessairement collecter et signaler les circonstances secondaires de la réalisation de l'objectif, ce qui, dans le cas de la réalisation individuelle des objectifs par chaque transporteur, empêcherait leur réalisation. Règle statistique 20/80 - la réception de 20% d'informations fournit 80% de la réalisation de l'objectif - cela fonctionne au niveau d'un sujet individuel, mais dans une équipe, quelqu'un devrait toujours donner 100% des informations collectées à 1% supplémentaire de la réalisation de l'objectif.

Tous les cas de communication de contact «verbale» et «non verbale» de robots au cours de l'étude de Mordach sont présentés dans la vidéo:


Matrice artificielle et discrète résultant de la communication avec un bot


L'idée principale de Mordach est de s'assurer que la compréhension du «monde environnant», les bots créent le langage nécessaire à cette compréhension. Dans son concept, le langage est le résultat de l'action. D'autres scientifiques attirent l'attention sur le fait qu'un langage développé et la capacité de communiquer sur des sujets abstraits permettront aux machines de créer leurs propres idées, de décrire et de créer de nouvelles entités qui n'existaient pas auparavant. Il n'y a pas loin de la transformation de notre monde.

La capacité à comprendre le langage naturel est considérée comme étroitement liée à la présence de conscience dans le sujet de la communication. La capacité de comprendre le sens de ce qui a été dit conduira-t-elle à l'émergence de la conscience dans les machines? Peut-être que seule une personne avec une création de type humain peut comprendre pleinement le langage naturel, et la création d'un langage de bot dans son propre environnement conduira à des bots intelligents dans telle ou telle version de l'agent Smith.

La définition des priorités des bots pendant la formation est contraire au principe d'ingénierie de fiabilité et de prévisibilité du fonctionnement de la machine. L'imprévisibilité des priorités, la capacité de fantasmer, l'auto-éducation, le secret de la communication entre les robots pour les humains - se sont déjà fait sentir dans les précédentes expériences OpenAI. Sans objectif final contraignant, les programmes ont établi des priorités inattendues au cours de leurs études. Dans l'expérience sur les courses de bateaux virtuelles, la mise en œuvre de tâches connexes pour les bots est devenue plus rentable qu'une place et a généralement terminé la course jusqu'à la fin. L'accomplissement des tâches associées a rapporté 20% de points supplémentaires.

C'est familier, non? Robert Sheckley l'a décrit il y a 65 ans dans la célèbre histoire «Guardian Bird», qui est passée de la prévention des tueries au blocage de toute activité sur Terre, ignorant d'autres priorités et tâches pour le principal:

Jackson bâilla et arrêta la voiture au bord du trottoir. Il n'a pas remarqué de point scintillant dans le ciel. Il n'avait pas besoin de se méfier. En effet, selon toutes les notions humaines, il n'a pas du tout comploté de meurtres.
Il tendit la main, voulut couper le contact ... Et quelque chose le rejeta contre le mur de la cabine.
"Un imbécile de fer", a-t-il dit à un oiseau mécanique suspendu au-dessus de lui. La voiture n'est pas vivante. Je ne veux pas du tout le tuer.
Mais l'oiseau gardien savait une chose: certaines actions cessent l'activité du corps. La voiture, bien sûr, est un organisme actif, après tout, elle est en métal, comme l'oiseau gardien lui-même, n'est-ce pas? Et en bougeant ...

Un excès de création de leur propre langage dans les robots peut être leur création de leur propre univers virtuel. Au moins dans l'histoire de l'humanité, de tels précédents existent. Pour citer Tolkien:
L'invention des langues est à la base de mon travail. Les "histoires" ont été écrites davantage afin de créer un monde pour ces langues, et non l'inverse. Pour moi, le mot apparaît d'abord, puis l'histoire qui lui est associée. Je préfère écrire "elfique". Mais, bien sûr, un livre comme Le Seigneur des Anneaux a subi une révision sérieuse, et j'y ai laissé autant de «langues» que le lecteur pouvait en digérer (bien que maintenant je découvre que beaucoup en voudraient plus). [...] En tout cas, pour moi c'est à bien des égards un essai sur «l'esthétique linguistique», car je réponds parfois à des gens qui me demandent de quoi j'ai écrit mon livre.

Le fait que les machines commencent à penser plus tôt que nous ne le pensons est également redouté dans OpenAI. Si les robots ont également leur propre langue, alors les gens manqueront certainement ce moment. Par conséquent, la tâche de Mordach n'est pas seulement de créer le langage d'un bot, mais aussi de créer un traducteur humain. Tout d'abord, bien sûr, en anglais.

Répondant à ces craintes, Igor cite une expérience de pensée bien connue dans le domaine de la philosophie de la conscience et de la philosophie de l'intelligence artificielle appelée la «salle chinoise» , publiée par John Searle en 1980. L'essence de la déclaration de Searle est que toute communication à part entière est théoriquement tout à fait possible sans conscience, mais en utilisant des règles assez détaillées pour interpréter les questions de l'interlocuteur pour les réponses. La conclusion plus générale de Searle suggère que toute manipulation de constructions syntaxiques ne peut pas conduire à la compréhension.

Dans un tel contexte, son propre langage et son propre univers virtuel ne signifient pas du tout la présence de la conscience parmi ses agents et ses objets. Comme dans les jeux informatiques. Ou, comme certains le croient, comme une personne dont la conscience n'est qu'une passerelle sémantique entre un langage "artificiel" clair à l'intérieur du cerveau et le bruit naturel des signaux du monde extérieur.

Source: https://habr.com/ru/post/fr402407/


All Articles