Neurointelligence ou mythe?
L'ère de l'intelligence artificielle des réseaux de neurones bat son plein! Une véritable percée ces dernières années - les réseaux de neurones reconnaissent non seulement la parole, les images d'animaux, les scènes complexes, mais les décrivent même en mots! (NeuralTalk). Sur les réseaux de neurones, des bots sont créés qui sont toujours mauvais, mais ils répondent déjà. Les réseaux de neurones composent de la musique et écrivent de la poésie. Selon le scénario, les réseaux de neurones vont même faire un film! Bientôt, les journalistes prophétisent, très bientôt ils opéreront des voitures, des banques, des sociétés, des pays. «Et tout le monde volera en diligence» - c'est ainsi qu'ils rêvaient au début du siècle dernier. Alors maintenant, ses créateurs rêvent d'un futur de réseau de neurones. Ils disent qu'ils vont bientôt dépasser une personne en tout. Les réseaux de neurones ont déjà battu une personne aux échecs, allez, à Jaopardy (Own game). Et donc ils appellent leurs créations pas moins que l'intelligence artificielle.Reconnu le cheval dans l'image - l'intelligence artificielle. Pourquoi l'intelligence? Parce qu'avant, seuls les humains savaient comment faire cela. Il est étrange pourquoi une calculatrice ne s'appelait pas alors intelligence artificielle. Est-il vrai alors d'appeler des réseaux de neurones?Bien sûr, un réseau de neurones est des ordres de grandeur plus compliqués qu'une calculatrice. Mais, si vous regardez le résultat du travail d'un réseau de neurones sans anticiper l'intelligence, ce n'est qu'un classificateur! De plus, il est de nature régressive - il réduit l'ensemble des entrées au choix de plusieurs options (sauf pour les réseaux associatifs et la machine Boltzmann). Relais, uniquement avec une entrée plus complexe. Il me semblait que l'intelligence est au moins la capacité de raisonner. Et bien qu'aucun réseau ne puisse construire même le syllogisme le plus simple, appelez-le intelligence, pour le dire doucement, trop tôt. Je ne parle pas de tâches plus complexes. Par exempleUne abeille a un peu plus de neurones dans sa tête, mais elle sait ce qu'aucun réseau neuronal moderne ne peut encore faire - voler à grande vitesse parmi les branches et les arbres. Alors que Google a du mal à transpirer pendant 10 ans de développement, il conduit des voitures le long des marquages routiers. Et les abeilles sont un insecte, le tout début de l'évolution du réseau neuronal. Nous n'avons même pas atteint ce niveau initial, mais appelons déjà le réseau la création qui a marqué la couronne d'évolution du réseau neuronal - l'intellect.Tout le monde, et les scientifiques eux-mêmes, font la même erreur épistémologique. Ils disent que le réseau est intelligent car il a reconnu le cheval sur la photo! A-t-elle reconnu le cheval? Elle a simplement choisi la sortie X, que le chercheur a appelée «cheval». Oui, elle a fait une généralisation (classifieur), réduisant la version du cheval à la sortie «cheval». Mais le réseau neuronal n'a aucune idée de ce qu'elle a choisi. Elle n'a pas de concept de «cheval» (sémantique), le «sens» de la sortie de «cheval» est dans notre tête, et non dans le réseau. Pour qu'il soit dans le réseau neuronal lui-même, elle doit choisir non pas une entrée, pas un mot selon une image reconnue, mais tous les mots contextuellement liés, c'est-à-dire tout le concept de «cheval». Alors, elle comprendra peut-être que le cheval et la nébuleuse n'ont un sens commun que dans le sens d'un nuage de poussière cosmique.Pour un réseau de neurones, la sortie sélectionnée est un «point» sémantique sans contenu.Les réalisations les plus faibles des réseaux de neurones se trouvent précisément dans la PNL, où la compréhension du langage naturel est requise . Parce que nous ne semblons toujours pas comprendre ce que nous entendons par nous-mêmes, comme il me semble. Et c'est l'aspect le plus important que nous aimerions mettre en œuvre dans la voiture. Et qui pourrait alors à juste titre être appelé renseignement. Comprendre précisément au sens de la sémantique du «cheval». En même temps, il semble que nous approchions du seuil de compréhension de ce que nous faisons nous-mêmes - ils créent des réseaux, s'entraînent, mais ils ne peuvent plus comprendre comment ils obtiennent le résultat selon les créateurs eux-mêmes. Bien que nous n'ayons créé que la première brique du bâtiment de l'Intelligence. Pouvons-nous alors atteindre un niveau d'IA plus sérieux, qui est un ordre de grandeur plus compliqué que l'actuel?RésuméEn conséquence, je vais citer un article qui vient de paraître sur Habré sur les «succès» des réseaux de neurones dans l'imitation linguistique (sémantique) de habrahabr.ru/company/payonline/blog/307666«Il n'y a qu'un seul problème qui apparaît rapidement quand on observe les autres réponses du système. Lorsque Lee a demandé: «Combien de pattes un chat a-t-il?» Le système a répondu: «Quatre, je suppose.» Après cela, il a fait une autre tentative: "Combien de pattes a un mille-pattes?" La réponse était curieuse: "Huit". Essentiellement, le programme de Lee n'a aucune idée de ce dont elle parle. Elle comprend que certaines combinaisons de symboles peuvent se produire ensemble, mais n'a pas la moindre idée de l'existence du monde réel. Elle ne sait pas à quoi ressemble le mille-pattes ni comment il bouge. Autrement dit, devant nous n'est encore qu'une illusion d'intelligenceprivé du sens très commun que nous, les humains, tenons pour acquis. Une telle instabilité des résultats est assez courante pour les systèmes d'apprentissage en profondeur. Le programme d'images de sous-titrage de Google fait d'étranges erreurs. En regardant un panneau de signalisation, par exemple, elle pourrait l'appeler un réfrigérateur plein de nourriture. »D'après les commentaires, je note ZhenyaZero, qui exprime très précisément la différence concrète entre les réseaux de neurones modernes et la façon dont nous, les humains, reconnaissons les images. «Néanmoins, vous distinguerez sans aucun doute un cheval avec une cinquième jambe d'un tigre avec une cinquième jambe. Et en décrivant l'image, la plupart des gens diront "un cheval avec une cinquième jambe", et non "je pense que c'est un morceau de gâteau". Et les résultats du réseau neuronal sur des variantes inhabituelles et limites sont vraiment mal prédits et semblent souvent totalement inadéquats.Et aussi quelques faits1) Pour voir autant de «chevaux» différents, pas une seule personne n'aura assez de toute sa vie.2) Il suffit souvent à un enfant de montrer une fois une image d'un nouvel animal et d'expliquer quelle est sa différence, afin qu'il puisse reconnaître ces animaux la prochaine fois et dans toutes les poses.3) Nous voulons dire «cheval» même lorsque nous ne voyons qu'une bride.Les conclusions de l'article sont assez évidentes, mais il est plus important de comprendre pourquoi de telles différences existent et que faire ensuite. Vos suggestions. Source: https://habr.com/ru/post/fr396743/
All Articles