Nous ne pouvons pas faire confiance aux systèmes d'IA basés uniquement sur le deep learning



Ce texte n'est pas le résultat d'une recherche scientifique, mais l'une des nombreuses opinions concernant notre développement technologique immédiat. Et en même temps une invitation à la discussion.

Gary Marcus, professeur à l'Université de New York, est convaincu que le deep learning joue un rôle important dans le développement de l'IA. Mais il estime également qu'un enthousiasme excessif pour cette technique peut conduire à son discrédit.

Dans son livre Rebooter l'IA: développer l'intelligence artificielle, nous pouvons faire confiance à Marcus, un neurologue de formation qui a bâti sa carrière sur des recherches de pointe en IA, qui traite des questions techniques et éthiques. D'un point de vue technologique, l'apprentissage profond peut réussir à imiter la solution des tâches de perception que notre cerveau effectue: par exemple, la reconnaissance d'images ou de la parole. Mais pour résoudre d'autres tâches, telles que la compréhension des conversations ou la détermination des relations causales, l'apprentissage en profondeur n'est pas bon. Afin de créer des machines intelligentes plus avancées capables de résoudre un plus large éventail de tâches - elles sont souvent appelées intelligence artificielle générale - l'apprentissage en profondeur doit être combiné avec d'autres techniques.

Si le système d'IA ne comprend pas vraiment ses tâches ou le monde qui l'entoure, cela peut entraîner des conséquences dangereuses. Même les plus petits changements inattendus dans l'environnement du système peuvent entraîner son comportement erroné. Il existe déjà de nombreux exemples de ce type: les déterminants des expressions inappropriées faciles à tromper; des systèmes de recherche d'emploi qui discriminent constamment; les véhicules sans pilote qui se retrouvent dans des accidents et tuent parfois un conducteur ou un piéton. La création de l'intelligence artificielle générale n'est pas seulement un problème de recherche intéressant, elle a de nombreuses applications complètement pratiques.

Dans son livre, Marcus et son co-auteur Ernest Davis ont proposé de préconiser une voie différente. Ils croient que nous sommes encore loin de créer une IA commune, mais ils sont sûrs que tôt ou tard il sera possible de la créer.

Pourquoi avons-nous besoin d'une IA commune? Des versions spécialisées ont déjà été créées et offrent de nombreux avantages.

C'est vrai, et les avantages seront encore plus importants. Mais il existe de nombreuses tâches que l'IA spécialisée ne peut tout simplement pas résoudre. Par exemple, comprendre la parole ordinaire, ou l'aide générale dans le monde virtuel, ou un robot qui aide au nettoyage et à la cuisson. Ces tâches dépassent les capacités de l'IA spécialisée. Une autre question pratique intéressante: est-il possible de créer une voiture de drone sûre en utilisant une IA spécialisée? L'expérience montre qu'une telle IA a encore de nombreux problèmes de comportement dans des situations anormales, même en conduisant, ce qui complique grandement la situation.

Je pense que nous aimerions tous obtenir une IA qui peut nous aider à faire de nouvelles découvertes à grande échelle en médecine. On ne sait pas si les technologies actuelles conviennent à cela, car la biologie est un domaine complexe. Il faut être prêt à lire de nombreux livres. Les scientifiques comprennent les relations de cause à effet dans l'interaction des réseaux et des molécules, peuvent développer des théories sur les planètes et ainsi de suite. Cependant, avec l'IA spécialisée, nous ne pouvons pas créer des machines capables de telles découvertes. Et avec l'IA commune, nous pourrions révolutionner la science, la technologie et la médecine. À mon avis, il est très important de continuer à travailler sur une IA commune.

Cela ressemble à «général» pour signifier une IA forte?

Dire «général», je veux dire que l'IA sera en mesure de réfléchir et de résoudre indépendamment de nouveaux problèmes à la volée. Contrairement, disons, à Guo, où le problème n'a pas changé depuis 2000 ans.

L'IA générale devrait pouvoir prendre des décisions à la fois en politique et en médecine. Ceci est un analogue de la capacité humaine; toute personne sensée peut faire beaucoup. Vous prenez des étudiants inexpérimentés et après quelques jours, vous les forcez à travailler sur presque n'importe quoi, en commençant par la tâche juridique et en terminant par la tâche médicale. Cela est dû au fait qu'ils ont une compréhension commune du monde et sont capables de lire, et peuvent donc contribuer à un très large éventail d'activités.

La relation entre un tel intellect et un intellect fort est qu'un intellect non fort ne sera probablement pas en mesure de résoudre des problèmes communs. Pour créer quelque chose d'assez fiable qui peut fonctionner avec un monde en constante évolution, vous devrez peut-être au moins vous rapprocher de l'intelligence commune.

Mais maintenant, nous en sommes très loin. AlphaGo peut parfaitement jouer sur une carte 19x19, mais doit être recyclé pour jouer sur une carte rectangulaire. Ou prenez le système d'apprentissage profond moyen: il peut reconnaître un éléphant s'il est bien éclairé et que sa texture de peau est visible. Et si seule la silhouette d'un éléphant est visible, le système ne pourra probablement pas la reconnaître.

Dans votre livre, vous mentionnez que le deep learning n'est pas en mesure d'atteindre les capacités de l'IA générale, car il n'est pas capable d'une compréhension profonde.

En sciences cognitives, ils parlent de la formation de divers modèles cognitifs. Je suis assis dans une chambre d'hôtel et je comprends qu'il y a un placard, il y a un lit, il y a une télévision, qui est exceptionnellement suspendue. Je connais tous ces éléments, je ne les identifie pas seulement. Je comprends également comment ils sont interconnectés. J'ai des idées sur le fonctionnement du monde. Ils ne sont pas parfaits. Ils ont peut-être tort, mais ils sont très bons. Et sur cette base, je tire beaucoup de conclusions, qui deviennent un guide pour mes actions quotidiennes.

L'autre extrême est quelque chose comme le système de jeu Atari créé par DeepMind, dans lequel il se souvenait de ce qu'il devait faire quand il voyait des pixels à certains endroits de l'écran. Si vous obtenez suffisamment de données, il peut sembler que vous avez une compréhension, mais en fait, c'est très superficiel. La preuve en est que si vous déplacez des objets de trois pixels, l'IA joue bien pire. Le changement le déconcerte. C'est l'opposé d'une compréhension profonde.

Pour résoudre ce problème, vous proposez de revenir à l'IA classique. Quels sont ses avantages que nous devons essayer d'utiliser?

Il y a plusieurs avantages.

Premièrement, l'IA classique est en fait un cadre pour créer des modèles cognitifs du monde, sur la base desquels des conclusions peuvent alors être tirées.

Deuxièmement, l'IA classique est parfaitement compatible avec les règles. Maintenant, dans le domaine de l'apprentissage en profondeur, il existe une tendance étrange lorsque les spécialistes tentent d'éviter les règles. Ils veulent tout faire sur les réseaux de neurones et ne rien faire qui ressemble à une programmation classique. Mais il y a des tâches qui ont été résolues calmement de cette façon, et personne n'y a prêté attention. Par exemple, créer des itinéraires dans Google Maps.

En fait, nous avons besoin des deux approches. L'apprentissage automatique vous permet de bien apprendre des données, mais il aide très mal à afficher l'abstraction qu'un programme informatique représente. L'IA classique fonctionne bien avec les abstractions, mais elle doit être entièrement programmée manuellement, et il y a trop de connaissances dans le monde pour les programmer toutes. De toute évidence, nous devons combiner les deux approches.

Ceci est lié au chapitre dans lequel vous parlez de ce que nous pouvons apprendre de l'esprit humain. Et tout d'abord, sur le concept basé sur l'idée mentionnée ci-dessus que notre conscience se compose de nombreux systèmes différents qui fonctionnent de différentes manières.

Je pense qu'il y a une autre façon d'expliquer cela: chaque système cognitif que nous avons, résout vraiment différents problèmes. Des parties similaires de l'IA devraient être conçues pour résoudre divers problèmes ayant des caractéristiques différentes.

Nous essayons maintenant d'utiliser des technologies tout-en-un pour résoudre des problèmes radicalement différents les uns des autres. Comprendre une phrase n'est pas du tout la même chose que reconnaître un objet. Mais dans les deux cas, les gens essaient d'utiliser l'apprentissage en profondeur. D'un point de vue cognitif, ce sont des tâches qualitativement différentes. Je suis juste étonné de voir à quel point la communauté des experts en apprentissage profond apprécie l'IA classique. Pourquoi attendre qu'une balle d'argent apparaisse? C'est inaccessible et les recherches infructueuses ne permettent pas de comprendre la complexité de la tâche de création de l'IA.

Vous mentionnez également que les systèmes d'IA sont nécessaires pour comprendre les relations de cause à effet. Pensez-vous que le deep learning, l'IA classique ou quelque chose de complètement nouveau nous y aideront?

C'est un autre domaine pour lequel le deep learning n'est pas trop adapté. Il n'explique pas les causes de certains événements, mais calcule la probabilité d'un événement dans des conditions données.

De quoi parle-t-on? Vous examinez certains scénarios et vous comprenez pourquoi cela se produit et ce qui peut se produire si certaines circonstances changent. Je peux regarder le support sur lequel se trouve le téléviseur et imaginer que si je coupe une de ses jambes, le support se retournera et le téléviseur tombera. Il s'agit d'une relation causale.

L'IA classique nous donne quelques outils pour cela. Il peut imaginer, par exemple, ce qu'est le soutien et ce qu'est la chute. Mais je ne louerai pas. Le problème est que l'IA classique dépend en grande partie de l'exhaustivité des informations sur ce qui se passe, mais je n'ai conclu qu'en regardant le stand. D'une manière ou d'une autre, je peux généraliser, imaginer des parties du stand qui ne me sont pas visibles. Nous n'avons pas encore d'outils pour implémenter cette propriété.

Vous dites également que les gens ont une connaissance innée. Comment cela peut-il être mis en œuvre dans l'IA?

Au moment de la naissance, notre cerveau est déjà un système très soigneusement pensé. Ce n'est pas fixe, la nature a créé le premier brouillon. Et puis l'apprentissage nous aide à réviser ce projet tout au long de notre vie.

Un brouillon du cerveau a déjà certaines capacités. Une chèvre de montagne nouveau-née en quelques heures est capable de descendre avec précision la pente de la montagne. De toute évidence, il a déjà une compréhension de l'espace tridimensionnel, de son corps et de la relation entre eux. Système très compliqué.

C'est en partie pourquoi je pense que nous avons besoin d'hybrides. Il est difficile d'imaginer comment vous pouvez créer un robot qui fonctionne bien dans le monde sans connaissances similaires, par où commencer, au lieu de partir de zéro et d'apprendre d'une longue et vaste expérience.

Pour les humains, notre connaissance innée provient de notre génome, qui a évolué au fil du temps. Et avec les systèmes d'IA, nous devons aller dans l'autre sens. Cela peut être en partie les règles de construction de nos algorithmes. En partie, il peut s'agir de règles de création de structures de données que ces algorithmes manipulent. Et en partie, cela peut signifier que nous investirons directement dans des machines.

Fait intéressant, dans le livre que vous apportez à l'idée de confiance et à la création de systèmes de confiance. Pourquoi avez-vous choisi ce critère?

Je crois qu'aujourd'hui tout cela est un jeu de balle. Il me semble que nous vivons un moment étrange de l'histoire, en faisant largement confiance à un logiciel qui n'est pas digne de confiance. Je pense que les angoisses inhérentes d'aujourd'hui ne dureront pas éternellement. Dans cent ans, l'IA justifiera notre confiance, et peut-être même plus tôt.

Mais aujourd'hui, l'IA est dangereuse. Pas dans le sens qu'Elon Musk craint, mais dans le fait que les systèmes d'entretien d'embauche discriminent les femmes, indépendamment de ce que font les programmeurs, parce que leurs outils sont trop simples.

J'aimerais que nous ayons une meilleure IA. Je ne veux pas que «l'hiver de l'intelligence artificielle» commence, quand les gens se rendent compte que l'IA ne fonctionne pas et est simplement dangereux, et ils ne veulent pas y remédier.

D'une certaine manière, votre livre semble vraiment très optimiste. Vous suggérez que vous pouvez construire une IA crédible. Nous devons simplement regarder dans une direction différente.

Certes, le livre est très pessimiste à court terme et très optimiste à long terme. Nous pensons que tous les problèmes que nous décrivons peuvent être résolus si nous examinons plus largement les bonnes réponses. Et nous pensons que si cela se produit, le monde s'améliorera.

Source: https://habr.com/ru/post/fr471978/


All Articles