L'intelligence artificielle s'est heurtée à une barrière de compréhension

Les algorithmes d'apprentissage automatique ne comprennent pas encore la réalité de la façon dont les gens le font - parfois avec des conséquences désastreuses

À propos de l'auteur: Melanie Mitchell est professeur d'informatique à la Portland State University et professeur invité au Santa Fe Institute. Son livre, Artificial Intelligence: A Guide for Thinking People, sera publié en 2019 par Farrar, Straus et Giroux


Visiteur de l'Expo Intelligence Artificielle en Afrique du Sud, septembre 2018. Photo: Nic Bothma / EPA, via Shutterstock

Vous avez probablement entendu dire que nous sommes au milieu d'une révolution de l'IA. On nous dit que l'intelligence artificielle progresse à une vitesse étonnante, en s'appuyant sur des algorithmes d '«apprentissage profond» qui utilisent d'énormes quantités de données pour former des programmes complexes appelés «réseaux de neurones».

Les programmes d'aujourd'hui peuvent reconnaître les visages et enregistrer la parole. Nous avons des programmes pour détecter la fraude financière subtile, pour trouver des pages Web pertinentes en réponse à des demandes ambiguës, pour tracer la route optimale presque partout, ces programmes battent les grands-maîtres aux échecs et partez et traduisent entre des centaines de langues. De plus, des véhicules sans pilote, des diagnostics automatiques de cancer, des robots de nettoyage et même des découvertes scientifiques automatiques nous sont promis bientôt et partout.

Le fondateur de Facebook, Mark Zuckerberg, a récemment déclaré qu'au cours des cinq à dix prochaines années, la société développera l'IA pour "dépasser le niveau d'une personne dans tous les sens de base: vision, audition, langage, compréhension générale". Shane Legg, chercheur en chef au DeepMind de Google, prédit que "l'IA dépassera le niveau humain au milieu des années 2020".

En tant que personne travaillant dans le domaine de l'IA depuis plusieurs décennies, j'ai été témoin de l'échec de nombreuses prédictions de ce type. Et je suis sûr que les dernières prévisions ne se réaliseront pas non plus. Le problème de la création de l'intelligence humaine dans les machines reste fortement sous-estimé. Les systèmes d'IA actuels manquent cruellement de l'essence de l'intelligence humaine: comprendre les situations que nous vivons, la capacité de comprendre leur signification. Le mathématicien et philosophe Gian-Carlo Rota a posé la fameuse question: "Je me demande si l'IA sera jamais capable de surmonter la barrière de la compréhension." Pour moi, c'est toujours le problème le plus important.

Le manque de compréhension humaine dans les machines est souligné par les problèmes qui sont récemment apparus dans les fondements de l'IA moderne. Bien que les programmes modernes soient beaucoup plus impressionnants que les systèmes il y a 20 à 30 ans, un certain nombre d'études montrent que les systèmes d'apprentissage profond démontrent l'insécurité de manière complètement inhumaine.

Je vais donner quelques exemples.

«L'homme à tête nue a besoin d'un chapeau» [L'homme à tête nue avait besoin d'un chapeau] - le programme de reconnaissance vocale au téléphone reconnaît cette phrase comme «l'homme à tête d'ours avait besoin d'un chapeau». La phrase «Je mets le cochon dans le stylo» [Je mets le cochon dans le stylo] Google Translate se traduit en français par «Je mets le cochon dans le stylo» [Je mets le cochon dans le stylo].

Les programmes qui «lisent» des documents et répondent à des questions à leur sujet sont facilement dupés si de courts fragments de texte non pertinents sont ajoutés au document. De même, les programmes qui reconnaissent les visages et les objets (le célèbre triomphe de l'apprentissage en profondeur) échouent si vous modifiez légèrement les données d'entrée avec certains types d'éclairage, le filtrage d'image et d'autres changements qui n'affectent en rien l'efficacité de la reconnaissance humaine des objets. .

Une étude récente a montré que l'ajout d'une petite quantité de «bruit» à une image faciale interfère sérieusement avec les programmes modernes de reconnaissance faciale. Une autre étude , appelée avec humour «Elephant in a Room», montre qu'une petite image d'un objet étranger, tel qu'un éléphant, dans le coin de l'image du salon d'une manière étrange fait que les systèmes de vision industrielle en apprentissage profond classent incorrectement les autres objets.

De plus , les programmes qui ont appris à jouer magistralement à un jeu vidéo ou à un jeu de société spécifique au niveau «surhumain» sont complètement perdus au moindre changement de conditions (changement de l'arrière-plan à l'écran ou changement de position de la «plateforme» virtuelle pour battre la «balle»).

Ce ne sont que quelques exemples qui démontrent le manque de fiabilité des meilleurs programmes d'IA si la situation est légèrement différente de celles sur lesquelles ils ont été formés. Les erreurs dans ces systèmes varient de ridicules et inoffensives à potentiellement catastrophiques. Par exemple, imaginez un système de sécurité d'aéroport qui ne vous permettra pas d'embarquer sur un vol parce que votre visage a été confondu avec le visage d'un criminel, ou un véhicule sans pilote qui, en raison de conditions d'éclairage inhabituelles, n'a pas remarqué que vous partez à une intersection.

Plus alarmantes encore sont les récentes manifestations de vulnérabilités de l'IA à des exemples dits "hostiles". Un pirate malveillant peut y apporter certaines modifications aux images, au son ou au texte qui sont invisibles ou insignifiantes pour les humains, mais peut entraîner des erreurs d'IA potentiellement catastrophiques.

La possibilité de telles attaques est montrée dans presque tous les domaines de l'IA, y compris la vision par ordinateur, le traitement d'images médicales, la reconnaissance et le traitement de la parole. De nombreuses études ont montré la facilité avec laquelle les pirates peuvent tromper les systèmes de reconnaissance faciale ou les objets avec de légers changements d' image. Des autocollants invisibles sur le panneau d'arrêt de la route forcent le système de vision industrielle dans un véhicule sans pilote à le prendre pour «Prenez la route», et la modification du signal sonore qui ressemble à de la musique de fond pour une personne demande au système Siri ou Alexa d'exécuter secrètement une certaine commande.

Ces vulnérabilités potentielles illustrent pourquoi les progrès actuels de l'IA reposent sur un obstacle à la compréhension. Quiconque travaille avec des systèmes d'IA sait que derrière une façade similaire à la vision humaine, à la parole et aux compétences de jeu, ces programmes ne comprennent absolument pas - de quelque manière que ce soit - les données d'entrée qu'ils reçoivent pour le traitement et les résultats qui en résultent. L'absence d'une telle compréhension rend ces programmes sensibles aux erreurs inattendues et aux attaques invisibles.

Que faudra-t-il pour surmonter cet obstacle afin que les machines puissent mieux comprendre les situations auxquelles elles sont confrontées, plutôt que de compter sur de petites pièces? Pour trouver la réponse, vous devez vous tourner vers l'étude des connaissances humaines.

Notre propre compréhension des situations auxquelles nous sommes confrontés est basée sur des «concepts de bon sens» larges et intuitifs sur le fonctionnement du monde et les objectifs, les motivations et le comportement probable d'autres êtres vivants, en particulier d'autres personnes. De plus, notre compréhension du monde est basée sur nos capacités de base à généraliser ce que nous savons, à former des concepts abstraits et à tirer des analogies - en bref, adapter de manière flexible nos concepts à de nouvelles situations. Pendant des décennies, les chercheurs ont expérimenté l'enseignement du bon sens intuitif de l'IA et des capacités humaines durables à se généraliser, mais peu de progrès ont été réalisés dans ce domaine très difficile.

Les programmes d'IA manquant de bon sens et d'autres aspects clés de la compréhension humaine sont de plus en plus déployés dans des applications réelles. Alors que certaines personnes s'inquiètent de la «superintelligence» de l'IA, l'aspect le plus dangereux de l'IA est que nous faisons trop confiance et accordons trop d'autonomie à de tels systèmes sans être pleinement conscients de leurs limites. Comme le note le chercheur Pedro Domingos dans son livre, «L'algorithme principal»: «Les gens craignent que les ordinateurs deviennent trop intelligents et envahissent le monde, mais le vrai problème est qu'ils sont trop stupides et l'ont déjà pris . »

La course à la commercialisation de l'IA a exercé une énorme pression sur les chercheurs pour qu'ils créent des systèmes qui fonctionnent «raisonnablement bien» dans des tâches étroites. Mais en fin de compte, l'objectif de développer une IA fiable nécessite une étude plus approfondie de nos propres capacités remarquables et une nouvelle compréhension des mécanismes cognitifs que nous utilisons nous-mêmes pour comprendre de manière fiable le monde qui nous entoure. Surmonter l'obstacle à la compréhension de l'IA est susceptible de faire un pas en arrière - des réseaux et des ensembles de données toujours plus vastes aux racines de l'industrie en tant que science interdisciplinaire qui étudie le problème scientifique le plus complexe: la nature de l'intelligence.

Source: https://habr.com/ru/post/fr429182/


All Articles