La réflexion magique sur l'apprentissage automatique ne rapprochera pas la véritable IA



"Toute technologie suffisamment avancée", a écrit le cardinal gris de la science-fiction Arthur Clark, "est indiscernable de la magie." Cette citation, que les fans de promotion de la technologie citent sans relâche, est peut-être devenue la déclaration la plus destructrice que Clark ait jamais faite, car elle encourage notre étonnement hypnotique face à la technologie et désactive la pensée critique. Parce que quand il s'agit de «magie», par définition, ce sera quelque chose d'inexplicable. Cela n'a aucun sens de poser des questions à ce sujet; il suffit de l'accepter tel quel, de se détendre et de noyer la méfiance.

Aujourd'hui, la pensée magique attire surtout sur elle-même l'intelligence artificielle (IA). Les amateurs le décrivent comme s'il s'agissait de l'invention la plus importante depuis la roue. Les pessimistes y voient une menace existentielle pour l'humanité: la première machine «la plus intelligente» que nous créons sera le début de la fin de l'humanité; la seule question est de savoir si les voitures nous garderont comme animaux de compagnie.

Dans les deux cas, la relation inverse est visible entre la force de la croyance des gens dans les capacités de l'IA et leur connaissance de cette technologie. Les experts font preuve d'un optimisme prudent, et les ardents supporters ignorent parfaitement que l'IA qu'ils vantent est en fait une combinaison plutôt banale d'apprentissage automatique (MO) et de Big Data.

L'apprentissage automatique utilise des techniques statistiques pour donner aux machines la possibilité «d'apprendre», c'est-à-dire utiliser les données pour améliorer en continu les performances d'une tâche particulière sans avoir besoin d'une programmation préalable. Le système MI est un ensemble d'algorithmes qui prennent un flux de données en entrée et fournissent des liens, des corrélations, des recommandations et, probablement, même des solutions. Cette technologie est déjà utilisée partout: presque toutes nos interactions avec Google, Amazon, Facebook, Netflix, Spotify, etc., se produisent via la médiation des systèmes MI. Il est arrivé au point que l'un des grands gourous de l'IA, Andrew Eun , compare le MO à l'électricité.

Pour de nombreux chefs d'entreprise, une machine qui peut en apprendre plus sur leurs clients que jamais, semble magique. Imaginez le moment où Walmart a découvert que parmi toutes les choses que les consommateurs américains avaient approvisionnées après un avertissement d'ouragan , en plus de l'ensemble habituel, il y avait des tartes pop à la bière et aux biscuits aux fraises. Et, inévitablement, l'enthousiasme des entreprises pour la technologie magique est rapidement allé au-delà de l'approvisionnement des supermarchés et a été transféré au gouvernement. Le ministère de la Défense a rapidement pénétré les prévisions de congestion du trafic, l'état de droit prédictif (le MO aide à marquer les zones où des délits sont "susceptibles" de se produire), les décisions concernant la libération conditionnelle, etc. Parmi les excuses à cette croissance folle figurent une efficacité accrue, un meilleur contrôle du respect de la loi, une prise de décision plus «objective» et, bien sûr, des services publics plus réactifs.

Ce changement d'orientation progressif n'est pas passé inaperçu. Les critiques notent que l'ancien aphorisme informatique «ordures, ordures» s'applique à la région de Moscou. Si les données sur lesquelles la machine «apprend» sont biaisées, leur sortie reflétera ce biais . Cela peut être généralisé; peut-être avons-nous créé une technologie qui - bien qu'elle réponde aux recommandations du film à regarder pour vous - peut devenir un facteur renforçant les inégalités sociales, économiques et culturelles.

Avec toutes ces critiques sociopolitiques de la région de Moscou, personne n'a remis en question l'efficacité technologique de l'idée elle-même - c'est-à-dire que l'on croyait que toute décision incorrecte qu'elle produisait ne dépendrait que des lacunes des données d'entrée. Mais maintenant, cette hypothèse rassurante est assez controversée. Lors d'une récente conférence NIPS (Neural Information Processing System), la grande réunion annuelle des experts MO, Ali Rahimi, l'une des stars reconnues dans le domaine, a lancé une grenade intellectuelle dans le public. Dans une conférence remarquable, il a comparé le MO avec l'alchimie médiévale. Les deux domaines de connaissance se sont avérés fonctionner, à un certain niveau - les alchimistes ont proposé la métallurgie et la fabrication du verre; Les chercheurs de MO ont créé des machines qui peuvent vaincre les gens de Go et identifier les objets de l'image. Mais tout comme l'alchimie n'avait pas de fondement scientifique, elle manque également dans le MO, selon Rahimi. Il soutient que les chercheurs ne peuvent souvent pas expliquer les principes de travail de leurs modèles mathématiques - ils n'ont pas une compréhension claire et détaillée de leurs outils, et en ce sens ils travaillent dans le rôle d'alchimistes, pas de scientifiques.

Est-ce important? Certainement oui. Comme le dit Rahimi: «Nous créons des systèmes qui gèrent les soins de santé et servent de médiateurs dans les affaires civiles. Nous influencerons l'élection. «Je voudrais vivre dans une société dont les systèmes reposent sur des connaissances vérifiables, rigoureuses et complètes, et non sur l'alchimie.»

Moi aussi. Basé sur l'électricité, nous avons créé ce que nous aimons appeler la civilisation. Mais au moins, nous avons compris pourquoi et comment cela fonctionne. Si Rahimi a raison, dans le cas de l'IA, nous ne nous en sommes pas encore approchés. Alors arrêtons d'y penser comme par magie.

Source: https://habr.com/ru/post/fr420211/


All Articles