L'histoire inédite de l'IA

L'histoire de l'IA est souvent racontée comment l'histoire des machines devient progressivement plus intelligente. Mais le facteur humain est perdu dans l'histoire, la question de la conception et de la formation des machines, et de leur apparence, grâce aux efforts de l'homme, mental et physique.


Étudions cette histoire humaine de l'IA - comment les innovateurs, les penseurs, les travailleurs et parfois les spéculateurs ont créé des algorithmes qui peuvent reproduire la pensée et le comportement humains (ou prétendre qu'ils sont reproduits). L'idée d'ordinateurs super intelligents qui ne nécessitent pas la participation humaine peut être excitante - mais la véritable histoire des machines intelligentes montre que notre IA est aussi bonne que nous.

Quand Charles Babbage a joué aux échecs avec le premier Turc mécanique


Le célèbre ingénieur du 19e siècle a peut-être été inspiré par le premier exemple du battage médiatique autour de l'IA




En 1770, à la cour de l'impératrice autrichienne Maria Theresa , l'inventeur Wolfgang von Kempelen a fait la démonstration d'une machine jouant aux échecs . Le "Turc", comme Kempelen a appelé son invention, était une figure humaine grandeur nature sculptée dans du cèdre [selon d'autres sources - cire / env. trad.], habillé en représentant de l'Empire ottoman, assis derrière une armoire en bois, sur le comptoir duquel était un échiquier.

Kempelen a déclaré que sa voiture était capable de battre n'importe quel courtisan, et cet appel a été accepté par l'un des conseillers de Maria Theresa. Kempelen a ouvert les portes de l'armoire, démontrant un mécanisme similaire à une horloge - un réseau complexe de leviers et d'engrenages, puis a inséré une clé dans la voiture et l'a démarrée. La mitrailleuse s'anima et leva une main en bois pour déplacer la première figurine. En 30 minutes, il a vaincu son adversaire.

Le Turc a fait sensation. Au cours des dix années suivantes, Kempelen est apparu avec sa machine d'échecs en Europe, battant bon nombre des personnes les plus intelligentes de l'époque, dont Benjamin Franklin et Frederick II. Après la mort de Kempelen en 1804, Johann Nepomuk Melzel , étudiant dans une université allemande et concepteur d'instruments de musique qui continua ses performances à travers le monde, acquit Turku.

Un de ceux qui ont été autorisés à regarder la voiture plus en détail était Charles Babbage , un célèbre ingénieur et mathématicien britannique. En 1819, Babbage a joué deux fois avec Turk et a perdu les deux fois. Selon l'historien Tom Standage, qui a écrit l'histoire détaillée de Turk, Babbage soupçonnait que la machine n'était pas une machine intelligente, mais seulement un canular rusé, et qu'il cachait un homme qui contrôlait les mouvements du Turc de l'intérieur.



Babbage avait raison. Derrière l'écran du mécanisme turc, il y avait ce qui suit: Kempelen et Melzel ont engagé des grands-maîtres pour s'asseoir secrètement dans une grande boîte. Le grand maître pouvait voir ce qui se passait sur la planche grâce à des aimants qui donnaient une image miroir des pièces placées.

Pour contrôler la main du Turc, un joueur caché a utilisé un pantographe, un système de blocs qui synchronisait les mouvements de sa main avec un Turc en bois. Le joueur a déplacé le levier sur le tableau magnétique, l'a tourné pour ouvrir et fermer les doigts du Turc, puis a déplacé la figure au bon endroit. La pièce où le grand maître était assis contenait plusieurs panneaux coulissants et une chaise sur roues, se déplaçant sur des rails graissés, ce qui lui permettait d'avancer et de reculer lorsque Melzel ouvrait la boîte pour que tout le monde puisse la voir.

Et bien que Babbage ait soupçonné de telles astuces, il n'a pas perdu de temps à l'exposer, comme beaucoup de ses contemporains. Cependant, sa rencontre avec Turk, apparemment, a déterminé sa pensée pendant de nombreuses années.


Charles Babbage a développé la machine à différence n ° 2 de 1847 à 1849, mais pendant sa vie, elle n'a pas été construite.

Peu de temps après, il a commencé à travailler sur une calculatrice mécanique automatique appelée " machine à différence ", qu'il avait l'intention d'utiliser pour créer des tables logarithmiques sans erreur. La première conception de la machine, qui pouvait peser 4 tonnes, contenait 25 000 composants métalliques. Dans les années 1830, il l'abandonne et commence à travailler sur un mécanisme encore plus complexe, la «machine analytique». Elle avait un «référentiel» et un «moulin» qui fonctionnaient comme une mémoire et un processeur, ainsi que la capacité d'interpréter les instructions logicielles contenues sur les cartes perforées.

Au départ, Babbage espérait que la machine analytique fonctionnerait simplement comme une version améliorée de la différence. Mais son compagnon, Ada Lovelace , s'est rendu compte que la programmabilité de la machine lui permet de fonctionner dans un mode plus généralisé. Elle a déclaré qu'une telle machine donnerait naissance à un nouveau type de «science poétique» et que les mathématiciens formeraient la machine à effectuer des tâches en la programmant. Elle a même prédit que la machine serait capable de composer «des œuvres musicales scientifiques complexes».


Ada Lovelace et Charles Babbage

Babbage a fini par être d'accord avec Lovelace et a imaginé comment le potentiel d'une machine à usage général, capable non seulement de broyer des chiffres, pourrait changer le monde. Naturellement, ses pensées sont revenues à la rencontre de Turk. En 1864, il écrit dans un journal son désir d'utiliser un «dossier mécanique» pour résoudre des problèmes complètement nouveaux. "Après mûre réflexion, j'ai choisi pour mon test une machine rusée capable de jouer avec succès un jeu intellectuel, comme les échecs."

Bien que techniquement le Turc et la machine Babbage ne soient en aucun cas connectés, la possibilité de l'existence d'une intelligence machine incarnée dans la mystification de von Kempelen semble avoir inspiré Babbage à penser aux voitures sous un jour complètement nouveau. Comme l'écrivit plus tard son compagnon, David Brewster: "Ces jouets automatiques, qui autrefois divertissaient les roturiers, sont maintenant impliqués dans l'augmentation des capacités et du développement de notre type de civilisation."

La rencontre de Babbage avec le Turc au tout début de l’histoire du calcul rappelle que battage médiatique et innovation vont parfois de pair. Mais cela nous apprend encore une chose: l'intelligence attribuée aux machines est presque toujours basée sur des réalisations humaines cachées.

Programmeurs informatiques invisibles ENIAC


Les personnes qui dirigent ENIAC ont à peine reçu la reconnaissance



Marilyn Veskov (à gauche) et Ruth Lichterman étaient deux programmeuses ENIAC

Le 14 février 1946, des journalistes se sont réunis à la Moore's Engineering School de l'Université de Pennsylvanie pour assister à une démonstration ouverte de l'un des premiers ordinateurs numériques électroniques à usage général au monde: ENIAC (Electronic Numeric Integrator and Computer).

Arthur Burks, mathématicien et ingénieur en chef de l'équipe ENIAC, était en charge d'une démonstration des capacités de la machine. Tout d'abord, il a demandé à l'ordinateur d'ajouter 5000 numéros, ce qui a été fait en 1 seconde. Il a ensuite montré comment une machine peut calculer la trajectoire d'un projectile plus rapidement que le projectile lui-même n'aurait besoin de voler du canon à la cible.

Les journalistes étaient stupéfaits. Il leur semblait que Burks n'avait qu'à appuyer sur un bouton, et la voiture s'animait pour compter en quelques instants ce que les gens avaient mis des jours à faire.

Ce qu'ils ne savaient pas ou ce qui a été caché pendant la manifestation, c'est que derrière l'intelligence apparente de la machine, il y avait le travail acharné et avancé d'une équipe de programmeurs composée de six femmes qui avaient auparavant travaillé comme «ordinateurs».


Betty Jennings (à gauche) et Francis Bilas travaillent avec le panneau de commande principal d'ENIAC

Le projet de construire une machine capable de calculer la trajectoire des obus est né dans les premières années de la Seconde Guerre mondiale. L'École d'ingénierie de Moore a travaillé avec le Laboratoire de recherche balistique (BRL), où une équipe de 100 «calculateurs humains» formés a calculé manuellement des tables de tir d'artillerie.

La tâche exigeait un bon niveau de connaissances en mathématiques, y compris la capacité de résoudre des équations différentielles non linéaires, des analyseurs différentiels et des règles de glissement . Mais en même temps, les calculs étaient considérés comme du travail de bureau, une tâche trop fastidieuse pour les ingénieurs masculins. Par conséquent, BRL a embauché des femmes - principalement des diplômées universitaires et un penchant pour les mathématiques - pour ce travail.

Au cours de la guerre, la capacité de prédire la trajectoire de vol des obus était de plus en plus liée à la stratégie militaire, et le BRL exigeait de plus en plus des résultats.

En 1942, le physicien John Mowchley a écrit un mémo proposant de créer une calculatrice électronique programmable à usage général qui pourrait automatiser les calculs. En juin 1943, Mouchley et l'ingénieur J. Presper Eckert avaient reçu un financement pour la construction de l'ENIAC.


J. Presper Eckert, John Mouchley, Betty Jean Jennings et Herman Goldstein devant ENIAC

L'objectif de l'ordinateur électronique était de remplacer des centaines d'ordinateurs personnels de BRL, ainsi que d'augmenter la vitesse et l'efficacité de l'informatique. Cependant, Mauchly et Eckert ont réalisé que leur nouvelle machine devrait être programmée pour calculer les trajets à l'aide de cartes perforées, en utilisant la technologie qu'IBM utilisait pour ses machines depuis plusieurs décennies.

Adele et Herman Goldstein, un couple marié qui supervisait le travail des calculatrices humaines à BRL, ont suggéré que les mathématiciens les plus puissants de leur équipe devraient être impliqués dans ce travail. Ils en ont sélectionné six - Kathleen McNulty, Francis Bilas, Betty Jean Jennings, Ruth Lichterman, Elizabeth Schneider et Marilyn Veskov - et les ont promus de calculatrices humaines à des opérateurs.


Elizabeth Betty Schneider travaille pour ENIAC

Leur première tâche a été de bien connaître ENIAC. Ils ont étudié les dessins de la machine afin de comprendre ses circuits électroniques, sa logique et sa structure physique. Il y avait quelque chose à apprendre: un monstre de 30 tonnes occupait environ 140 mètres carrés. m., a utilisé plus de 17 000 tubes électroniques, 70 000 résistances, 10 000 condensateurs, 1 500 relais et 6 000 commutateurs manuels. Une équipe de six opérateurs était chargée de configurer et d'installer la machine pour effectuer certains calculs, travailler avec du matériel servant des cartes perforées et rechercher des erreurs dans le travail. Pour cela, les opérateurs devaient parfois monter à l'intérieur de la machine et remplacer une lampe ou un câblage électronique défectueux.

ENIAC n'a pas eu le temps de terminer à temps pour calculer le vol d'obus pendant la guerre. Mais bientôt son pouvoir a été utilisé par John von Neumann pour calculer la fusion nucléaire. Cela a nécessité l'utilisation de plus d'un million de cartes perforées. Les physiciens de Los Alamos se sont entièrement appuyés sur les compétences de programmation des opérateurs, car seuls ils savaient comment gérer un si grand nombre d'opérations.


Programmeur ENIAC Kathleen McNulty

Cependant, la contribution des programmeuses a reçu très peu de reconnaissance ou de remerciements. En particulier, parce que la programmation de la machine était encore étroitement associée aux calculs manuels, et n'était donc pas considérée comme un travail tout à fait professionnel, adapté uniquement aux femmes. Des ingénieurs et physiciens de premier plan se sont concentrés sur le développement et la création de fer, qu'ils considéraient comme plus importants pour l'avenir des ordinateurs.

Par conséquent, lorsque ENIAC a finalement été présentée à la presse en 1946, six opératrices sont restées cachées aux yeux du public. L'aube de la guerre froide approchait, et l'armée américaine a démontré avec empressement sa supériorité technologique. Représentant ENIAC comme une machine intelligente autonome, les ingénieurs ont peint une image d'excellence technologique, cachant le travail humain utilisé.

La tactique a fonctionné et a influencé la couverture médiatique du travail des ordinateurs dans les décennies suivantes. Dans les nouvelles d'ENIAC diffusées dans le monde entier, la voiture occupait le centre d'intérêt et a reçu des épithètes telles que «cerveau électronique», «sorcier» et «cerveau de robot créé par l'homme».

Le travail acharné et laborieux de six opératrices rampant à l'intérieur de la voiture, remplaçant le câblage et les lampes afin que la machine puisse effectuer ses actions «raisonnables», était extrêmement léger.

Pourquoi Alan Turing voulait que l'intelligence artificielle fasse des erreurs


L'infaillibilité et l'intelligence ne sont pas la même chose.




En 1950, à l'aube de l'ère numérique, Alan Turing publie un article qui deviendra plus tard le plus célèbre de ses œuvres, " Computing machines and mind ", dans lequel il pose la question : "Can machines think?"

Au lieu d'essayer de définir les concepts de «machine» et de «réflexion», Turing décrit une méthode différente pour trouver une réponse à cette question, inspirée du jeu de salon de l'époque victorienne - l'imitation. Selon les règles du jeu, un homme et une femme dans des pièces différentes se parlent, passant des notes par un intermédiaire. Le médiateur, qui joue également le rôle d'un juge, doit deviner lequel d'entre eux est un homme et lequel est une femme, et sa tâche est compliquée par le fait que l'homme essaie d'imiter une femme.

Inspiré par ce jeu, Turing a développé une expérience de pensée dans laquelle l'un des participants a été remplacé par un ordinateur. Si un ordinateur peut être programmé pour jouer si bien à la simulation que le juge ne pourrait pas dire s'il parle d'une machine ou d'une personne, alors il serait sage de conclure, selon Turing, que la machine a de l'intelligence.

Cette expérience de pensée est devenue connue sous le nom de test de Turing , et reste à ce jour l'une des idées les plus célèbres et les plus controversées de l'IA. Il ne perd pas son attrait, car il donne une réponse sans ambiguïté à une question très philosophique: "Les machines peuvent-elles penser?" Si l'ordinateur réussit le test de Turing, la réponse est oui. Comme l'a écrit le philosophe Daniel Dennett , le test de Turing était censé arrêter le débat philosophique. "Au lieu de discuter sans fin de la nature et de l'essence de la pensée", écrit Dennett, "pourquoi ne sommes-nous pas d'accord que quelle que soit cette nature, tout ce qui peut passer ce test l'a sans aucun doute."

Cependant, une lecture plus approfondie du travail de Turing révèle un petit détail qui introduit une petite ambiguïté dans le test, ce qui suggère que, peut-être, Turing ne signifiait pas un test pratique de la machine pour l'intelligence, mais une provocation philosophique.

Dans une partie de l'article, Turing fournit une simulation de ce à quoi pourrait ressembler un test en utilisant un ordinateur intelligent imaginaire du futur. La personne pose des questions et l'ordinateur répond.

Q: Veuillez rédiger un sonnet sur le pont sur le fort.

R: Ici, je suis obligé de refuser. Je n'ai jamais eu de poésie.

Q: Ajoutez 34957 et 70764.

R: (réponse après une pause de 30 secondes): 105621.

Q: Jouez-vous aux échecs?

R: Oui.

Q: Mon roi se tient sur e1; Je n'ai pas d'autres chiffres. Votre roi est à e3 et la tour à a8. Votre déménagement. Comment irez-vous?

O: (Après avoir réfléchi environ quinze secondes): La1, mat.

Dans cette conversation, l'ordinateur a fait une erreur arithmétique. La vraie somme des nombres sera 105721, pas 105621. Il est peu probable que Turing, un brillant mathématicien, ait accidentellement réussi. C'est plutôt un œuf de Pâques pour le lecteur attentif.

Ailleurs dans l'article, Turing semble laisser entendre que cette erreur est une astuce de programmeur conçue pour tromper un juge. Turing a compris que si les lecteurs attentifs des réponses informatiques voyaient une erreur, ils décideraient de parler à une personne, en supposant que la machine ne ferait pas une telle erreur. Turing a écrit que la machine peut être programmée pour "inclure délibérément des erreurs dans les réponses, conçues pour dérouter l'interrogateur".

Et si l'idée d'utiliser des erreurs pour faire allusion à l'esprit humain était difficile à comprendre dans les années 1950, elle est devenue aujourd'hui une pratique de conception pour les programmeurs travaillant avec le traitement du langage naturel. Par exemple, en juin 2014, le chatbot Zhenya Gustman est devenu le premier ordinateur à passer le test de Turing. Cependant, les critiques ont souligné que Zhenya n'a réussi à le faire que grâce à l'astuce intégrée: il prétendait être un garçon de 13 ans qui n'avait pas l'anglais dans sa langue maternelle. Cela signifiait que ses erreurs de syntaxe et de grammaire, ainsi que ses connaissances incomplètes, étaient attribuées à tort à la naïveté et à l'immaturité, au lieu de l'incapacité à traiter les langues naturelles.

De même, après que l'assistant vocal Duplex de Google a frappé le public avec des pauses dans la conversation et l'utilisation de sons les remplissant, beaucoup ont indiqué que ce comportement n'était pas le résultat de la réflexion du système, mais une action spécialement programmée conçue pour simuler le processus de la pensée humaine.

Les deux cas mettent en œuvre l'idée de Turing selon laquelle les ordinateurs peuvent être spécifiquement conçus pour faire des erreurs afin d'impressionner une personne. Comme Turing, les programmeurs Zhenya Gustman et Duplex ont compris qu'une imitation superficielle de l'imperfection humaine peut nous tromper.

Peut-être que le test de Turing n'évalue pas la présence de l'esprit d'une machine, mais notre volonté de le considérer comme raisonnable. Comme l'a dit Turing lui-même: «L'idée de raison en soi est plus émotionnelle que mathématique. La façon dont nous considérons le comportement de quelque chose de raisonnable est déterminée non moins par notre état d'esprit et nos compétences que par les propriétés de l'objet en question. »

Et, peut-être, l'esprit n'est pas une substance qui peut être programmée par la machine - ce que Turing avait apparemment en tête - mais une caractéristique qui se manifeste par l'interaction sociale.

Un rêveur de DARPA vise l'intelligence cybernétique


Joseph Karl Robnett Liklider a fait des propositions pour la création d'une «symbiose de l'homme et de la machine», menant à l'invention de l'Internet




10:30 29 1969 - , , SDS Sigma 7 , , -.

: «LO».

«LOGIN», , , ARPANET, , .

-. , ARPANET , .

, , 1950- , . , , . , , «» , , , .

. , . , . – – , .

, , , . , ( ) .

1960 " " . «, , , , , ». , -, , « », SAGE, .

1963 ( ARPA, – DARPA), . , , " ".

, , ARPA , , , . , . , , : « ?»


, MIT,

ARPA , . ARPANET. , ARPANET , , , , , , , , « ».

. , , - . Uber , , , , .

, . , , : , , « , ». , , , .

1980-


, ,




Dans les années 1970, le Dr Joffrey Franglen de la faculté de médecine de St. George à Londres a commencé à écrire un algorithme pour abandonner les candidatures des candidats.

À cette époque, les trois quarts des 2 500 personnes qui soumettaient chaque année des demandes de présentation ont été éliminées par des personnes spéciales qui ont évalué leur demande écrite, ce qui a empêché les candidats d'atteindre le stade de l'entretien. Environ 70% des personnes qui ont terminé le décrochage initial se sont inscrites à l'école de médecine. Par conséquent, le dépistage initial a été une étape extrêmement importante.

Franglen était le doyen adjoint et s'occupait également des demandes. La lecture des candidatures nécessite une percée de temps et il lui semble que ce processus peut être automatisé. Il a étudié la technique de décrochage scolaire que lui et d'autres certificateurs ont utilisée, puis a écrit un programme qui, selon lui, «imitait le comportement d'attester les gens».

La principale motivation de Franglen était d'augmenter l'efficacité du processus d'adoption et il espérait également que son algorithme éliminerait la qualité inégale du travail du personnel. Il espérait qu'en passant ce processus au système technique, il serait possible de réaliser exactement la même évaluation de tous les candidats et de créer un processus d'abandon honnête.

En fait, tout s'est inversé.

Franglen a terminé son algorithme en 1979. Cette année-là, les demandes des candidats ont été vérifiées simultanément par un ordinateur et des personnes. Franglen a constaté que son système était d'accord avec les évaluations des évaluateurs dans 90 à 95% des cas. L'administration a décidé que ces chiffres permettraient de remplacer les fonctionnaires par un algorithme. En 1982, toutes les principales demandes d'admission à l'école ont commencé à être évaluées par le programme.

Après quelques années, certains membres du personnel s'inquiétaient du manque de diversité parmi les étudiants qui entraient. Ils ont mené une enquête interne sur le programme Franglen et ont trouvé certaines règles qui évaluaient les candidats pour des facteurs apparemment sans rapport tels que le lieu de naissance ou le nom. Cependant, Franglen a convaincu le comité que ces règles ont été collectées sur la base de la collecte de données sur le travail des attestants et n'ont pas affecté de manière significative l'échantillon.

En décembre 1986, deux professeurs d'école ont été informés de cette enquête interne et se sont rendus à la British Racial Equality Commission. Ils ont déclaré à la commission qu’ils avaient des raisons de croire que le programme informatique était utilisé pour discriminer discrètement les femmes et les personnes de couleur.

La commission a ouvert une enquête. Il a été découvert que l'algorithme séparait les candidats de race blanche et non européens, en fonction de leurs noms et lieux de naissance. Si leurs noms n'étaient pas européens, cela leur revenait en moins. La simple présence d'un nom non européen a soustrait 15 points au montant total du demandeur. La commission a également constaté que les femmes étaient sous-estimées en moyenne de 3 points. Sur la base de ce système, jusqu'à 60 demandes ont été rejetées quotidiennement.

À cette époque, la discrimination raciale et sexuelle était très forte dans les universités britanniques - et St. Georg n'a été prise à ce sujet que parce qu'elle a confié ce parti pris à un programme informatique. Puisqu'on pouvait soutenir que l'algorithme ci-dessous évaluait les femmes et les personnes dont le nom n'était pas européen, la commission a reçu des preuves solides de discrimination.

L'école de médecine a été accusée de discrimination, mais elle s'en est assez facilement sortie. En essayant de faire amende honorable, le collège a contacté des personnes qu'ils pouvaient discriminer illégalement et trois des candidats rejetés se sont vu offrir une scolarité. La Commission a noté que le problème de la faculté de médecine n'était pas seulement technique, mais aussi culturel. De nombreux employés ont considéré l'algorithme de tri comme la vérité ultime et n'ont pas perdu de temps à comprendre comment il trie les candidats.

À un niveau plus profond, il est clair que l'algorithme a soutenu les idées préconçues qui existaient déjà dans le système d'admission. Après tout, Franglen a vérifié la voiture avec l'aide de personnes et a trouvé une coïncidence de 90 à 95%. Cependant, en codant la discrimination que possédaient les certificateurs, il a assuré une répétition sans fin de ce parti pris.

L'affaire de discrimination à St. Georg a attiré beaucoup d'attention. En conséquence, la commission a interdit l'inclusion d'informations sur la race et l'origine ethnique dans les demandes des candidats. Cependant, cette étape modeste n'a pas empêché la propagation du biais algorithmique.

Les systèmes de prise de décisions algorithmiques sont de plus en plus déployés dans des domaines à haut degré de responsabilité, par exemple, dans les soins de santé et la justice pénale, et la répétition, ainsi que le renforcement du biais social existant découlant des données historiques, suscitent de sérieuses préoccupations. En 2016, les journalistes de ProPublica ont révélé que le logiciel utilisé aux États-Unis pour prédire les futurs crimes était biaisé contre les Afro-Américains. La chercheuse Joy Bulamvini a révélé plus tard que le logiciel de reconnaissance faciale d'Amazon était plus mal avec les femmes noires.

Et tandis que le biais machine devient rapidement le sujet le plus discuté en IA, les algorithmes sont toujours considérés comme des objets mathématiques mystérieux et indéniables qui produisent des résultats raisonnables et impartiaux. Comme le dit la critique d'IA Kate Crawford, il est temps d'admettre que les algorithmes sont des «créations humaines» et héritent de notre parti pris. Le mythe culturel d'un algorithme indéniable cache souvent ce fait: notre IA est aussi bonne que nous.

Comment Amazon a poussé des Turcs mécaniques dans une machine


Les travailleurs numériques invisibles d'aujourd'hui ressemblent à l'homme qui dirigeait le Turc mécanique du XVIIIe siècle




Au tournant du millénaire, Amazon a commencé à étendre ses services au-delà de la vente de livres. Avec le nombre croissant de catégories de produits différentes sur le site Web de l'entreprise, il était nécessaire de trouver de nouvelles façons de les organiser et de les catégoriser. Une partie de cette tâche consistait à supprimer des dizaines de milliers de produits en double apparaissant sur le site.

Les programmeurs ont essayé de créer un programme capable d'éliminer automatiquement les doublons. La définition et la suppression d'objets semblaient être une tâche simple à la disposition de la machine. Cependant, les programmeurs se sont rapidement rendus, qualifiant la tâche de traitement de données « impossible ». Pour une tâche impliquant la capacité de remarquer des incohérences ou des similitudes mineures dans les images et les textes, l'intelligence humaine était requise.

Amazon a rencontré un problème. La suppression de produits en double était triviale pour les gens, mais une énorme quantité d'articles nécessiterait une main-d'œuvre importante. La gestion des travailleurs engagés dans l'une de ces tâches ne serait pas anodine.

Venki Harinarayan, chef d'entreprise, a trouvé une solution. Son brevet décrit une «collaboration informatique hybride entre les humains et les machines» qui décompose une tâche en petits morceaux, sous-tâches et les distribue à travers un réseau d'employés humains.

Si les doublons sont supprimés, l'ordinateur principal peut diviser le site Web d'Amazon en petites sections - disons, 100 pages d'ouvreurs - et envoyer des sections à des personnes sur Internet. Ils devaient ensuite identifier les doublons dans ces sections et renvoyer les pièces du puzzle.

Un système distribué offrait un avantage crucial: les employés n'avaient pas à accumuler en un seul endroit, ils pouvaient exécuter leurs sous-tâches sur leurs ordinateurs, où qu'ils se trouvent et quand ils le voulaient. En fait, Harinarayan a trouvé un moyen efficace de répartir le travail peu qualifié, mais difficile à automatiser, à travers un large réseau de personnes qui peuvent travailler en parallèle.

Cette méthode s'est avérée si efficace pour le travail interne de l'entreprise que Jeff Bezos a décidé de vendre le système en tant que service à des organisations tierces. Bezos a transformé la technologie Harinarayan en un marché pour les travailleurs. Là-bas, les entreprises dont les tâches étaient faciles pour les personnes (mais difficiles pour les robots) pouvaient trouver un réseau de travailleurs indépendants effectuant ces tâches pour une somme modique.

C'est ainsi qu'est né Amazon Mechanical Turk , ou mTurk . Le service a commencé en 2005 et la base d'utilisateurs a commencé à croître rapidement. Les entreprises et les chercheurs du monde entier ont commencé à télécharger «Tâches pour l'intelligence humaine» sur la plate-forme, telles que le décryptage audio ou l'étiquetage d'images. Les tâches ont été exécutées par un groupe international et anonyme de travailleurs pour une somme modique (un employé frustré s'est plaint que la rémunération moyenne était de 20 cents).

Le nom du nouveau service fait référence à une machine à jouer aux échecs du XVIIIe siècle - le Turc mécanique, inventé par le petit homme d'affaires Wolfgang von Kempelen. Et tout comme dans cette fausse automatisation, à l'intérieur de laquelle se trouvait une personne jouant aux échecs, la plate-forme mTurk a été conçue pour cacher le travail humain. Au lieu de noms, les travailleurs de la plate-forme ont des numéros et la communication entre l'employeur et le travailleur est dépourvue de personnalisation. Bezos lui-même a qualifié ces travailleurs inhumains d '« intelligence artificielle artificielle ».

Aujourd'hui, mTurk est un marché florissant avec des centaines de milliers d'employés du monde entier. Et bien que la plateforme offre une source de revenus pour les personnes qui n'ont peut-être pas accès à un autre travail, les conditions de travail y sont très douteuses. Certains critiques soutiennent qu'en cachant et en séparant les travailleurs, Amazon facilite le fonctionnement. Dans un document de recherche de décembre 2017, il a été constaté que le salaire médian d'un employé est d'environ 2 $ de l'heure et que seulement 4% des employés gagnent plus de 7,25 $ de l'heure.

Fait intéressant, mTurk est devenu un service essentiel pour développer l'apprentissage automatique. Dans le programme MO, un grand ensemble de données est publié sur lequel il apprend à rechercher des modèles et à tirer des conclusions. Les travailleurs de MTurk sont souvent utilisés pour créer et annoter ces kits, et leur rôle dans le développement de MO reste souvent dans l'ombre.

La dynamique entre la communauté de l'IA et mTurk est cohérente avec celle qui a été présente tout au long de l'histoire de l'esprit machine. Nous admirons volontiers l'apparition de «machines intelligentes» autonomes, ignorant ou cachant intentionnellement le travail humain qui les crée.

Peut-être pouvons-nous apprendre des remarques d' Edgar Allan Poe . Lorsqu'il a étudié le Turc mécanique von Kempelen, il n'a pas succombé à cette illusion. Au lieu de cela, il se demandait ce que c'était qu'un joueur d'échecs caché de s'asseoir à l'intérieur de cette boîte, "pressé" parmi les engrenages et les leviers dans une "pose douloureuse et contre nature".

À l'heure actuelle, lorsque les titres sur les percées de l'IA parsèment le champ des nouvelles, il est important de se rappeler l'approche sobre de Poe. Il peut être très excitant - bien que dangereux - de succomber au battage médiatique autour de l'IA et de se laisser emporter par les idées de machines qui ne nécessitent pas de simples mortels. Cependant, avec une attention particulière, vous pourrez voir des traces de travail humain.

Source: https://habr.com/ru/post/fr454064/


All Articles