Le pari quantique de Google sur l'IA - et ce que cela signifie pour toute l'humanité

Google a plus de puissance de calcul, de données et de spécialistes talentueux pour travailler sur l'intelligence artificielle que toute autre entreprise sur Terre - et cela ne ralentit pas. Par conséquent, les gens ne devraient pas ralentir.




Le cerveau humain est une chose amusante. Certains souvenirs nous restent à jamais: la naissance d'un enfant, un accident de voiture, le jour des élections. Mais nous ne pouvons que sauvegarder certains détails - la couleur de la porte du service d'obstétrique, l'odeur du bureau de vote - et d'autres détails, tels que le visage de l'infirmière ou la façon dont nous étions habillés au moment de l'accident, disparaissent. Sundar Pichai, PDG de Google, se souviendra à jamais du jour où l'IA a quitté le laboratoire.

«C'était en 2012, j'étais dans la même pièce avec une petite équipe, où il n'y avait que quelques personnes», raconte-t-il. Jeff Dean , le légendaire programmeur de Google qui a aidé à écrire le moteur de recherche, travaillait sur un nouveau projet et voulait que Pichai l'examine. "Chaque fois que Jeff veut vous montrer quelque chose de nouveau, vous ressentez une excitation joyeuse", dit-il.

Pichai ne se souvient pas dans quel bâtiment particulier il a regardé le travail de Dean, bien que d'autres détails étranges de cette journée lui aient frappé la mémoire. Il se souvient qu'il ne s'est pas assis, mais s'est levé, tandis que quelqu'un plaisantait à proximité au sujet du cant du département des ressources humaines, qui a nommé comme stagiaire la société récemment embauchée Jeffrey Hinton - "père de l'éducation approfondie", un chercheur en IA qui fait cela depuis quatre décennies, puis a reçu un prix Turing.

Le futur PDG de Google à l'époque était un vice-président senior, dirigeait des projets Chrome et Apps, et ne pensait pas à l'IA. Et personne chez Google ne regardait dans la direction de l'IA, du moins sérieusement. Oui, 12 ans plus tôt, les fondateurs de Google, Larry Page et Sergey Brin, ont annoncé publiquement que l'IA allait transformer l'entreprise. Page a déclaré au magazine Online en mai 2000: «Le moteur de recherche parfait est intelligent. Il doit comprendre votre demande, comprendre tous les documents, et c'est clairement un travail pour AI. » Mais, malgré des promesses très médiatisées, l'apprentissage automatique (MO) pendant des décennies a donné des résultats médiocres chez Google et dans d'autres sociétés.



Cependant, à ce moment, de puissantes forces émergeaient sur les serveurs de Google. Un peu plus d'un an, Dean, Andrew Eun et leurs collègues ont créé un réseau informatique massif, dont les connexions simulaient le cerveau humain. L'équipe a réuni 16 000 processeurs dans 1 000 ordinateurs, qui, ensemble, avaient un milliard de connexions. C'était un système informatique sans précédent, bien qu'il soit encore loin derrière le cerveau humain, avec ses 100 billions de connexions.

Pour tester le traitement des données de ce réseau neuronal massif, les ingénieurs ont lancé une expérience d'une simplicité trompeuse. Pendant trois jours consécutifs, ils ont nourri la voiture avec un régime de millions d'images aléatoires de vidéos YouTube - un service d'hébergement vidéo acheté par Google en 2006. Ils ne lui ont donné aucune instruction et voulaient voir ce qu'elle en ferait. Ils ont vu que le cerveau de l'ordinateur qui traitait YouTube n'était pas si différent de celui de l'homme. Dans un coin éloigné de la mémoire de l'ordinateur, Dean et ses collègues ont découvert une image floue et générée spontanément d'un objet que l'ordinateur avait rencontré pendant 72 heures: des chats.

C'était un apprentissage automatique autonome.

Lorsque Pichai a vu pour la première fois comment l'intelligence émergeait sur les serveurs de Google, il a senti comment sa perception du monde évoluait, il a ressenti une certaine intuition. «Cette chose devait croître en échelle et peut-être nous montrer comment fonctionne l'univers», dit-il. «Ce sera la chose la plus importante sur laquelle nous, l'humanité, travaillerons.»

L'avènement de l'IA sur Google rappelle le chemin parcouru par des milliards de personnes vers l'avenir numérique; et peu de gens comprennent vraiment ce chemin, mais en même temps, nous ne pouvons pas le désactiver. Et pour la plupart, Google le domine. Peu d'autres sociétés (sans parler des gouvernements) veulent ou peuvent faire avancer efficacement la pensée informatique. Google travaille sur plus de produits que toute autre entreprise technologique de la planète (avec un milliard d'utilisateurs): Android, Chrome, Drive, Gmail, Google Play Store, Maps, Photos, Search et YouTube. À moins que vous ne viviez en Chine et que vous n'ayez accès à Internet, certains des projets Google complètent certainement votre cerveau.

Peu de temps après que Pichai a pris ses fonctions de PDG en 2015, il a décidé de faire de Google une entreprise avec l'IA au premier plan. Elle avait déjà plusieurs unités axées sur la recherche en IA, dont Google Brain et DeepMind (ce dernier a été acheté en 2014), et Pichai s'est concentrée sur la transformation de toutes ces valeurs intellectuelles liées à l'intelligence en produits nouveaux et améliorés. Lancé en mai 2018, Smart Compose pour Gmail propose déjà 2 milliards de caractères par semaine pour les réponses aux e-mails. Google Translate peut recréer votre voix et parler une langue que vous ne connaissez pas. Duplex, un assistant personnel, peut prendre rendez-vous et réserver des tables par téléphone en utilisant une voix si semblable à celle d'un humain que de nombreux interlocuteurs ne soupçonnaient même pas qu'il s'agissait d'un robot. Ce dernier soulève de graves problèmes éthiques et suscite des plaintes du public. L'entreprise affirme qu'elle informe toujours les consommateurs que l'appel provient de Google.



La portée de l'IA de Google s'étend bien au-delà des services de l'entreprise. Les développeurs tiers - les start-ups et les grandes entreprises - utilisent déjà des outils d'IA pour tout, de la formation de satellites intelligents au suivi des changements à la surface de la Terre ou au déracinement d'un langage offensant sur Twitter (enfin, ils essaient). Google AI est utilisé sur des millions d'appareils, et ce n'est que le début. Google est sur le point de réaliser ce qu'on appelle " supériorité quantique ." Une nouvelle génération d'ordinateurs sera capable de casser des équations complexes des millions de fois plus rapidement que les équations ordinaires. Nous sommes au bord d'une ère informatique cosmique.

Lorsqu'elle est utilisée avec de bonnes intentions, l'IA peut libérer le potentiel en aidant la société. Il peut trouver des remèdes contre des maladies mortelles (les directeurs de Google disent que leurs machines intelligentes ont montré la capacité de détecter le cancer du poumon cinq ans plus tôt que les médecins), nourrir les affamés et même fixer le climat. Un article publié dans la revue scientifique de l'Université Cornell, auteur de plusieurs chercheurs de pointe en IA (dont certains travaillent pour Google) a identifié plusieurs façons dont l'apprentissage automatique peut être utilisé pour lutter contre le changement climatique, de l'accélération du développement d'outils pour utiliser l'énergie solaire à optimisation radicale de la consommation d'énergie.

Utilisé au détriment, avec l'aide de l'IA, il sera possible d'armer des tyrans, de fouler aux pieds les droits de l'homme, de détruire la démocratie, les libertés et la vie privée. L'American Civil Liberties Union a publié en juin un rapport intitulé «L'aube de la surveillance robotique», qui avertissait de la façon dont des millions de caméras de sécurité (y compris celles vendues par Google) déjà installées aux États-Unis pouvaient être utilisées pour la surveillance du gouvernement via l'IA pour les citoyens et pour les gérer. Cela se produit déjà dans certaines régions de Chine. Le même mois, une action en justice a été déposée auprès de la justice, accusant Google d'utiliser l'IA dans les hôpitaux pour violation de la vie privée des patients.

Chaque percée majeure dans l'histoire de l'humanité a été utilisée à la fois pour le bien et pour le mal. La typographie a permis de diffuser «Common Sense» comme une œuvre de Thomas Payne [ brochure en soutien aux séparatistes américains qui cherchaient à se séparer de la Grande-Bretagne / env. perev. ], et le manifeste du fascisme Mein Kampf ["Ma lutte"] d'Adolf Hitler. Cependant, avec l'avènement de l'IA, ce problème a une nouvelle dimension: la presse à imprimer ne choisit pas quoi imprimer. L'IA, ayant atteint son plein potentiel, fera exactement cela.

Il est temps de poser des questions. "Réfléchissez aux réflexions que vous aimeriez mettre dans la tête des personnes qui ont inventé le feu, déclenché la révolution industrielle ou développé le développement de l'énergie atomique", explique Greg Brockman, co-fondateur d'OpenAI, une startup IA polyvalente qui a reçu 1 milliard de dollars de Microsoft en juillet. .

Les partis politiques de gauche et de droite disent que Google est trop grand pour être divisé. Une entreprise fragmentée s'engagera-t-elle dans la démocratisation de l'IA? Ou, comme l'ont averti les dirigeants de l'entreprise, le championnat dans ce domaine passera au gouvernement chinois, qui a annoncé son intention de saisir la paume? Le président Xi Jinping a alloué plus de 150 milliards de dollars pour devenir le leader mondial de l'IA d'ici 2030.

À l'intérieur de Google, les factions en guerre se battent pour l'avenir de l'IA. Des milliers d'employés se sont rebellés contre les dirigeants, essayant d'arrêter l'utilisation de la technologie qu'ils ont développée à des fins d'espionnage et à des fins militaires. La façon dont Google décidera de développer et d'appliquer l'IA déterminera probablement en fin de compte si cette technologie va aider l'humanité ou nuire. «Lorsque ces systèmes sont développés, ils peuvent être déployés dans le monde entier», explique Raid Hoffman, co-fondateur et vice-président de Linkedin, membre du conseil d'administration de l'Institut d'intelligence artificielle à orientation humaine de l'Université de Stanford. «Cela signifie que tout ce que ses créateurs font de bien ou de mal affectera nos vies à grande échelle.»



«Au tout début, le réseau neuronal n'est pas formé», explique Jeff Dean, une belle soirée de printemps à Mountain View, en Californie. Il se tient sous un palmier à côté de l'amphithéâtre Shoreline, où Google organise une fête pour marquer l'ouverture du salon annuel des technologies d'E / S.

Lors de cet événement, Google révèle ses plans aux développeurs et au reste du monde. Dean, portant un polo rose et gris, un jean, des baskets et un sac à dos, est l'un des principaux orateurs. "C'est comme rencontrer Bono " , souffle l'un des programmeurs coréens, se précipitant vers Dean pour prendre un selfie avec lui après l'un de ses discours plus tôt dans la journée. "Jeff est un dieu", me dit une autre personne, presque surprise de ne pas savoir. Sur Google, Dean est souvent comparé à Chuck Norris, un héros militant connu pour posséder du kung-fu et capable de faire face à de nombreux ennemis à la fois.

"Oh, ça a l'air bien, et je suis seul", dit Dean avec un sourire tandis que le serveur s'arrête à côté de lui, tenant un plateau de puddings végétariens au tapioca. Appuyé contre un arbre, il parle des réseaux de neurones comme Laird Hamilton pourrait décrire le surf à Teahupoo . Ses yeux s'illuminent et ses mains font des gestes rapides. «Ce sont les couches du réseau neuronal», dit-il, en se cramponnant à l'arbre et en utilisant le tronc gris pour expliquer les connexions entre les neurones du cerveau de l'ordinateur. Il regarde attentivement l'arbre, comme s'il voyait quelque chose de caché à l'intérieur.

L'année dernière, Pichai a nommé Dean à la tête de Google AI, c'est-à-dire responsable de ce que l'entreprise va construire et dans quoi investir. Il méritait ce rôle, en particulier, en élargissant l'expérience avec le réseau de neurones YouTube à une nouvelle plate-forme, enseignant aux machines à penser à grande échelle. Le système a commencé avec le projet interne DistBelief, que de nombreuses équipes, dont Android, Maps et YouTube, ont commencé à utiliser pour rendre leurs produits plus intelligents.

Mais à l'été 2014, alors que DistBelief grandissait au sein de Google, Dean a commencé à remarquer ses défauts. Il n'était pas adapté aux avancées technologiques telles que l'importance croissante des GPU (puces informatiques pour le traitement graphique) ou la conversion de la parole en un ensemble de données complexe. En outre, DistBelief n'était pas destiné à ouvrir du code, ce qui a limité sa croissance. Il a donc pris une décision audacieuse: créer une nouvelle version ouverte à tous. En novembre 2015, Pichai a présenté l'héritier de DistBelief, TensorFlow - ce serait l'une de ses plus grandes annonces en tant que PDG.

L'importance d'ouvrir TensorFlow aux développeurs en dehors de Google ne peut pas être surestimée. «Les gens avaient hâte de le toucher», a déclaré Ian Brat, directeur de MO at Arm, l'une des plus grandes sociétés de puces informatiques au monde. Aujourd'hui, Twitter l'utilise pour créer des robots d'observation des conversations, classer les tweets et encourager les gens à passer plus de temps dans le flux. Airbus forme des satellites afin qu'ils puissent étudier presque toutes les parties de la surface de la Terre. Les étudiants de New Delhi ont adapté des appareils mobiles pour surveiller la qualité de l'air. Au printemps dernier, Google a publié les premières versions de TensorFlow 2.0, ce qui a rendu son IA encore plus accessible aux développeurs inexpérimentés. Le but ultime est de rendre la création d'applications d'IA aussi simple que le processus de création d'un site Web.

TensorFlow a déjà été téléchargé 41 millions de fois. Des millions d'appareils - voitures, drones, satellites, ordinateurs portables, téléphones - l'utilisent pour l'apprentissage, la réflexion, le raisonnement et la créativité. Le document interne de l'entreprise contient un graphique montrant l'utilisation de TensorFlow au sein de Google (et, par conséquent, le nombre de projets liés au machine learning): depuis 2015, les indicateurs ont augmenté de 5000%.

Les initiés technologiques soulignent que TensorFlow n'est peut-être pas seulement un cadeau pour les développeurs, mais un cheval de Troie. "Je crains qu'ils essaient de contrôler l'accès à l'IA", a déclaré un ancien employé de Google qui souhaitait garder l'anonymat, car son emploi actuel dépend de l'accès à la plate-forme Google. Aujourd'hui, TensorFlow n'a qu'un seul concurrent majeur, PyTorch de Facebook, populaire auprès des scientifiques. Cela donne à Google un contrôle important sur la couche d'IA principale. "Regardez ce que Google a fait avec Android", poursuit la même personne. L'année dernière, les régulateurs de l'UE ont infligé une amende de 5 milliards de dollars à la société pour avoir obligé les fabricants d'appareils électroniques à préinstaller les applications Google sur les appareils exécutant le système d'exploitation mobile de Google. Google a déposé un recours, mais les entreprises sont menacées d'enquêtes supplémentaires sur son comportement concurrentiel en Europe et en Inde.

Pour aider l'IA à se développer, Google a créé une demande de nouveaux outils et produits que l'entreprise peut vendre. Un exemple est le Tensor Processing Units (TPU), des circuits intégrés spécialement conçus pour accélérer les applications utilisant des TF. Si les développeurs ont besoin de plus de puissance de calcul pour les applications avec TF - et cela se produit généralement - ils peuvent payer à Google le temps et le lieu d'utilisation de ces puces fonctionnant dans les centres de données Google.

Le succès de TF a convaincu les sceptiques des dirigeants de Google. «Il était clair pour tout le monde que l'IA ne fonctionnerait pas», se souvient Sergey Brin dans une interview au Forum économique mondial 2017. «Les gens ont essayé de faire quelque chose avec lui, ont essayé d'utiliser des réseaux de neurones, et rien n'a fonctionné.» Même lorsque Dean et l'équipe ont réussi, Bryn était catégorique. «Jeff Dean est venu périodiquement vers moi et m'a dit:« Regardez, l'ordinateur a attiré un chat », et j'ai dit:« D'accord, c'est très bien, Jeff », a-t-il déclaré. Mais il a également dû admettre que l'IA était "la percée la plus importante de l'informatique de toute ma vie".



La 4e étape de l'amphithéâtre Shorline peut accueillir 526 personnes et tous les sièges sont maintenant occupés. Il y a un deuxième jour d'E / S, et Jen Gennai, responsable de l'innovation responsable chez Google, anime un atelier intitulé «Rédaction d'un script pour une IA et un MO honnêtes et éthiques». Elle raconte à la foule: «Nous avons identifié quatre zones interdites, des technologies que nous ne développerons pas. Nous ne créerons ni ne déploierons d'armes. Nous ne déploierons pas non plus de technologies qui, à notre avis, violent les droits humains internationaux. » La société promet également de s'abstenir de technologies qui causent des «dommages fondamentaux» et de «collecter ou utiliser des informations à des fins de surveillance, en violation des normes internationalement acceptées». Elle et deux autres directeurs de Google expliquent comment la société intègre désormais les principes de l'intelligence artificielle dans tous les produits en cours de développement, et que Google a un plan complet pour tout, depuis le biais de déracinement des algorithmes jusqu'à la prévision des conséquences imprévues de l'utilisation de l'intelligence artificielle.

Après le rapport, les développeurs de diverses sociétés se réunissent en petit groupe et expriment leur mécontentement. "Il me semble que nous n'en avons pas reçu assez", partage l'un des deux, employé d'une grande entreprise internationale qui utilise TF et travaille souvent en collaboration avec Google. "Ils nous disent:" Ne vous inquiétez pas, nous avons tout sous contrôle. " Mais nous savons tous que ce n'est pas le cas. »

Et les développeurs ont toutes les raisons d'être sceptiques. Les paroles des représentants de Google divergent assez souvent de leurs actes, mais dans le cas de l'IA, les enjeux sont plus élevés. Gizmodo a été le premier à signaler le contrat du Pentagone de Google pour développer la technologie de drone de guerre Project Maven en mars 2018. Après trois mois de protestations de Google, Pichai a annoncé que le contrat ne serait pas renouvelé. Peu de temps après, un autre projet est devenu connu: Dragonfly, un moteur de recherche pour les utilisateurs chinois, était censé être aussi puissant et omniprésent que celui utilisé dans 94% des requêtes de recherche aux États-Unis, tout en étant d'accord avec la censure chinoise interdisant la livraison de contenu pour certains. articles relatifs aux droits de l'homme, à la démocratie, à la liberté d'expression et à la désobéissance civile. Dragonfly a également dû lier les numéros de téléphone des utilisateurs à leurs requêtes de recherche. Les employés se sont rebellés pendant encore quatre mois et les militants ont tenté d'inclure les actionnaires d'Amnesty International et de Google dans ce combat. En décembre dernier, Pichai a déclaré au Congrès américain que Google n'avait plus l'intention de lancer un moteur de recherche en Chine.



Au cours de ces bouleversements, l'un des programmeurs de Google a posé une question directe à Dean: l'entreprise continuera-t-elle à travailler avec des «régimes tyranniques»?"Nous devons savoir: où va la ligne?" - Ce programmeur me dit, en utilisant les mêmes mots que l'entreprise elle-même. «J'ai insisté pour répondre à la question: quelles choses refuseriez-vous essentiellement de faire? Mais il n'a jamais reçu d'explications claires. » En signe de protestation, cet employé a démissionné.

Le sympathique Dean devient sérieux si vous lui posez une question sur le côté obscur de l'IA. «Les gens de mon organisation ont sincèrement parlé de ce que nous devrions faire pour le ministère de la Défense», dit-il, se référant à son travail sur le projet Maven. Dean décrit une liste d'applications d'IA que Google fait, mais sur lesquelles il ne voudrait pas travailler. «L'un des projets est le travail sur les armes autonomes. C'est quelque chose sur lequel je ne veux pas travailler, et je ne veux rien avoir à voir avec ça », dit-il, me regardant droit dans les yeux.

Dans le processus d'élaboration de l'histoire de l'incohérence du projet Maven, The Intercept et The New York Times ont publié des courriels, qui ont montré que les représentants de l'entreprise se préoccupaient de la façon dont le public pouvait percevoir l'ampleur des ambitions de Google pour l'IA. "Je ne sais pas ce qui se passera si les journaux obtiennent des informations sur la production secrète d'armes IA dans les entrailles de Google", a écrit Fei Fei Lee, consultant scientifique en chef du projet Google Cloud, l'un des auteurs des "principes de l'IA sur Google", écrit dans l'un d'eux. - Évitez toute mention ou inclusion dans la discussion ET À TOUT PRIX. Transformer l'IA en arme est l'un des sujets les plus sensibles dans le domaine de l'IA, sinon le plus sensible. Ceci est un petit morceau des médias essayant de trouver un moyen de nuire à l'entreprise. " Elle a également suggéré de lancer quelques histoires de relations publiques positives sur la démocratisation de l'IA par l'entreprise,et ce qu'on appelle «l'IA humaniste». «Je défendrais très soigneusement ces images positives», a-t-elle écrit.

Les manifestations liées à l'IA ont conduit à une crise prolongée des relations publiques. En mars, la société a annoncé la création d'un conseil consultatif externe sur les technologies avancées, connu sous le nom de «Conseil d'éthique de l'IA» - mais cela n'a pas duré une semaine après que des milliers d'employés de Google se soient opposés à sa création. Le conseil d'administration comprenait le directeur de la société de drones et président de la Heritage Foundation, un défenseur de droite qui a publiquement fait des déclarations transphobes et a nié le changement climatique.

Pichai lui-même est intervenu plusieurs fois dans une telle discussion. En novembre dernier, dans une lettre aux employés, il a reconnu les erreurs de Google. "Nous comprenons que nous n'avons pas toujours tout fait correctement dans le passé, et nous le regrettons sincèrement", a-t-il déclaré. "Nous devons évidemment changer quelque chose." Cependant, la controverse sur l'utilisation de la technologie par Google continue de se déchirer. En août, l'organisation du personnel de Googlers for Human Rights [googlers for human rights] a lancé une pétition publique pour plus de 800 signatures, exigeant que l'entreprise ne fournisse pas de technologie aux douanes, à la police de l'immigration, aux gardes-frontières et à l'unité de réinstallation des réfugiés du département américain de la Santé.



Lorsque j'ai interrogé Pichai sur la façon dont l'approche de l'IA sur Google affecte son propre travail, il l'a liée à une autre priorité de l'entreprise: réduire les inquiétudes quant à ce que Google fait avec les données utilisateur qu'il reçoit. "J'exige toujours que les équipes travaillant avec l'IA - bien que cela semble quelque peu contre-intuitif - augmentent la confidentialité, car je crois que l'IA nous donne une chance de le faire." Le printemps dernier, il a expliqué comment Google utilise le MO pour protéger les données stockées sur les smartphones contre les accès tiers.

Il dit que les craintes associées à l'IA sont grandement exagérées. «Il est important que les gens comprennent que vous n’avez pas encore besoin de vous inquiéter - nous en sommes aux toutes premières étapes et nous avons le temps», explique-t-il. Pichai espère que Google pourra calmer tous les soucis associés à l'IA en vantant ses vertus. Dans le cadre de l'initiative AI for the Common Good, Google utilise MoD pour résoudre, comme le dit la société, «les plus grands problèmes sociaux, humanitaires et environnementaux de l'humanité». Les équipes utilisent l'IA pour prévoir les inondationssuivre la migration des baleines, diagnostiquer le cancer, détecter l'exploitation minière illégale et la déforestation. Sur I / O, un jeune entrepreneur ougandais invité par la société a décrit comment il utilise TensorFlow pour suivre la migration des pelles à feuilles de maïs en Afrique - des insectes qui provoquent la faim sur tout le continent. Lancé en 2018, le AI Impact Challenge a offert des subventions de 25 millions de dollars aux organisations caritatives et aux startups utilisant l'IA pour des tâches telles que la conservation des forêts et la lutte contre les incendies.

La société a également en cours de différends sur l'IA a refusé deux initiatives contradictoires. En décembre dernier, Google a abandonné le logiciel de reconnaissance faciale, bien que son rival Amazon continue de développer sa version du programme, malgré les protestations de ses employés et les allégations de discrimination raciale par la police. Une source informée a déclaré qu'en raison de cette décision, Google pourrait perdre des profits de plusieurs milliards. La société a également, pour des raisons éthiques, abandonné le projet de 10 milliards de dollars pour fournir un service cloud au Pentagone. Amazon et Microsoft continuent de le faire.

Lorsqu'on lui a demandé comment Google décide si un projet est utile ou nuisible à la société, Pichai cite un «projet de lecture labiale». Une équipe d'ingénieurs a eu l'idée d'utiliser l'IA pour lire les lèvres sur les enregistrements des caméras. Ils voulaient donner aux sourds la possibilité de communiquer. Cependant, quelqu'un s'inquiétait des conséquences imprévues de ce projet. Des individus sans scrupules pourraient-ils l'utiliser pour la surveillance par des caméras de rue? Les ingénieurs ont testé le projet sur des caméras de rue, des caméras de sécurité et d'autres caméras accessibles au public, et ont déterminé que l'IA nécessiterait des enregistrements de plus grande taille. Google a publié le travail, convaincu qu'il pouvait être utilisé en toute sécurité.



Santa Barbara, en Californie, a une journée ensoleillée, mais un thermomètre dans un laboratoire Google montre 10 microkelvins - 1/100 degrés au-dessus du zéro absolu. «C'est l'un des endroits les plus froids de l'univers», me dit Eric Lucero, chercheur au laboratoire. "À l'intérieur de cette chose", dit-il, pointant du doigt un récipient en métal brillant, "il fait plus froid que dans l'espace." Le conteneur est de taille et de forme similaires à un baril de carburant, en cuivre et pavé d'or véritable. Des fils épais en alliage de niobium-titane, semblables à des tentacules, sortent d'en haut, le long desquels les signaux de commande et les données des capteurs sont transférés vers l'ordinateur et vice versa.

Ce baril contient l'une des machines les plus fragiles et potentiellement les plus puissantes de la Terre: un ordinateur quantique. Si tout se passe comme prévu, il va sérieusement pomper les capacités de l'IA, à tel point que cela nous fera reconsidérer notre compréhension de l'Univers et la place de l'humanité en lui.

Les rêves d'ordinateurs quantiques existent depuis les années 1980, lorsque Richard Feynman, l'un des participants au projet de Manhattan, qui a créé la bombe atomique, a commencé à avancer des théories sur l'autonomisation des ordinateurs grâce à l'utilisation de la mécanique quantique, qui a été utilisée pour créer la physique nucléaire. Nos ordinateurs fonctionnent aujourd'hui avec des bits d'information, et la valeur d'un bit peut être un ou zéro; ils doivent calculer les résultats, les probabilités et les équations étape par étape, excluant séquentiellement une option après l'autre, avant d'arriver à une solution. Les ordinateurs quantiques fonctionnent avec des qubits, dans lesquels les zéros et les uns peuvent exister simultanément. Cela permet aux qubits de traiter certaines informations beaucoup plus rapidement. Combien plus rapide? Un exemple largement connu:un ordinateur de 300 qubits pourrait effectuer simultanément autant de calculs qu'il y a d'atomes dans l'univers.

«Mais ce sont les mêmes qubits», explique Lucero, m'invitant à regarder à travers un microscope dans lequel je vois des croix floues. Il y en a 22 au total. Ceci est une petite fête. Ailleurs dans le laboratoire Google, 72 qubits ont été créés. Jusqu'à présent, ils ne vivent que 20 μs dans des conditions plus froides que l'espace.

Pour créer un ordinateur quantique de valeur commerciale, une entreprise devra créer suffisamment de qubits et les maintenir stables et sans erreur suffisamment longtemps pour que de sérieuses percées informatiques se produisent. D'autres laboratoires rivalisent avec eux, mais Google a réuni certains des meilleurs experts mondiaux pour trouver des moyens de créer un environnement dans lequel les qubits pourraient vivre et prospérer. Et il progresse vers cet objectif plus rapidement que quiconque aurait pu s'y attendre: en décembre, Google a comparé son meilleur processeur quantique à un ordinateur portable ordinaire, et l'ordinateur portable a gagné. Quelques semaines plus tard, après quelques changements dans le processeur, il a encore battu l'ordinateur portable, mais a pris du retard sur l'ordinateur de bureau. En février, un ordinateur quantique a dépassé tous les ordinateurs du laboratoire.

Hartmut Niven, chef de l'équipe quantique chez Google, a présenté les réalisations du laboratoire lors du symposium quantique du printemps en mai et a décrit l'augmentation de la puissance de calcul par un double exposant - une équation incroyable qui ressemble à ceci:

2 2 1 , 2 2 2 , 2 2 3 , 2 2 4

Dans les cercles informatiques, un tel taux de croissance de la puissance de calcul des ordinateurs quantiques est connu sous le nom de loi de Niven, nous rappelant la loi de Moore, selon laquelle le développement des ordinateurs classiques se caractérise par un doublement du nombre de transistors qui placent sur une zone de puce donnée, environ une fois tous les 18 mois.

Maintenant, l'équipe Google a fixé son objectif sur une étape importante, l'excellence quantique. Il faudra encore de nombreuses années pour que leur ordinateur quantique atteigne son plein potentiel. Mais en laboratoire, on sent cette anticipation du moment. «Il y a des tâches que l'humanité ne peut pas résoudre sans ordinateur quantique», explique Lucero, debout à côté de la machine qui devra le faire. "Cette idée de responsabiliser l'humanité suscite l'enthousiasme."

Il y a un bourdonnement rythmé dans la pièce, avec lequel les qubits éclosent. Qu'est-ce que cela signifie pour l'humanité lorsque les ordinateurs peuvent penser et compter exponentiellement plus rapidement? Cette nouvelle science peut peut-être expliquer les mystères les plus profonds de l'Univers - la matière noire, les trous noirs, le cerveau humain. «C'est le moment de« Bonjour, le monde! »», Déclare Lucero, se référant à l'apparition en 1984 du Macintosh, l'ordinateur qui a lancé une nouvelle ère pour toute une génération de programmeurs. Et tandis que Google ouvre cette porte à un nouvel espace, nous devons tous nous préparer à ce qui nous attend de l'autre côté.

Source: https://habr.com/ru/post/fr474850/


All Articles