Comment Elon Musk et Y Combinator prévoient de mettre fin à la tyrannie des ordinateurs
Ils vont financer une nouvelle organisation, OpenAI , pour créer les types les plus avancés d'intelligence artificielle - puis donner les résultats à la société.
Comme si le domaine du développement de l'IA manquait de concurrence - des géants tels que Google, Apple, Facebook, Microsoft et même des constructeurs automobiles comme Toyota tentent déjà d'embaucher des chercheurs - il peut accueillir un nouveau joueur, mais pas un simple. Il s'agit d'une organisation à but non lucratif OpenAI, dont l' annonce a eu lieu en décembre 2015 , et qui s'engage à donner tous les résultats des travaux au domaine public, y compris les brevets - afin d'éviter une dystopie dans laquelle les ordinateurs sont supérieurs dans l'intelligence des gens.Le financement sera fourni par un groupe de célébrités technologiques, notamment des personnes comme Elon Musk, Reid Hoffman, Peter Thiel, Jessica Livingston et Amazon Web Services. Ensemble, ils prévoient de dépenser un milliard de dollars à long terme. Musk et Sam Altman, directeur de Y Combinator, dont l'équipe de recherche contribuera également (et Altman participera également), dirigeront le projet.Il n'est pas surprenant de voir dans cette série le Masque, connu pour critiquer l'IA. Mais qu'en est-il de Y Combinator? L'incubateur de startups, ouvert il y a 10 ans en tant que projet d'été, a financé six startups. L'incubateur a payé leurs salaires aux fondateurs et a donné de précieux conseils sur le développement des affaires. Depuis lors, YC a aidé près d'un millier d'entreprises, dont Dropbox, Airbnb et Stripe, et a récemment ouvert un département de recherche. Au cours des deux dernières années, il a été géré par Altman, dont la société Loopt a commencé en 2005, et en 2012 a été vendu pour 43,2 millions de dollars. Bien que YC et Altman aient fondé OpenAI et qu'Altman soit également le directeur de cette entreprise, elle est toujours indépendante.En substance, OpenAI est un laboratoire de recherche conçu pour contrer les grandes entreprises afin qu'elles ne puissent pas gagner trop de bénéfices en recevant l'IA à leur disposition. Le projet travaillera également contre les gouvernements qui peuvent utiliser l'IA pour renforcer leur pouvoir et opprimer les citoyens. Cela semble trop idéaliste, mais l'équipe a déjà embauché des gens sérieux, y compris l'ancien technologue en chef de Stripe, Greg Brockman (il sera chef de la technologie chez OpenAI), et le chercheur de classe mondiale Ilya Sackweaver, qui a travaillé pour Google et appartenait à un célèbre groupe de jeunes scientifiques, a étudié sous la direction du pionnier des réseaux de neurones Jeff Hinton à Toronto. Il sera le directeur du département de recherche. D'autres postes vacants ont été occupés par des jeunes talentueux dont le curriculum vitae comprenait des travaux dans des projets de recherche, Facebook AI et DeepMind.L'entreprise compte également des conseillers vedettes, dont Alan Kay, l'un des pionniers de l'informatique.Les responsables du projet m'ont parlé de lui et de ses aspirations. Au début, j'ai parlé avec Altman, puis de nouveau avec lui en compagnie de Musk et Brockman. Je les ai combinés en un seul article.Comment tout a commencé?
Sam Altman: Nous avons lancé l'équipe de recherche YC il y a un mois et demi, mais les pensées sur l'IA me visitent depuis longtemps, tout comme Ilona. Si vous pensez aux choses les plus importantes pour l'avenir du monde entier, alors, à mon avis, une bonne IA sera parmi les plus importantes d'entre elles. C'est pourquoi nous créons OpenAI. L'organisation tentera de développer des IA conviviales. Et comme il s'agit d'un organisme sans but lucratif, le monde entier en sera propriétaire.Elon Musk: Comme vous le savez, pendant un certain temps, j'avais peur de l'IA. Et j'ai beaucoup parlé avec Sam et Reid [Hoffman], Peter Thiel et d'autres. Et nous avons pensé: "N'y a-t-il aucun moyen de s'assurer, ou du moins d'augmenter la probabilité que l'IA nous apporte des avantages?" À la suite des conversations, nous avons décidé que l'organisation d'un OBNL serait une bonne idée. Et nous nous concentrerons très sérieusement sur la sécurité.D'un point de vue philosophique, il y a un élément important: nous voulons une IA généralisée. Il y a deux opinions - avons-nous besoin de beaucoup d'IA, ou seulement de quelques IA? Nous pensons que beaucoup est mieux. Et c'est bien qu'ils puissent être représentés comme une extension de la volonté de l'homme.La volonté de l'homme?
IM: l'IA comme une extension de vous-même, c'est-à-dire qu'une personne vit en symbiose avec l'IA, au lieu que l'IA soit une sorte d'intelligence centrale. Que pensez-vous, disons, des applications sur Internet - vous avez le courrier électronique, les réseaux sociaux, les applications mobiles. Ils font, par essence, de vous un surhomme, et vous ne les considérez pas comme quelque chose de séparé, vous les considérez comme une extension de vous-même. Par conséquent, dans la mesure où nous pouvons mener l'IA dans cette direction, nous voulons le faire. Et nous avons trouvé de nombreux ingénieurs et chercheurs en IA partageant les mêmes idées qui pensent la même chose.SA: Nous pensons qu'il est préférable que l'IA se développe vers l'augmentation des capacités individuelles et l'amélioration des personnes, et qu'elle soit accessible à tous, et ne soit pas la seule entité qui soit un million de fois plus puissante qu'une personne. Puisque notre entreprise est à but non lucratif, nous ne nous concentrerons pas sur l'enrichissement des actionnaires, mais sur ce qui est le mieux pour l'avenir de l'humanité.Mais Google ne partage-t-il pas le développement avec le public, comme il vient de le faire avec l'apprentissage automatique?
SA: Ils partagent de nombreux développements. Mais au fil du temps, à mesure que nous nous rapprochons de plus en plus du dépassement de l'intelligence humaine, la question se pose de savoir ce que Google décide de partager.Et votre projet ne dépassera pas l'intelligence humaine?
SA: Je pense que oui, mais ce sera un projet open source que n'importe qui, pas seulement, disons, Google, pourra utiliser. Tout ce que le groupe développera sera accessible à tous. Si vous prenez ce travail et l'adaptez à vos besoins, vous n'avez pas à partager les résultats. Mais tout ce que nous faisons sera accessible à tous.Et si je suis le Dr Evil, et que je l'utilise à mes propres fins? Tu ne m'aides pas avec ça?
IM: C'est une merveilleuse question, et nous en avons beaucoup discuté.SA: Il y a beaucoup de réflexions sur ce sujet. Tout comme les gens protègent l'humanité des médecins maléfiques par le fait qu'ils sont nombreux et qu'il n'y a qu'un seul médecin, nous pensons que notre système fonctionnera, dans lequel de nombreuses IA fonctionneront contre de rares méchants. Ce schéma est meilleur que celui dans lequel il existe une IA, plus puissante que toute autre chose. Si cette seule chose puissante s'envole des bobines, ou que le Dr Evil en prend le contrôle, et qu'il n'a rien à opposer, ce sera un gros problème.Allez-vous contrôler ce qui découle d'OpenAI?
SA: Nous voulons construire un système de contrôle au fil du temps. Jusqu'à présent, ce ne sera que moi et Ilon. Le développement d'une véritable IA est encore très loin. Je pense que nous aurons suffisamment de temps pour créer une fonction de contrôle.IM: Je vais passer du temps avec l'équipe de projet au bureau environ une fois par semaine ou deux semaines, pour en savoir plus sur les mises à jour, exprimer mon opinion et comprendre jusqu'où l'IA a progressé et à quel point nous sommes arrivés à quelque chose de dangereux. Personnellement, je serai très sérieux au sujet de la sécurité. Je suis très inquiet à ce sujet. Et si nous découvrons des moments risqués, nous le rendrons certainement public.Avez-vous des exemples d'IA maléfique?
SA: Il y a beaucoup de science-fiction, dont la mise en œuvre est encore ancienne - Terminator et autres. Je ne m'inquiète pas de l'occurrence de telles choses de sitôt. Mais quel genre de problème devra faire face - bien que ce ne soit pas une IA maléfique - il en va de même avec l'automatisation générale et la disparition d'emplois. Un autre exemple de l'IA maléfique est lorsque les gens parlent de programmes intelligents qui cassent les ordinateurs mieux que les humains. Et cela se produit déjà.Commencez-vous à travailler avec une sorte de système prêt à l'emploi?
SA: Non. L'étude commencera comme dans n'importe quel laboratoire, et pendant très longtemps, elle ressemblera à un laboratoire. Jusqu'à présent, personne ne sait comment le construire. Nous avons déjà huit chercheurs et plusieurs autres rejoindront le projet dans quelques mois. Jusqu'à présent, ils travailleront dans le bureau de YC et, à mesure qu'ils grandiront, ils déménageront dans le leur. Ils joueront avec des idées et écriront des logiciels pour comprendre s'ils peuvent développer l'état actuel de la création d'IA.Les gens de l'extérieur participeront-ils à cela?
SA: Bien sûr. L'un des avantages d'un programme ouvert est que les laboratoires peuvent collaborer avec n'importe qui car ils peuvent partager librement des informations. Il est très difficile de travailler avec les employés de Google, car ils ont des tonnes de restrictions de confidentialité.Sam, si OpenAI travaillera au bureau de YC, vos startups auront-elles accès aux résultats de leur travail?
SA: Si OpenAI est développé en une technologie intéressante et que tout le monde peut l'utiliser gratuitement, ce sera un plus pour toute entreprise technologique. Mais pas plus que ça. Cependant, nous demanderons à nos startups de fournir autant d'informations qu'elles le jugent bon pour OpenAI. Et Ilon réfléchira également à ce que Tesla et SpaceX peuvent partager.Et quelles seront, par exemple, les informations qui pourront être partagées?
SA: Beaucoup de choses. Par exemple, toutes les données avec Reddit peuvent être un excellent ensemble d'entraînement. Les vidéos de formation Tesla Robot Mobile seront également très précieuses. D'énormes quantités de données sont très importantes. Les gens deviennent plus intelligents en lisant des livres. Mais une personne ne devient plus intelligente qu'en lisant le livre lui-même. Et si l'une des machines Tesla, par exemple, découvre quelque chose sur la nouvelle situation, alors toutes les machines Tesla en bénéficieront automatiquement.IM: En général, nous n'avons pas un grand nombre de plans spécifiques, car l'entreprise n'en est qu'à ses balbutiements. Elle est en état d'embryon. Mais Tesla a vraiment beaucoup de données du monde réel, grâce aux millions de kilomètres accumulés chaque jour par notre flotte. Tesla peut avoir plus de données du monde réel que toute autre entreprise dans le monde.
L'IA nécessite une puissance de calcul importante. De quelle infrastructure disposerez-vous?
CA: Nous travaillons en partenariat avec Amazon Web Services. Ils fournissent un projet de très grande capacité.Et le projet recevra un milliard?
IM: On peut dire qu'il y en aura encore plus. Nous ne donnons pas de devis exacts, mais des revenus importants proviendront de toutes ces personnes.Quelle heure est-il?
SA: Pour le temps requis pour créer un système. Nous économiserons, mais le projet, apparemment, est conçu pour des décennies et nécessitera beaucoup de personnel et d'équipement.Et le profit n'est pas obligatoire pour vous?
IM: Exactement. Cet investissement n'est pas à but lucratif. Il est possible que des revenus apparaissent à l'avenir, tout comme le reçoit l'Institut de recherche à but non lucratif de Stanford. À l'avenir, des revenus peuvent apparaître, mais il n'y aura pas de profits qui enrichiront les copropriétaires, il n'y aura pas de stocks et d'autres choses. Nous le pensons.Ilon, vous avez déjà investi dans la société DeepMind AI, si je comprends bien, pour les mêmes raisons - pour suivre le développement de l'IA. Et puis Google les a achetés. Est-ce la deuxième tentative?
IM: Je ne suis pas réellement un investisseur au sens habituel. Je ne fais pas d'investissements dans le but de réaliser des bénéfices financiers. J'investis dans des entreprises que j'aide à créer, et je peux aider un ami, soit pour un objectif auquel je crois, soit pour ce qui m'excite. Je ne me diversifie pas en dehors de mon entreprise au sens matériel. Mais mes "investissements" dans DeepMind ont été faits pour une meilleure compréhension de l'IA et de sa supervision, si vous voulez.Allez-vous rivaliser avec les meilleurs scientifiques qui peuvent travailler chez DeepMind, Facebook ou Microsoft?
SA: L'embauche se passe bien jusqu'à présent. Les chercheurs sont très satisfaits de la liberté, de l'ouverture et de la possibilité de partager leur travail, qui n'est pas dans un laboratoire de production régulier. Nous avons réuni une équipe initiale d'une telle qualité que les autres se joindront uniquement pour le travail conjoint avec eux. Et je pense aussi que notre mission, notre vision et notre structure sont très appréciées des gens.De combien de chercheurs aurez-vous besoin? Des centaines?
SA: Peut-être.Revenons à l'idée que l'utilisation générale de l'IA peut nous sauver des conséquences négatives. Y a-t-il un risque que le rendre plus accessible augmente votre danger potentiel?
SA: Je voudrais compter toutes ces heures que j'ai passées à discuter de cela avec Ilon et d'autres. Et toujours à 100%, je ne suis pas sûr. Vous ne pouvez pas être sûr à 100%? Mais essayez différentes options de développement. La sécurité par le secret dans le cas de la technologie a rarement fonctionné. Si quelqu'un l'obtient seul, comment décider qui a Google, le gouvernement américain, le gouvernement chinois, ISIS [organisation interdite en Russie - environ trad.], Ou qui? Il existe de nombreux méchants dans le monde, mais l'humanité est en plein essor. Et que se passe-t-il si l'un d'eux s'avère un milliard de fois plus puissant que l'autre?IM: Je pense que la meilleure défense contre une mauvaise utilisation de l'IA sera d'armer autant de personnes que possible. Si tout le monde a des capacités d'IA, alors il n'y aura pas un si petit groupe de personnes qui auront à leur disposition des super pouvoirs.Ilon, vous êtes administrateur de deux sociétés et siège au conseil d'administration de la troisième. Il semble que vous n'ayez pas beaucoup de temps libre à consacrer à son nouveau projet.
IM: C'est vrai. Mais la sécurité de l'IA me préoccupe depuis trop longtemps et je pense que, pour ma tranquillité d'esprit, je vais conclure un accord avec moi-même. Source: https://habr.com/ru/post/fr396621/
All Articles