Elon Musk finance des groupes de recherche sur l'intelligence artificielle est sûre
Affiche promotionnelle pour le film Terminator: GenesisLa semaine dernière, l'organisation privée à but non lucratif Future of Life Institute (FLI) à Boston, aux États-Unis, a annoncé qu'elle avait reçu un important financement de 10 millions de dollars. La majeure partie du don de 7 millions de dollars a été faite par Elon Musk, le reste de l'argent a été transféré par une autre organisation à but non lucratif, l' Open Philanthropy Project. La principale activité de FLI est de trouver des groupes de recherche spécialisés qui travaillent dans le domaine de l'intelligence artificielle et de leur financement. L'un des objectifs fixés par les scientifiques qui reçoivent des subventions de FLI est de développer un «esprit informatique» sans danger pour l'humanité, qui ne conduirait pas à une catastrophe mondiale à l'avenir.Des millions de dollars du chef de SpaceX et du groupe Open Philanthropy Project seront répartis entre eux par 37 groupes de recherche qui travaillent dans des universités bien connues et ont fait leurs preuves. Listes BusinessInsidercertains de ces projets scientifiques. Par exemple, un groupe conjoint de scientifiques des universités de Berkeley et d'Oakford est engagé dans la création d'algorithmes formés aux préférences humaines, qui à l'avenir aideraient l'intelligence artificielle à se comporter «comme un être humain». Les employés de Duke University (USA, Caroline du Nord) ont un objectif plus ambitieux: ils veulent développer un système d'intelligence artificielle qui pourrait prendre des décisions basées sur la «moralité humaine». À l'Université de Denver, ils travaillent actuellement sur des moyens de contrer Skynet, face à la perte éventuelle de contrôle des armes robotiques.Fin novembre de l'année dernière, Elon Musk a marquédans une discussion publique sur Internet sur la sécurité de l'intelligence artificielle. À en juger par les mots du chef de SpaceX, il se méfie de la capacité des ordinateurs à penser et prédit l'émergence de «quelque chose de très dangereux d'ici 5 à 10 ans», ce qui signifie que l'IA est un danger. Pour une raison inconnue, le commentaire de Mask a disparu quelques minutes après sa publication, mais d'autres utilisateurs d'Edge.org ont réussi à l'enregistrer en tant que capture d'écran. Le porte-parole de Mask a promis à l'avenir de présenter l'opinion officielle de son patron sur cette question, mais cela, apparemment, ne s'est pas encore produit.Il convient de noter que Musk adhère en fait à l'opinion du célèbre scientifique britannique Stephen Hawking, qui a parlé plus tôtcomme suit: «Toutes ces réalisations [dans le développement de l'intelligence artificielle] s'effacent dans le contexte de ce qui nous attend dans les prochaines décennies. La création réussie de l'intelligence artificielle sera le plus grand événement de l'histoire de l'humanité. Malheureusement, ce sera peut-être le dernier si nous n'apprenons pas à éviter les risques. » Hawking estime qu'il y a trop peu de travaux scientifiques sérieux consacrés à l'étude de la sécurité de l'IA, et trop peu d'organisations scientifiques pourraient le faire. Fait intéressant, Hawking a mentionné FLI parmi ces organisations. Il n'existe pas de lien fiable entre Stephen Hawking et Elon Musk.Il existe cependant un autre point de vue de la part des scientifiques, pas avec un nom aussi important que le professeur Hawking. Ils croient que la question de la maîtrise de l'intelligence artificielle est plus un sujet de préoccupation pour les films de science-fiction que pour les préoccupations graves. Lisez leurs contre-arguments ici .Source: https://habr.com/ru/post/fr381497/
All Articles