Les meilleurs esprits de la planète: l'intelligence artificielle peut détruire l'humanité
Dans la liste des scénarios apocalyptiques, les robots tueurs intelligents qui peuvent effacer l'humanité de la surface de la terre sont assez élevés. Et dans la communauté scientifique, de plus en plus d'experts en intelligence artificielle (IA) conviennent que les gens finiront par créer une intelligence artificielle qui deviendra plus intelligente qu'eux. Un moment appelé singularité peut créer une utopie dans laquelle les robots fonctionnent et les gens se détendent au paradis. Ou cela conduira à la destruction de toutes les formes de vie que l'IA considère comme des concurrents pour le contrôle de la planète - c'est-à-dire nous. Stephen Hawkinga toujours parlé de la dernière option et l'a récemment rappelé dans une interview à la BBC. Nous vous suggérons de vous familiariser avec certains commentaires de Hawking et d'autres génies qui croient que l' IA peut devenir le coucher de soleil de l'humanité .Stephen Hawking

Le développement de l'intelligence artificielle à part entière peut présager le début de la fin pour les gens. Cela commencera de lui-même et changera à un rythme effréné. Les personnes limitées par une lente évolution biologique ne pourront pas résister et seront évincées », explique un physicien de renommée mondiale. Hawking a longtemps présenté sa vision apocalyptique.
En réponse à un film sur la singularité avec «Excellence» de Johnny Depp, le scientifique a critiqué les chercheurs pour ne rien faire pour protéger l'humanité de l'IA: «Si la civilisation extraterrestre supérieure nous envoyait le message« Nous arriverons dans quelques siècles », pourrions-nous répondu, disent-ils, eh bien, appelez-nous, quand vous arrivez ici, les portes seront ouvertes? Probablement pas, mais c'est à peu près ce qui se passe avec l'IA. »Elon Musk
Connu pour ses entreprises technologiques de pointe comme Tesla et SpaceX , Musk n'est pas un fan de l'intelligence artificielle . Lors d'une conférence au MIT en octobre, il a comparé l'utilisation de l'IA à «appeler le démon» et l'a qualifiée de menace la plus grande et la plus réelle pour l'humanité. Il a également publié un tweet selon lequel l'IA pourrait être plus dangereuse que les armes nucléaires. Musk a appelé à la création d'une réglementation nationale et internationale du développement de l'IA.Nick Bostrom
Le philosophe suédois est le directeur de l'Institute for Future Humanity de l'Université d'Oxford, où il a passé beaucoup de temps à réfléchir au résultat potentiel d'une singularité. Dans son nouveau livre Superintellig, Bostrom écrit que dès que les machines dépassent l'intelligence humaine, elles peuvent se mobiliser et décider de détruire des personnes à une vitesse fulgurante en utilisant une variété de stratégies (développement discret d'un agent pathogène, leurre à leurs côtés ou simplement en raison de la force brute). Le monde du futur deviendra de plus en plus technologique et complexe, mais nous ne le verrons pas. «Une société du miracle économique et de la pente technologique dans laquelle personne ne sera. Disneyland sans enfants. "James barrat
Barrat est un écrivain et documentaire qui, dans son nouveau livre, Our Last Invention: Artificial Intelligence and the End of the Human Age, présente des entretiens avec des philosophes et des chercheurs en IA. Il croit que les créatures intelligentes, par leur nature, collectent des ressources et effectuent des tâches, ce qui, sans aucun doute, fera des concurrents une IA et des personnes super intelligentes - les principaux consommateurs de ressources sur la planète. Cela signifie que même une machine qui était juste censée jouer aux échecs ou exécuter des fonctions simples peut penser à autre chose si elle est suffisamment intelligente. «Sans instructions de restriction soigneusement réfléchies, un système réfléchi conscient de soi et qui s'améliore pour atteindre ses objectifs progressera de la même manière que nous ne pouvons même pas penser par nous-mêmes», écrit l'auteur du livre.Aile Varnor
En tant que mathématicien et écrivain de science-fiction, Vindg a inventé le terme «singularité» pour décrire le point de basculement auquel les machines deviendront plus intelligentes que les humains. Il voit la singularité comme irréversible, même si les règles internationales contrôlent le développement de l'intelligence artificielle. "Les avantages de l'automatisation sur les concurrents - économiques, militaires, voire culturels - sont si attrayants que les lois interdisant de telles choses ne font que stimuler leur utilisation par d'autres", écrit l'auteur dans son essai de 1999. Mais que se passe-t-il lorsque nous atteignons une singularité? "La destruction physique de la race humaine sera la seule option."Source: https://habr.com/ru/post/fr381157/
All Articles