Encore une fois sur l'intelligence artificielle


Source


Les montagnes se tenaient énormément au seuil
Je tombe au pied de ma joue.
Et cette marguerite n'a pas encore grandi
Sur quoi je me dis.


Robert Christmas


L'intelligence artificielle (AI) ou l'intelligence artificielle (AI) est une technologie à croissance rapide qui mérite d'être évoquée encore plus souvent qu'elle ne l'est aujourd'hui. Il se développe rapidement avec des technologies complémentaires telles que les réseaux de neurones et l'apprentissage automatique (auxquels l'Internet des objets (IoT) s'est récemment connecté) et, selon les rumeurs, il va même conquérir le monde entier. Et avec notre aide directe. Ils parlent et écrivent constamment sur elle, écrivent et parlent. L'IA est déjà utilisée dans la modélisation complexe, dans les jeux, dans le diagnostic médical, dans les moteurs de recherche, dans la logistique, dans les systèmes militaires et bien plus encore, promettant dans un avenir prévisible de couvrir et éventuellement de «pelleter» en profondeur tout le paysage post-industriel. Et il a même commencé à écrire des œuvres littéraires comme celles-ci: «Il était une fois un cheval d'or avec une selle d'or et une belle fleur violette dans ses cheveux. Le cheval a apporté une fleur au village, où la princesse a commencé à danser en pensant à la beauté et à la beauté du cheval. »


Que puis-je dire? "Des chevaux, ils le sont." Oui, et les princesses se trouvent, comme vous le savez, plus dans les villages ... Cependant, l'IA a la capacité d'apprendre, contrairement à l'inoubliable Lapis Trubetskoy d'Ilf et Petrov qui me vient à l'esprit des lignes ci-dessus. "La première crêpe est grumeleuse" ne se produit pas seulement dans la littérature, par conséquent, tous les autres fans de l'IA devraient également s'y préparer.


Et pourtant, l'IA est un mantra que les technologues, les universitaires, les journalistes et les capital-risqueurs répètent de temps en temps pour attirer l'attention à la fois sur les problèmes de l'humanité et sur soi-même et ses proches. Certains experts face à des représentants bien connus de la science et des affaires, comme Stephen Hawking, Bill Gates et Elon Musk, se sont récemment inquiétés de l'avenir de l'IA, car le développement ultérieur des technologies de l'IA peut ouvrir la «boîte de Pandore» lorsque l'IA devient la forme dominante de «vie» sur notre planète. D'autres experts sont préoccupés par le développement de normes éthiques afin de freiner le pouvoir destructeur de l'IA (cependant, l'IA n'a encore rien détruit), la dirigeant au service du bien commun de la civilisation.


Mais le Pentagone, par exemple, a déjà décidé que l'IA est un domaine clé dans lequel il est nécessaire de faire un maximum d'efforts pour empêcher la Chine et la Russie de prendre de l'avance. À cet égard, aux États-Unis, sous la direction du Secrétaire à la défense, un centre d'IA approprié est en cours de création.


Actuellement, une partie importante de ce que l'on appelle l'IA dans la sphère publique n'est que ce que l'on appelle le «machine learning» (ML - Machine Learning). En particulier, avec l'aide de la technologie Big Data ML, il permet à un programme informatique d'apprendre de toutes les données collectées et d'émettre des prédictions / prévisions avec une précision croissante car ils sont formés pour une utilisation dans la prise de décision automatique (ou sous contrôle humain). En général, ML est un domaine algorithmique qui combine des idées issues de la statistique, de l'informatique et de nombreuses autres disciplines pour développer des algorithmes qui vous permettent de faire ce qui précède.


Soit dit en passant, ML n'est pas né aujourd'hui. Son rôle dans l'industrie était généralement compris au début des années 1990 et, à la fin du 20e siècle, des entreprises prometteuses comme Amazon avaient déjà utilisé le ML dans l'ensemble de leurs activités, résolvant des problèmes critiques de détection de fraude, de prévision des chaînes d'approvisionnement ou de formulation de recommandations. aux consommateurs. Comme les volumes de données et les ressources informatiques des ordinateurs ont augmenté rapidement au cours des deux prochaines décennies, il est devenu clair que ML gérerait non seulement Amazon, mais presque toutes les entreprises dans lesquelles des solutions pourraient être liées à des données à grande échelle. Alors que les spécialistes du domaine des algorithmes de ML collaboraient avec des spécialistes du domaine des bases de données et des systèmes distribués pour créer des systèmes de ML évolutifs et fiables, les frontières sociales et environnementales des systèmes résultants se sont élargies. Aujourd'hui, c'est cette fusion d'idées et de tendances technologiques qui s'appelle l'IA.


D'un autre côté, historiquement, le terme IA est apparu à la fin des années 1950, de sorte qu'à la montée des idées apparues concernant le développement de la cybernétique (pour la plupart là où il n'était pas considéré comme de la «pseudoscience»), de plonger dans l'âme si enivrante d'un scientifique mettre en œuvre dans les logiciels et le matériel une entité dont l'intelligence est proche de l'intelligence humaine. La révolution semblait si proche, et l'essence rationnelle artificielle aurait dû apparaître à l'un de nous, sinon physiquement, du moins mentalement. Le nouveau terme a été immédiatement repris par les auteurs de science-fiction, mais dans la vie réelle, les créateurs des «nouvelles essences» ne se sont pas vraiment rapprochés des succès du Seigneur ou simplement de la nature (comme cela est courant avec les athées).


À cette époque, le terme IA était utilisé à un «niveau élevé», se rapprochant de la capacité des gens à «raisonner» et «penser». Selon les experts, malgré le fait que près de 70 ans se soient écoulés depuis lors, toutes ces discussions et idées de haut niveau passées restent insaisissables et n'ont reçu aucune implémentation logicielle et matérielle. Contrairement aux attentes enthousiastes du passé, toute l'IA «réelle» d'aujourd'hui s'est principalement formée dans les domaines de la technologie liés à la reconnaissance de formes de bas niveau et au contrôle de mouvement. Et en partie dans le domaine des statistiques par rapport aux disciplines axées sur la recherche de modèles de données et la création de prévisions logiquement liées. Autrement dit, la révolution tant attendue de l'IA ne s'est pas encore produite.


Cependant, contrairement au cerveau humain, au-dessus duquel notre intellect existe, l'IA ne dépend pas des atomes de carbone, de la vie des protéines et de toutes sortes de restrictions évolutives. Grâce à cela, il est capable d'apprendre et de s'améliorer en permanence et, finalement, il permettra à l'humanité de résoudre de nombreux problèmes urgents - du changement climatique au cancer. Cette opinion est partagée notamment par Max Tegmark, physicien au MTI et co-fondateur du soi-disant «Institut pour l'avenir de l'humanité». Dans une interview avec The Verge, Tegmark a présenté sa vision de trois formats de vie évolutifs (sur notre planète).


La vie 1.0 est caractéristique des bactéries, que Tegmark appelle «de petits atomes réunis dans un algorithme d'autorégulation simple». Les bactéries ne sont pas capables d'apprendre quoi que ce soit de nouveau au cours de leur vie, et les mécanismes de leur travail sont extrêmement primitifs - elles ne peuvent se tourner que dans la direction où il y a plus de nourriture. À son tour, le développement de leur «logiciel» (les scientifiques modernes divisent désormais facilement tout ce qui existe en logiciel et matériel) n'est possible que dans le cadre de changements évolutifs.


La vie 2.0 s'incarne dans les gens. Et, malgré le fait qu'une personne a également une évolution rigide et limitée du corps - le «fer», elle a également un sérieux avantage sous la forme d'un esprit plus parfait - un «logiciel» qui lui permet d'apprendre par lui-même. Grâce à la capacité d'améliorer leur logiciel à leur propre discrétion, d'acquérir des connaissances et de ne pas attendre un développement évolutif, les gens ont commencé à dominer cette planète, à créer une civilisation et une culture modernes. Néanmoins, malgré tous les avantages, notre amélioration a une limite. C'est pourquoi, au fil du temps, la vie 2.0 sera remplacée par une durée de vie 3.0 moins limitée (compte tenu de ce qui précède, faire de telles déclarations serait quelque peu téméraire).


Life 3.0 se caractérise par le fait qu'il y a non seulement des limites évolutives, mais aussi biologiques. L'IA, contrairement aux formats précédents, pourra développer à la fois son logiciel et son matériel. Par exemple, installer plus de mémoire pour mémoriser un million de fois plus d'informations ou gagner plus de puissance de calcul (au fait, il serait intéressant de voir si Tegmark a un connecteur USB quelque part derrière l'oreille). Contrairement à Life 3.0, nous, satisfaits de Life 2.0, - bien que nous puissions maintenir notre propre rythme cardiaque avec des stimulateurs cardiaques ou faciliter la digestion avec une tablette - ne sommes pas en mesure d'apporter des changements fondamentaux dans notre corps. Eh bien, peut-être une petite correction avec l'aide de chirurgiens plasticiens ou l'implantation de puces. Nous n'avons pas la possibilité d'augmenter sérieusement notre croissance ou d'accélérer mille fois la réflexion dans notre propre cerveau. L'intelligence humaine travaille sur les connexions neuronales biologiques, et le volume de notre cerveau est limité pour qu'à la naissance la tête puisse passer par l'ouverture de naissance de la mère. L'IA n'est limitée par rien et peut être améliorée à l'infini, explique le scientifique.


Cependant, il semble que Tegmark ne prenne pas en compte les progrès de la conception génétique - l'heure est inégale, les gens apprennent encore à ajuster leur corps pour développer de longues jambes, des tentacules tenaces, augmenter l'ouverture de naissance ou ajouter de l'esprit à ceux qui manquent cruellement.


Tegmark note que de nombreuses personnes perçoivent aujourd'hui l'esprit comme une propriété mystérieuse des organismes biologiques. Cependant, selon lui, ces idées sont erronées. «Du point de vue d'un physicien, l'esprit n'est que le traitement de l'information qui est effectué par des particules élémentaires se déplaçant selon certaines lois physiques», dit-il. Les lois de la physique n'empêchent en aucun cas la création de machines bien supérieures à l'homme en intelligence (il serait bon de savoir plus précisément ce qu'est l'intelligence). De plus, souligne Tegmark, rien ne prouve que l'esprit dépende de la présence de matière organique:


«Je ne pense pas qu'il existe de sauce secrète dans laquelle des atomes de carbone et du sang doivent être présents. Je me suis demandé à plusieurs reprises quelle pourrait être la limite de l'intelligence du point de vue de la physique, et chaque fois je suis arrivé à la conclusion que si une telle limite existe, alors nous en sommes très, très loin. Nous ne pouvons même pas l'imaginer. Néanmoins, je suis sûr que c'est l'humanité qui inspirera à l'Univers ce qui deviendra plus tard la vie 3.0 - et cela, de mon point de vue, semble très romantique. "


En réponse, je veux ajouter non moins romantique - mais avons-nous été appelés avec notre IA avec toutes nos «fissures»? Quant aux "fissures". Si la vie 3.0 ne connaît pas les limites, alors ce serait bien de savoir lesquelles: dans la tromperie, dans l'indifférence, dans la bassesse? Et peut-être dans la capacité de tuer? Exactement les mêmes problèmes sont régulièrement confrontés à des représentants individuels de la race humaine, qui succombent encore et encore à la tentation.


«Nous sommes confrontés aux limites de nos esprits chaque fois que nous effectuons une recherche particulière. C'est pourquoi je pense que dès que nous réussirons à combiner notre propre esprit avec l'IA, nous aurons d'énormes opportunités pour résoudre presque tous les problèmes », explique Tegmark, et comme nous le savons, les gens ont de nombreux problèmes.
Eh bien. Pour ce faire, il n'est pas nécessaire, comme on dit, d'aller loin. Au cours des 20 dernières années, à la fois dans l'industrie et dans le monde universitaire, des progrès importants ont été accomplis dans la création de ce que l'on appelle «l'intelligence améliorée» ou IA (Intelligence Amplification). Dans ce cas, les calculs et les données sont utilisés pour créer des services qui complètent l'intelligence humaine et la créativité. Le moteur de recherche peut également être considéré comme un exemple d'IA (il augmente la mémoire humaine et les connaissances réelles), ainsi qu'une traduction naturelle de la langue (il augmente la capacité d'une personne à communiquer). La génération de sons et d'images sert de palette et d'amplificateur de créativité aux artistes. Bien que les services de ce type puissent inclure un raisonnement et des idées de haut niveau, ce n'est actuellement pas le cas. Fondamentalement, cela revient à effectuer diverses comparaisons d'ensembles de données avec des modèles ou des opérations numériques. Peut-être verrons-nous certains services cloud tels que l'InaaS (Intellect-as-a-Service) qui aident l'utilisateur à devenir plus sage dans différents domaines de connaissances, mais ce ne sera que le développement de moteurs de recherche, mais en aucun cas un remplacement de l'intelligence humaine.


Il existe également une chose «intelligente» comme «l'infrastructure intelligente» (II - Infrastructure intelligente), dans laquelle coexistent des réseaux informatiques, de données et d'objets physiques et qui commence à apparaître dans des domaines tels que les transports, la médecine, le commerce et la finance. Tout cela est d'une grande importance pour les individus et les communautés. Parfois, le concept II survient dans les conversations sur les choses sur Internet, mais cela se réfère généralement au simple problème d'obtenir des «choses» sur Internet, et non à résoudre un ensemble important de problèmes associés à ces «choses» afin d'analyser les flux de données et de découvrir leurs connexions avec des éléments externes. le monde et interagir avec les gens et d'autres «choses» à un niveau d'abstraction beaucoup plus élevé que de simples bits. En général, IA et II ne sont pas encore une «vraie» IA.


Et qu'est-ce qu'une «vraie» intelligence? Faut-il l'imiter dans le cadre de la création de l'IA? Bien sûr, l'intelligence humaine est le seul type d'intelligence que nous connaissons. Mais nous savons aussi qu'en fait, les gens ne connaissent pas très bien certains jugements: nous avons nos propres omissions, préjugés et limites. Il arrive que les gens commettent des erreurs. De plus, de manière critique, nous n'avons pas évolué pour répondre aux types de prise de décision à grande échelle auxquels les systèmes modernes sont confrontés avec le rôle de l'IA. Bien sûr, vous pouvez raisonnablement affirmer que le système d'IA imite non seulement l'intelligence humaine, mais le complète, le corrige, puis il évoluera également pour résoudre les problèmes arbitrairement importants auxquels l'humanité est confrontée. Mais, désolé, c'est déjà du domaine de la science-fiction. Et ces arguments spéculatifs qui ont alimenté la fiction pendant 70 ans ne devraient pas devenir la principale stratégie pour la formation de l'IA. Évidemment, IA et II continueront de se développer, résolvant leurs problèmes particuliers, mais sans prétendre devenir une «vraie» IA. Jusqu'à présent, nous sommes très loin au moins de la mise en place d'une IA "simulant l'humain".


De plus, le succès en IA et II n'est ni suffisant ni nécessaire pour résoudre des problèmes importants d'IA. Si nous nous tournons vers les véhicules sans pilote, alors pour la mise en œuvre d'une telle technologie, il sera nécessaire de résoudre un certain nombre de problèmes techniques qui peuvent avoir très peu de rapport avec les compétences humaines. Un système de transport intelligent (et c'est le système II) ressemble plus à un système de contrôle de la circulation aérienne existant qu'à une population de conducteurs de personnes faiblement couplés, auto-orientés et généralement inattentifs. Plus précisément, il sera beaucoup plus compliqué que le système actuel de contrôle du trafic aérien, au moins en termes d'utilisation d'énormes quantités de données et de modélisation statistique adaptative pour informer sur les décisions privées pour chaque manœuvre de chaque voiture.


Cependant, malgré l'attitude généralement optimiste quant à l'avenir de l'IA, les experts reconnaissent que l'IA comporte de graves risques. Je me souviens que Stephen Hawking et d'autres pensaient que l'IA serait soit le pire, soit le meilleur phénomène de l'histoire de l'humanité. De plus, lorsque les gens parlent de l'automatisation totale actuelle des emplois, ils oublient souvent qu'il est beaucoup plus important de regarder vers l'avenir pour comprendre ce qui va se passer ensuite.


A cette occasion, Tegmark a déclaré: «Le fait est qu'aujourd'hui nous sommes confrontés à des questions auxquelles nous devons répondre avant que la première superintelligence ne soit révélée. De plus, ces questions sont assez compliquées, nous pouvons peut-être y répondre au plus tôt 30 ans plus tard. Mais dès que nous les résolvons, nous pouvons nous protéger des menaces. " «Comment pouvons-nous garantir la fiabilité des futurs systèmes d'IA alors qu'aujourd'hui nos ordinateurs sont très faciles à casser? Comment faire en sorte que l'IA comprenne nos objectifs si elle devient plus intelligente que nous? Quels devraient être les objectifs de l'IA elle-même? L'intelligence artificielle pourra-t-elle accomplir les tâches élevées que de nombreux programmeurs américains espèrent aujourd'hui, ou l'IA pensera-t-elle soudainement comme un partisan d'un SI interdit dans la Fédération de Russie ou une personne du Moyen-Âge? Comment notre société va-t-elle changer après l'invention de l'IA? - Lorsque votre ordinateur se bloque, vous commencez à devenir nerveux parce que vous avez perdu une heure de travail. Mais imaginez que nous parlons de l'ordinateur de bord de l'avion à bord duquel vous volez, ou du système responsable de l'arsenal nucléaire aux États-Unis - c'est déjà bien pire. »


Mais qui, par exemple, doit répondre si l'IA ou le robot qui en est armé effectue une action qui a blessé les gens? Cette action peut être aléatoire, mais c'est l'une des nombreuses questions auxquelles le public est confronté au sujet de l'autonomie et de la responsabilité de l'IA, lorsque ses formes les plus avancées, par exemple, les voitures autonomes (peut-être les premiers robots auxquels nous apprenons à faire confiance), les drones ou même les outils de guerre, sont de plus en plus répandus. Les experts en IA et en droit essaient de comprendre cela, mais ils ne voient pas de réponse simple. En tout cas, la question reste juridiquement difficile. , , , , ?


, , . , «» . . . – , . , ? , , . - .


, , «» ( , ). , , , ., «» . , , , , , . , , . - .


, , ? , «» , . ( ), , , « » , . , . , «» , . , «» «» … « »? , , , , . . , . - - ?


Peut-être qu'un jour, une sorte de technologie sans fil et des services cloud permettront de donner des renseignements à n'importe qui. Et puis tout autour deviendra intelligent et éduqué. Seulement cela ne sera plus nécessaire pour personne. L'IA vous dira que votre train, camarades, est déjà parti. Que nous restera-t-il? - Eh bien, au moins une chanson:


J'ai rêvé des mers et des coraux.
J'ai rêvé de manger de la soupe aux tortues.
Je suis monté sur le bateau et le bateau
est sorti du journal d'hier ...


Basé sur des matériaux : radio.ru, The Verge, hightech.fm, vz.ru, anews.com, pcweek.ru, medium.com, Defense News


Alexander Golyshko, Ph.D., analyste de systèmes

Source: https://habr.com/ru/post/fr423567/


All Articles