
Faut-il avoir peur de l'intelligence artificielle (IA)? Pour moi, c'est une question simple, avec une réponse encore plus simple: non. Mais tout le monde n'est pas d'accord avec moi - beaucoup de gens, y compris Stephen Hawking, ont exprimé leur inquiétude que l'émergence de puissants systèmes d'IA pourrait signifier la fin de l'humanité.
Votre point de vue sur la question de savoir si l'IA capturera le monde ou non, évidemment, dépendra de la capacité de l'IA à développer un comportement raisonnable supérieur au comportement humain - quelque chose appelé «superintelligence». Examinons la probabilité de ce processus et pourquoi il y a une telle inquiétude quant à l'avenir de l'IA.
Les gens ont généralement peur de ce qu’ils ne comprennent pas. La peur est souvent rendue responsable du racisme, de l'homophobie et d'autres sources de discrimination. Il n'est pas surprenant qu'elle s'applique aux nouvelles technologies - elles sont souvent entourées de certaines énigmes. Certaines avancées technologiques semblent totalement irréalistes, dépassent les attentes et, dans certains cas, les capacités humaines.
Il n'y a pas d'esprit dans la voiture
Détruisons le mystère des technologies d'IA les plus populaires, connues sous le nom de «machine learning». Ils permettent à la machine d'apprendre à exécuter une tâche sans avoir à programmer des instructions spécifiques. Cela peut sembler effrayant, mais en fait, cela se résume à des statistiques assez ennuyeuses.
Une machine, c'est-à-dire un programme, ou plus précisément un algorithme, est conçue pour révéler les relations disponibles dans les données d'entrée. Il existe de nombreuses méthodes différentes pour obtenir cet effet. Par exemple, nous pouvons fournir à la machine des images de lettres manuscrites et lui demander de reconnaître la séquence de ces lettres. Nous lui avons déjà donné des réponses possibles - il ne peut s'agir que de lettres de l'alphabet. Tout d'abord, la machine nomme la lettre au hasard, et nous la corrigeons, en donnant la bonne réponse. Nous avons également programmé la machine pour l'auto-réglage, et la prochaine fois qu'ils lui donneront la lettre, il est plus probable qu'elle nous donne la bonne réponse. En conséquence, au fil du temps, la machine améliore son efficacité et "apprend" à reconnaître l'alphabet.
En fait, nous avons programmé la machine pour utiliser les relations communes dans les données afin d'atteindre un objectif spécifique. Par exemple, toutes les variantes de la lettre «a» semblent structurellement similaires, mais différentes de «b», dont l'algorithme peut tirer parti. Fait intéressant, après la phase de formation, la machine peut appliquer les connaissances acquises à de nouveaux exemples de lettres, par exemple, écrites par une personne dont l'écriture manuscrite n'avait pas été vue auparavant.
Nous donnons des réponses à l'IACependant, les gens savent déjà lire. Un exemple peut-être plus intéressant serait le joueur artificiel du projet go, Google Deepmind, qui a battu tous les joueurs humains. De toute évidence, il n'étudie pas comme les autres - il joue le jeu avec lui-même tant de fois qu'aucune personne ne jouera toute sa vie. Il était programmé pour gagner et a expliqué que la victoire dépend de ses actions. Il a également appris les règles du jeu. En jouant encore et encore au même jeu, il peut découvrir le meilleur coup dans chaque situation, inventant des coups que les gens n'ont jamais faits auparavant.
Bambins vs robots
Est-ce que cela rend une IA qui joue plus intelligente que les humains? Certainement pas. L'IA est très spécialisée, conçue pour un certain type de tâche et n'a pas la polyvalence des gens. Au fil des ans, les gens commencent à comprendre le monde d'une manière qu'aucune IA n'a réussi, et dans un avenir proche, probablement, ne sera pas en mesure de le faire.
Le fait que l'IA soit appelée "intelligence" est dû au fait qu'elle est capable d'apprendre. Mais à l'entraînement, il n'atteint pas les gens. Les petits sont capables d'apprendre simplement en regardant quelqu'un d'autre résoudre le problème. L'IA nécessite des voitures de données et de nombreuses tentatives pour réussir dans des tâches très spécifiques, et il est très difficile de généraliser ses données pour des tâches trop différentes de celles sur lesquelles il s'est entraîné. Par conséquent, si les gens développent une intelligence étonnante assez rapidement au cours des premières années de leur vie, les concepts clés de l'apprentissage automatique ne sont pas très différents de ce qu'ils étaient il y a dix ou vingt ans.
Le cerveau d'un jeune enfant est incroyableLes succès de l'IA moderne sont moins associés aux percées technologiques et dépendent davantage de la simple quantité de données et de la puissance de calcul. Il est important de noter que même une quantité infinie de données ne donnera pas à l'intelligence humaine de l'IA - nous devons d'abord faire des progrès significatifs dans la création de technologies d '"intelligence généralisée" - et nous n'avons même pas réussi à résoudre ce problème.
En général, juste du fait que l'IA est capable d'apprendre, il ne s'ensuit pas qu'elle va soudainement étudier tous les aspects de l'intelligence humaine et nous dépasser. Il n'y a même pas de définition simple de ce qu'est l'intelligence humaine, et nous n'avons pas une compréhension claire de la façon dont elle apparaît dans le cerveau. Mais même si nous pouvions le comprendre, puis créer une IA qui deviendrait plus intelligente, il ne s'ensuit pas du tout qu'elle aurait plus de succès.
Personnellement, je suis plus préoccupé par la façon dont les gens utilisent l'IA. Les algorithmes d'apprentissage automatique sont souvent considérés comme des boîtes noires, et peu de tentatives sont faites pour comprendre les détails de la solution trouvée par l'algorithme. C'est un aspect important qui est souvent ignoré alors que nous sommes plus obsédés par l'efficacité et moins par la compréhension. Il est important de comprendre les solutions ouvertes par ces systèmes, car nous pourrions alors évaluer si ce sont les bonnes décisions et si nous voulons les appliquer.
Si, par exemple, nous entraînons notre système de manière incorrecte, nous pouvons obtenir une machine qui a appris les relations, qui n'existent généralement pas. Supposons que nous voulons fabriquer une machine qui évalue les étudiants potentiels pour réussir en ingénierie. L'idée est probablement mauvaise, mais allons jusqu'à un exemple jusqu'à sa fin. Traditionnellement, les hommes dominent dans ce domaine, ce qui signifie que les exemples de formation sont probablement tirés d'élèves de sexe masculin. Si nous ne sommes pas convaincus de l'équilibre des données d'entraînement, la machine peut conclure que seuls les hommes peuvent être ingénieurs, et il est incorrect de l'appliquer aux décisions futures.
L'apprentissage automatique et l'IA sont des outils. Ils peuvent être utilisés à tort ou à raison, comme tout le reste. Nous devons nous préoccuper de la façon dont ils sont utilisés, pas des méthodes elles-mêmes. La cupidité et la stupidité d'une personne me dérange beaucoup plus que l'intelligence artificielle.