Le chef de Google estime que la crainte de l'IA est "totalement justifiée"



Sundar Pichai, PDG de Google, l'une des plus grandes entreprises travaillant dans le domaine de l'intelligence artificielle, a déclaré dans une interview cette semaine que les craintes au sujet de l'utilisation nocive de la technologie étaient "complètement justifiées" - cependant, nous devons faire confiance à l'industrie de la technologie en ce qu'elle sera en mesure de toute responsabilité de réglementer son utilisation.

Dans une conversation avec le Washington Post, Pichai a déclaré que les nouveaux outils d'IA - le fondement d'innovations telles que les robots et les algorithmes de reconnaissance des maladies - obligent les entreprises à définir un cadre éthique et à examiner attentivement comment cette technologie peut être utilisée à mauvais escient.

«Je pense que les entreprises technologiques devraient comprendre que vous ne pouvez pas le créer d'abord, puis le réparer», a déclaré Pichai. "Je pense que ça ne marchera pas."

Les géants de la technologie doivent veiller à ce que l'IA «avec ses objectifs» ne nuise pas à l'humanité, a déclaré Pichai. Il a dit qu'il était optimiste quant aux avantages à long terme de la technologie, mais son évaluation des risques potentiels de l'IA est d'accord avec certains des critiques technologiques qui prétendent que la technologie pourrait être utilisée pour introduire une surveillance invasive, fabriquer des armes mortelles et propager la désinformation. D'autres dirigeants d'entreprises technologiques, comme le fondateur de SpaceX et Tesla, Elon Musk, ont fait des prévisions plus audacieuses selon lesquelles l'IA pourrait être "beaucoup plus dangereuse que les bombes nucléaires".

La technologie d'intelligence artificielle de Google est au cœur de tout, d'un projet d'entreprise chinois controversé aux théories haineuses et du complot sur YouTube, une division de l'entreprise. Pichai a promis de résoudre ce problème l'année prochaine. La façon dont Google décide d'utiliser l'IA a également provoqué de récents troubles parmi les employés de l'entreprise.

L'appel de Pichai à l'autorégulation fait suite à son discours au Congrès , où les législateurs ont menacé de limiter l'utilisation de la technologie en réponse à son utilisation abusive, y compris en tant qu'intermédiaire pour la diffusion de discours de haine et de discours de haine. Sa reconnaissance de l'existence de menaces possibles de la part de l'IA était d'une importance cruciale, car auparavant, ce programmeur, né en Inde, a souvent vanté comment les conséquences de l'introduction de systèmes automatisés capables d'apprendre et de prendre des décisions sans supervision humaine changeraient le monde.

Pichai a déclaré dans une interview que les législateurs du monde entier essayaient toujours de réaliser l'effet de l'IA et le besoin potentiel de sa réglementation par l'État. «Parfois, cela me dérange que les gens sous-estiment l'ampleur des changements qui peuvent se produire à court et à moyen terme, et je pense que ces problèmes sont en fait extrêmement complexes», a-t-il déclaré. D'autres géants de la technologie, dont Microsoft, ont récemment adopté la réglementation de l'IA, à la fois des entreprises qui créent cette technologie et des gouvernements qui supervisent son utilisation.

Cependant, avec une manipulation appropriée, l'IA peut fournir "des avantages énormes", a expliqué Pichai, notamment en aidant les médecins à reconnaître les maladies oculaires et d'autres maladies en scannant automatiquement les dossiers médicaux. «Réglementer la technologie à un stade précoce de développement est difficile, mais je pense que les entreprises devraient s'engager dans l'autorégulation», a-t-il déclaré. - Par conséquent, nous essayons si activement d'exprimer l'ensemble des principes de l'IA. Nous n'avons peut-être pas tout fait correctement, mais nous avons pensé qu'il était important d'entamer ce dialogue. »

Pichai, qui a rejoint Google en 2004 et est devenu PDG, a qualifié l'IA de "l'une des choses les plus importantes sur lesquelles l'humanité travaille" en janvier et a déclaré qu'elle pourrait être "plus importante" pour l'humanité que "l'électricité ou le feu. " Cependant, la course à l'amélioration des machines qui peuvent fonctionner seules a donné lieu à des craintes connues que l'esprit d'entreprise de la Silicon Valley - «faites-le vite, faites des dégâts», comme Facebook l'a décrit une fois - pourrait conduire à une technologie puissante et imparfaite éliminant les emplois et nuisant au travail. aux gens.

Chez Google lui-même, les tentatives de création d'IA sont également controversées: la société a fait face à une vague de critiques cette année à propos des travaux sur un contrat pour le ministère de la Défense, en vertu duquel l'IA, capable de marquer automatiquement les voitures, les bâtiments et d'autres objets, sera utilisée dans les drones militaires. Certains employés ont même démissionné, invoquant la raison pour cela les bénéfices de l'entreprise dans les "affaires militaires".

Pichai, en réponse aux questions sur cette réaction des employés, a déclaré au journal que ces travailleurs étaient «une partie importante de notre culture. Ils ont la possibilité de dire leur mot, et c'est important pour l'entreprise, c'est ce que nous apprécions », a-t-il déclaré.

En juin, après l'annonce, où la société a déclaré qu'elle ne renouvellerait pas ce contrat, Pichai a révélé un ensemble de principes éthiques lors de la création de l'IA, qui comprenait une interdiction de développer des systèmes qui pourraient être utilisés pour nuire, violer les droits de l'homme ou aider à surveiller les gens. " en violation des normes internationalement acceptées. »

La société a été critiquée pour avoir publié des outils d'IA à usage général qui peuvent être utilisés au détriment. Sorti en 2015, le progiciel TensorFlow, le système d'apprentissage automatique de Google, a contribué à accélérer le développement massif de l'IA, mais a été utilisé pour automatiser la création de fausses vidéos, qui ont ensuite été utilisées pour désinformer et harceler.

Google et Pichai ont personnellement défendu la version, faisant valoir que limiter la diffusion de la technologie signifierait que le public ne la contrôlerait pas assez soigneusement, et que les développeurs et les chercheurs ne pourraient pas améliorer ses capacités afin qu'elle lui profite.

"Je crois qu'avec le temps, en développant avec succès la technologie, il est important de discuter des questions éthiques et des biais cognitifs, et de la développer en même temps", a déclaré Pichai dans une interview.

"Dans un sens, nous voulons développer une plate-forme éthique, pour attirer des scientifiques qui ne sont pas du domaine de l'informatique à un stade précoce de développement", a-t-il déclaré. «Il est nécessaire d'impliquer plus activement l'humanité, car cette technologie affectera l'humanité.»

Pichai a comparé les premières tentatives de définition des paramètres de l'IA avec les efforts de la communauté scientifique pour limiter la recherche génétique aux premiers stades de ce domaine. «De nombreux biologistes ont commencé à faire des distinctions qui indiquent où la technologie devrait se développer», a-t-il déclaré. «La communauté universitaire a adopté une autoréglementation active, ce qui, il me semble, était extrêmement important.»

Le directeur de Google a déclaré qu'une telle approche serait absolument nécessaire dans le développement d'armes autonomes - et ce problème tourmente les directeurs et les employés des entreprises technologiques. En juillet, des milliers de travailleurs de l'industrie représentant des entreprises telles que Google ont signé une pétition pour interdire les outils d'IA qui pourraient être programmés pour tuer.

Pichai a déclaré avoir trouvé les théories du complot détestées sur YouTube décrites dans l' article du WP "dégoûtantes" et a clairement indiqué que l'entreprise travaillerait à améliorer les systèmes qui reconnaissent le contenu problématique. Dans ces vidéos, dont le nombre total de vues a dépassé plusieurs millions de fois depuis leur apparition en avril, ils ont discuté des accusations sans fondement de Hillary Clinton et de son assistante de longue date, Hume Abedin, selon lesquelles ils auraient attaqué la jeune fille, la tuée et bu son sang.

Pichai a déclaré qu'il n'avait pas lui-même vu ces vidéos auxquelles on lui avait posé des questions au Congrès et avait refusé de signaler si ces failles YouTube étaient le résultat de restrictions sur les systèmes qui reconnaissent le contenu inapproprié ou de règles pour évaluer la nécessité de supprimer des vidéos. Mais il a ajouté qu '"en 2019, vous verrez plus de travail dans ce domaine de notre côté."

Pichai a également décrit les tentatives de Google pour développer un nouveau produit dans le segment d'Internet sous contrôle chinois comme préliminaire, et n'a pas précisé quel type de produit il pourrait être et quand il pourrait arriver sur le marché, le cas échéant.

Il est appelé le "Projet Libellule" et a déclenché une forte réaction des employés et des militants des droits de l'homme prévenant que Google pourrait aider le gouvernement à surveiller les citoyens qui ne tolèrent pas les dissidents politiques. En réponse à une question sur la possibilité que Google crée un produit qui permette aux responsables chinois de savoir quand une personne recherche des mots sensibles, tels que " massacre de la place Tiananmen ", Pichai a déclaré qu'il était trop tôt pour porter de tels jugements.

"Ce sont toutes des considérations hypothétiques", a déclaré Pichai. "Nous sommes terriblement loin de cet état de choses."

Source: https://habr.com/ru/post/fr433236/


All Articles