Les développeurs OpenAI vont former l'IA avec Reddit


Le PDG de Nvidia, Jen-San Huang, montre DGX-1 à Ilon Mask, co-fondateur d'OpenAI OpenAI, une

organisation à but non lucratif open source engagée dans la recherche dans le domaine de l'intelligence artificielle, a reçu un supercalculateur DGX-1 de Nvidia. Les experts d'OpenAI travaillent actuellement sur une forme «faible» d'IA. Les scientifiques développent des systèmes capables de traiter une énorme quantité de données primaires, produisant un ensemble structuré d'informations. Cela nécessite des ordinateurs puissants et le DGX-1 est un complexe informatique très puissant. Nvidia affirme que le DGX-1 est basé sur une nouvelle génération de GPU qui offrent des vitesses de traitement des données comparables à celles des serveurs d'architecture 250 x86.

Les créateurs d'OpenAI sont Elon Musk et Sam Altman. Les principaux objectifs de l'organisation sont d'attirer des scientifiques travaillant dans le domaine de l'IA pour la collaboration. Les résultats de la recherche devraient être ouverts et accessibles à tous. Selon les fondateurs, tout cela contribuera à empêcher l'émergence d'une intelligence artificielle "maléfique". Musk a déclaré cette menace à plusieurs reprises.

DGX-1 se positionne comme le premier supercalculateur d'apprentissage en profondeur au monde avec une puissance de calcul suffisante pour le développement de l'IA. En utilisant ce supercalculateur, les chercheurs d'OpenAI pourront apprendre la forme faible de l'IA beaucoup plus rapidement qu'avec des serveurs conventionnels. Lors de la première étape, l'IA apprendra à comprendre la communication textuelle des personnes. Un trésor d'esprit dans ce cas servira de Reddit. Les messages de la ressource «alimenteront» l'IA, et il apprendra à comprendre la relation entre les mots individuels, leurs groupes et leurs phrases. La tâche est compliquée par le fait que le texte avec Reddita est saturé de jargon, d'abréviations, ce ne sont pas des textes académiques.

Andrej Karpathy, un chercheur d'OpenAI, affirme que l'IA auto-apprenante deviendra plus intelligente avec le temps. «L'apprentissage en profondeur est une classe spéciale de modèles, car plus le modèle lui-même est grand, mieux il fonctionne», dit-il.

La langue reste un problème important pour les développeurs d'intelligence artificielle. Et bien que de nombreux problèmes aient été résolus, il en reste encore à résoudre. Il n'y a pas si longtemps, Google a mené une expérience lorsqu'un système d'auto-apprentissage a été formé à l'aide de dialogues de films. Après un certain temps, il s'est avéré que l'IA donne des réponses tout à fait tolérables à des questions relativement complexes. Parfois, une tentative de rapprocher la forme faible de l'IA et les gens donne des résultats inattendus. En mars de cette année, Microsoft a lancéet sur Twitter, le bot adolescent Tay, et il a appris mal en seulement une journée. Après cela, les employés de Microsoft ont jugé préférable de supprimer presque tous les messages Tay et l'ont endormi.

Les scientifiques d'OpenAI veulent savoir si un robot peut apprendre une langue en interagissant avec des personnes dans le monde réel. L'expérience avec Reddit est la première étape de la série d'expériences prévue. Grâce au DGX-1, la formation sera beaucoup plus rapide que prévu. L'IA peut être formée sur l'exemple de matrices de données plus grandes que prévu. En plus du texte, l'IA sera formée par essais et erreurs pour effectuer un certain nombre d'actions. Cette méthode peut être utilisée pour enseigner à l'intelligence artificielle à jouer à des jeux vidéo. Peut-être qu'il pourra comprendre que l'accumulation de pièces de jeu dans un certain nombre de jeux vous permet d'augmenter le nombre de points gagnés et améliore les capacités du personnage.



Pourquoi tout cela est-il nécessaire? Concrètement, une forme faible d'IA peut être utilisée dans de nombreux domaines. Par exemple, créez un robot capable de faire le ménage. Et un tel robot fonctionnera de mieux en mieux au fil du temps, car il est capable d'apprendre. Une forme faible d'IA est également nécessaire pour améliorer les performances des voitures autonomes actuellement développées par un certain nombre de sociétés, dont Google. En ce qui concerne la forme forte de l'IA, il vaut la peine de craindre qu'il ne commence pas à utiliser des gens à ses propres fins, comme Musk l'a mentionné à plusieurs reprises.

Un certain nombre de chercheurs s'interrogent sur la faisabilité de la mission d'OpenAI de créer une «bonne» superintelligence artificielle. Selon des représentants de l'organisation elle-même, la menace de créer une IA malveillante est compensée par le fait que les technologies, les résultats de développement sont accessibles à tous. Dans le même temps, Nick Bostrom, un scientifique d'Oxford, pense que c'est l'ouverture qui peut conduire à des résultats négatifs. Le fait que tout le monde partage les résultats de la recherche avec tout le monde, dit Bostrom, peut être un problème. «Si vous avez un bouton« faire en sorte que tout le monde se sente mal », il est peu probable que vous souhaitiez le partager avec tout le monde», explique Bostrom. Mais dans le cas d'OpenAI, ce bouton sera accessible à tous. Si l'organisation cache les résultats de son travail, qu'elle considère dangereux, alors l'existence d'OpenAI perdra son sens, car l'organisation ne sera plus ouverte.

Néanmoins, Bostrom estime qu'il devrait y avoir des résultats positifs. Le principal résultat est une diminution de la probabilité de contrôler le superintelligence d’une entreprise en cas de forte forme d’IA. La monopolisation d'une forme forte d'IA est mauvaise, et OpenAI est susceptible de réduire la probabilité d'un tel développement d'événements.

Source: https://habr.com/ru/post/fr396947/


All Articles