Desarrolladores de OpenAI van a entrenar IA con Reddit
El CEO de Nvidia, Jen-San Huang, muestra DGX-1 a Ilon Mask, cofundador de OpenAI OpenAI, unaorganización sin fines de lucro de código abierto dedicada a la investigación en el campo de la inteligencia artificial, recibió una supercomputadora DGX-1 de Nvidia. Los expertos de OpenAI están trabajando actualmente en una forma "débil" de IA. Los científicos están desarrollando sistemas que pueden procesar una gran cantidad de datos primarios, produciendo una matriz estructurada de información. Esto requiere computadoras potentes, y el DGX-1 es un complejo informático muy poderoso. Nvidia afirma que el DGX-1 se basa en una nueva generación de GPU que proporcionan velocidades de procesamiento de datos comparables a los servidores de arquitectura de 250 x86.Los creadores de OpenAI son Elon Musk y Sam Altman. Los objetivos principales de la organización son atraer a científicos que trabajan en el campo de la IA para la colaboración. Se planea que los resultados de la investigación sean abiertos y accesibles para todos los interesados. Según los fundadores, todo esto ayudará a prevenir la aparición de inteligencia artificial "malvada". Musk ha declarado esta amenaza muchas veces.DGX-1 se posiciona como la primera supercomputadora de aprendizaje profundo del mundo con suficiente potencia informática para el desarrollo de IA. Usando esta supercomputadora, los investigadores de OpenAI podrán aprender la forma débil de la IA mucho más rápido que con los servidores convencionales. En la primera etapa, se le enseñará a AI a comprender la comunicación de texto de las personas. Un tesoro de la mente en este caso servirá como Reddit. Los mensajes del recurso "alimentarán" a la IA, y él aprenderá a comprender la relación entre palabras individuales, sus grupos y oraciones. La tarea se complica por el hecho de que el texto con Reddita está saturado de jerga, abreviaturas, estos no son textos académicos.Andrej Karpathy, un investigador de OpenAI, dice que la IA de autoaprendizaje se volverá más inteligente con el tiempo. "El aprendizaje profundo es una clase especial de modelos, porque cuanto más grande es el modelo en sí, mejor funciona", dice.El lenguaje sigue siendo un tema importante para los desarrolladores de inteligencia artificial. Y aunque se han resuelto muchos problemas, queda mucho por resolver. No hace mucho tiempo, Google realizó un experimento cuando se entrenó un sistema de autoaprendizaje utilizando diálogos de películas. Después de un tiempo, resultó que la IA da respuestas bastante tolerables a preguntas relativamente complejas. A veces, un intento de acercar la forma débil de la IA y las personas da resultados inesperados. En marzo de este año, Microsoft lanzóy en Twitter, el bot adolescente Tay, y aprendió mal en solo un día. Después de eso, los empleados de Microsoft consideraron que era mejor eliminar casi todos los mensajes de Tay y lo enviaron a dormir.Los científicos de OpenAI quieren entender si un robot puede aprender un idioma al interactuar con personas del mundo real. El experimento con Reddit es el primer paso en la serie de experimentos prevista. Gracias a la DGX-1, la capacitación será mucho más rápida de lo planeado. AI puede ser entrenado en el ejemplo de matrices de datos más grandes de lo planeado. Además del texto, AI se capacitará por prueba y error para realizar una serie de acciones. Este método puede usarse para enseñar inteligencia artificial para jugar videojuegos. Quizás podrá comprender que la acumulación de monedas de juego en varios juegos te permite aumentar la cantidad de puntos ganados y mejora las habilidades del personaje.
¿Por qué es todo esto necesario? En términos prácticos, se puede usar una forma débil de IA en muchas áreas. Por ejemplo, cree un robot que sea capaz de hacer tareas domésticas. Y dicho robot funcionará mejor y mejor con el tiempo, ya que puede aprender. También se necesita una forma débil de IA para mejorar el rendimiento de los automóviles autónomos que actualmente están desarrollando varias empresas, incluida Google. En cuanto a la forma fuerte de IA, aquí vale la pena temer que no comience a usar a las personas para sus propios fines, como Musk mencionó repetidamente.Varios investigadores cuestionan la viabilidad de la misión de OpenAI de crear una "buena" superinteligencia artificial. Según los representantes de la propia organización, la amenaza de crear una IA maliciosa se compensa con el hecho de que las tecnologías y los resultados de desarrollo son accesibles para todos. Al mismo tiempo, Nick Bostrom, un científico de Oxford, cree que es la apertura la que puede conducir a resultados negativos. El hecho de que todos compartan los resultados de la investigación con todos, dice Bostrom, puede ser un problema. "Si tiene un botón" hacer que todos se sientan mal ", es poco probable que quiera compartirlo con todos", dice Bostrom. Pero en el caso de OpenAI, este botón estará disponible para todos. Si la organización oculta los resultados de su trabajo, que considera peligroso, entonces la existencia de OpenAI perderá su significado, ya que la organización ya no estará abierta.Sin embargo, Bostrom cree que debería haber resultados positivos. El resultado principal es una disminución en la probabilidad de controlar la superinteligencia de una empresa en el caso de una forma de IA fuerte. Monopolizar una forma fuerte de IA es malo, y es probable que OpenAI reduzca la probabilidad de tal desarrollo de eventos.Source: https://habr.com/ru/post/es396947/
All Articles