Todo lo que necesitas saber sobre IA en minutos



Doy la bienvenida a los lectores de Habr. Se invita su atención a la traducción del artículo "Todo lo que necesita saber sobre IA, en menos de 8 minutos". . El contenido está dirigido a personas que no están familiarizadas con el campo de la IA y que desean tener una idea general al respecto, luego, tal vez, profundizar en cualquiera de sus ramas específicas.

A veces es más útil saber un poco sobre todo (al menos para los principiantes que intentan navegar en áreas técnicas populares) que saber mucho sobre una cosa.

Muchas personas piensan que están un poco familiarizadas con la IA. Pero esta área es tan joven y crece tan rápido que los brotes ocurren casi todos los días. Hay tanto por descubrir en este campo científico que los especialistas de otros campos pueden unirse rápidamente a la investigación de IA y lograr resultados significativos.

Este artículo es solo para ellos. Me propuse el objetivo de crear un breve material de referencia que permita a las personas con educación técnica comprender rápidamente la terminología y las herramientas utilizadas para desarrollar la IA. Espero que este material sea útil para la mayoría de las personas interesadas en IA que no son especialistas en este campo.

Introduccion


Inteligencia artificial (IA), aprendizaje automático y redes neuronales son términos utilizados para describir tecnologías poderosas basadas en el aprendizaje automático que pueden resolver muchos problemas del mundo real.

Mientras piensa, toma decisiones, etc. En comparación con las capacidades del cerebro humano en las máquinas, están lejos de ser ideales (no son ideales, por supuesto, también en humanos), recientemente, se han realizado varios descubrimientos importantes en el campo de las tecnologías de IA y algoritmos relacionados. El número cada vez mayor de muestras grandes de datos diversos disponibles para el entrenamiento de IA desempeña un papel importante.

El campo de la IA se cruza con muchas otras áreas, incluidas las matemáticas, las estadísticas, la teoría de la probabilidad, la física, el procesamiento de señales, el aprendizaje automático, la visión por computadora, la psicología, la lingüística y la ciencia del cerebro. Las cuestiones relacionadas con la responsabilidad social y la ética de la creación de IA atraen a personas interesadas involucradas en la filosofía.

La motivación para el desarrollo de la tecnología de inteligencia artificial es que las tareas que dependen de muchos factores variables requieren soluciones muy complejas que son difíciles de entender y de algoritmos manuales.

Las esperanzas de las corporaciones, investigadores y personas comunes para el aprendizaje automático están creciendo para obtener soluciones a problemas que no requieren que una persona describa algoritmos específicos. Se presta mucha atención al enfoque de caja negra. La programación de los algoritmos utilizados para modelar y resolver problemas asociados con grandes cantidades de datos lleva mucho tiempo de los desarrolladores. Incluso cuando logramos escribir código que procesa una gran cantidad de diversos datos, a menudo resulta ser muy engorroso, difícil de mantener y difícil de probar (debido a la necesidad de utilizar una gran cantidad de datos incluso para las pruebas).

Las tecnologías modernas de aprendizaje automático y de inteligencia artificial, junto con los datos de "entrenamiento" correctamente seleccionados y preparados para los sistemas, pueden permitirnos enseñar a las computadoras cómo programar para nosotros.



Revisar


Inteligencia: la capacidad de percibir información y guardarla como conocimiento para construir un comportamiento adaptativo en un entorno o contexto

Esta definición de inteligencia de la Wikipedia (en inglés) se puede aplicar tanto al cerebro orgánico como a la máquina. La presencia de inteligencia no implica la presencia de conciencia . Esta es una idea falsa común traída al mundo por los escritores de ciencia ficción.

Intente buscar en Internet ejemplos de IA, y probablemente obtendrá al menos un enlace a IBM Watson, que utiliza el algoritmo de aprendizaje automático, que se hizo famoso después de ganar un programa de juegos llamado "Jeopardy" en 2011. Desde entonces, el algoritmo ha sufrido algunos cambios y se utilizó en como plantilla para muchas aplicaciones comerciales diferentes. Apple, Amazon y Google están trabajando activamente para crear sistemas similares en nuestros hogares y bolsillos.

El procesamiento del lenguaje natural y el reconocimiento de voz fueron los primeros ejemplos del uso comercial del aprendizaje automático. Después de ellas aparecieron tareas, otras tareas de automatización de reconocimiento (texto, audio, imágenes, video, caras, etc.). La gama de aplicaciones de estas tecnologías está en constante crecimiento e incluye vehículos no tripulados, diagnósticos médicos, juegos de computadora, motores de búsqueda, filtros de spam, control de delitos, marketing, control de robots, visión por computadora, transporte, reconocimiento de música y mucho más.

La IA está tan estrechamente integrada en las tecnologías modernas que utilizamos que muchos ni siquiera la consideran una "IA", es decir, no la separan de las tecnologías informáticas convencionales. Pregúntele a cualquier transeúnte si hay inteligencia artificial en su teléfono inteligente, y probablemente responderá: "No". Pero los algoritmos de IA están en todas partes: desde la predicción del texto ingresado hasta el enfoque automático de la cámara. Muchos creen que la IA debería aparecer en el futuro. Pero apareció hace algún tiempo y ya está aquí.

El término "IA" es bastante generalizado. La mayor parte de la investigación se centra ahora en un campo más estrecho de redes neuronales y aprendizaje profundo.

Como funciona nuestro cerebro


El cerebro humano es una computadora de carbono compleja que, según estimaciones aproximadas, realiza mil millones de millones de operaciones por segundo (1000 petaflops), mientras consume 20 vatios de energía. Una supercomputadora china llamada "Tianhe-2" (la más rápida del mundo al momento de escribir) realiza 33,860 billones de operaciones por segundo (33.86 petaflops) y consume 1,600,000 vatios (17.6 megavatios). Tenemos que hacer una cierta cantidad de trabajo antes de que nuestras computadoras de silicio puedan compararse con las de carbono formadas como resultado de la evolución.

Una descripción precisa del mecanismo utilizado por nuestro cerebro para "pensar" es el tema de discusión e investigación adicional (personalmente me gusta la teoría de que el trabajo del cerebro está asociado con efectos cuánticos, pero este es un tema para otro artículo). Sin embargo, el mecanismo de trabajo de partes del cerebro generalmente se modela utilizando el concepto de neuronas y redes neuronales. Se estima que el cerebro contiene aproximadamente 100 mil millones de neuronas.



Las neuronas interactúan entre sí mediante canales especiales que les permiten intercambiar información. Las señales de las neuronas individuales se pesan y se combinan entre sí antes de activar otras neuronas. Este procesamiento de mensajes transmitidos, la combinación y activación de otras neuronas se repite en diferentes capas del cerebro. Dado que hay 100 mil millones de neuronas en nuestro cerebro, la totalidad de las combinaciones ponderadas de estas señales es bastante complicada. Y eso es lo menos.

Pero esto no termina ahí. Cada neurona aplica una función, o transformación, a las señales de entrada ponderadas antes de verificar si se alcanza su umbral de activación. La conversión de la señal de entrada puede ser lineal o no lineal.

Inicialmente, las señales de entrada provienen de una variedad de fuentes: nuestros sentidos, medios de monitoreo interno del funcionamiento del cuerpo (nivel de oxígeno en la sangre, contenido del estómago, etc.) y otros. Una sola neurona puede recibir cientos de miles de señales de entrada antes de decidir cómo responder.

El pensamiento (o el procesamiento de la información) y las instrucciones resultantes de él, transmitidas a nuestros músculos y otros órganos, son el resultado de la conversión y transmisión de señales de entrada entre neuronas de diferentes capas de la red neuronal. Pero las redes neuronales en el cerebro pueden cambiar y actualizarse, incluidos los cambios en el algoritmo para ponderar las señales transmitidas entre las neuronas. Esto se debe al aprendizaje y la experiencia.

Este modelo del cerebro humano se utilizó como plantilla para reproducir las capacidades del cerebro en la simulación por computadora, una red neuronal artificial.

Redes neuronales artificiales (ANN)


Las redes neuronales artificiales son modelos matemáticos creados por analogía con las redes neuronales biológicas. Las ANN pueden modelar y procesar relaciones no lineales entre las señales de entrada y salida. La ponderación adaptativa de las señales entre neuronas artificiales se logra gracias a un algoritmo de aprendizaje que lee los datos observados y trata de mejorar los resultados de su procesamiento.



Para mejorar el funcionamiento de las ANN, se utilizan diversas técnicas de optimización. La optimización se considera exitosa si la ANN puede resolver la tarea en un tiempo que no exceda el marco establecido (los plazos, por supuesto, varían de una tarea a otra).

ANN se modela utilizando múltiples capas de neuronas. La estructura de estas capas se llama arquitectura modelo. Las neuronas son unidades computacionales separadas que pueden recibir datos de entrada y aplicarles alguna función matemática para determinar si se transfieren más datos.

En un modelo simple de tres capas, la primera capa es una capa de entrada, seguida de una capa oculta y luego una capa de salida. Cada capa contiene al menos una neurona.

Como la estructura del modelo se complica al aumentar el número de capas y neuronas, aumenta el potencial para resolver los problemas de ANN. Sin embargo, si el modelo es demasiado "grande" para una tarea determinada, no se puede optimizar al nivel deseado. Este fenómeno se llama sobreajuste .

La arquitectura, la configuración y la selección de algoritmos de procesamiento de datos son los componentes principales de la construcción de ANN. Todos estos componentes determinan el rendimiento y el rendimiento general del modelo.

Los modelos a menudo se caracterizan por la llamada función de activación . Se utiliza para convertir la entrada ponderada de una neurona en su salida (si una neurona decide transferir más datos, esto se llama activación). Hay muchas transformaciones diferentes que se pueden usar como funciones de activación.

Los ANN son un medio poderoso para resolver problemas. Sin embargo, aunque el modelo matemático de un pequeño número de neuronas es bastante simple, el modelo de una red neuronal con un aumento en el número de sus partes constituyentes se vuelve bastante confuso. Debido a esto, el uso de ANN a veces se denomina enfoque de caja negra. La elección de ANN para resolver el problema debe considerarse cuidadosamente, ya que en muchos casos la solución final resultante no se puede desmontar y analizar por qué se ha convertido en tal.



Aprendizaje profundo


El término aprendizaje profundo se usa para describir redes neuronales y los algoritmos utilizados en ellas que reciben datos sin procesar (de los cuales se requiere información útil). Estos datos se procesan pasando a través de las capas de la red neuronal para obtener la salida deseada.

El aprendizaje no supervisado es un área en la que las técnicas de aprendizaje profundo funcionan muy bien. Una ANN correctamente configurada puede determinar automáticamente las características principales de los datos de entrada (ya sea texto, imágenes u otros datos) y obtener un resultado útil de su procesamiento. Sin un entrenamiento profundo, la búsqueda de información importante a menudo recae en los hombros de un programador que desarrolla un sistema para procesarlos. El modelo de aprendizaje profundo, por sí solo, puede encontrar una forma de procesar datos que le permite extraer información útil de ellos. Cuando el sistema está capacitado (es decir, encuentra la manera de extraer información útil de los datos de entrada), se reducen los requisitos de potencia informática, memoria y energía para mantener el modelo.

En pocas palabras, los algoritmos de aprendizaje permiten utilizar datos especialmente preparados para "entrenar" a un programa para realizar una tarea específica.

El aprendizaje profundo se utiliza para resolver una amplia gama de problemas y se considera una de las tecnologías innovadoras de IA. También hay otros tipos de entrenamiento, como el aprendizaje supervisado y el aprendizaje semi-supervisado , que se distinguen por la introducción de un control humano adicional sobre los resultados intermedios del entrenamiento de la red neuronal en el procesamiento de datos (lo que ayuda a determinar si está en la dirección correcta). sistema de movimiento).

Aprendizaje en la sombra ( aprendizaje en la sombra ): un término utilizado para describir una forma simplificada de aprendizaje profundo, en la que la búsqueda de las características clave de los datos es precedida por su procesamiento por parte de una persona e ingresando información específica del campo al que se refieren estos datos. Dichos modelos son más "transparentes" (en el sentido de obtener resultados) y de alto rendimiento debido al aumento del tiempo invertido en el diseño del sistema.

Conclusión


AI es una poderosa herramienta de procesamiento de datos y puede encontrar soluciones a problemas complejos más rápido que los algoritmos tradicionales escritos por programadores. Las ANN y las técnicas de aprendizaje profundo pueden ayudar a resolver una serie de problemas diversos. La desventaja es que los modelos más optimizados a menudo funcionan como "cajas negras", lo que hace imposible estudiar las razones para elegir una u otra solución. Este hecho puede conducir a problemas éticos relacionados con la transparencia de la información.

Source: https://habr.com/ru/post/es416889/


All Articles