Un vistazo a la caja negra: un nuevo sistema del MIT mostrará cómo funcionan los algoritmos de aprendizaje automático

MIT introdujo una herramienta interactiva que deja en claro por qué un sistema inteligente toma una decisión u otra. Este artículo trata sobre cómo funciona.


/ Unsplash / Randy Fath

Problema de caja negra


Los sistemas automatizados de aprendizaje automático (AutoML) prueban y modifican repetidamente los algoritmos y sus parámetros. Usando el método de aprendizaje por refuerzo , tales sistemas seleccionan modelos de IA que son más adecuados que otros para resolver un problema dado. Por ejemplo, para automatizar el soporte técnico . Pero los sistemas AutoML actúan como cajas negras, es decir, sus métodos están ocultos para los usuarios.

Esta característica complica enormemente la depuración de los algoritmos de aprendizaje automático. Y, por ejemplo, en el caso de los sistemas de piloto automático, las consecuencias pueden ser fatales. En 2016, Tesla en piloto automático por primera vez se convirtió en participante de un accidente fatal, chocando con un camión grande. La causa del accidente es confiablemente desconocida. Los expertos solo tienen una suposición: el algoritmo mezcló un camión alto con una señal de tráfico instalada en el borde inferior del paso elevado. Y el error aún no se ha eliminado: a principios de marzo, Estados Unidos volvió a experimentar un accidente similar .

Para explicar cómo un algoritmo de máquina llegó a una conclusión u otra, los ingenieros utilizan técnicas posteriores o modelos interpretados como árboles de decisión . En el primer caso, los datos de entrada y salida se utilizan para aproximar el "proceso de pensamiento" del algoritmo. La precisión de tales técnicas es pobre.

Los árboles de decisión son un enfoque más preciso, pero solo funcionan con datos categorizados . Por lo tanto, para problemas complejos, la visión por computadora es inconveniente.

Ingenieros del MIT, la Universidad de Ciencia y Tecnología de Hong Kong y la Universidad de Zhejiang decidieron rectificar la situación. Presentaron una herramienta para visualizar los procesos que tienen lugar dentro de una caja negra. Fue llamado ATMSeer.

Como funciona el sistema


ATMSeer se basa en modelos autoajustados (ATM). Este es un sistema automatizado de aprendizaje automático que busca los modelos más efectivos para resolver problemas específicos (por ejemplo, buscar objetos). El sistema selecciona arbitrariamente el tipo de algoritmo: una red neuronal, árboles de decisión, un " bosque aleatorio " o regresión logística. De la misma manera, determina los hiperparámetros del modelo: el tamaño del árbol o el número de capas de la red neuronal.

ATM realiza una serie de experimentos con datos de prueba, ajusta automáticamente los hiperparámetros y evalúa el rendimiento. Con base en esta información, ella elige el siguiente modelo, que puede mostrar los mejores resultados.

Cada modelo se presenta en forma de una "unidad de información" con variables: algoritmo, hiperparámetros, rendimiento. Las variables se muestran en los gráficos y diagramas correspondientes. Además, los ingenieros pueden editar manualmente estos parámetros y monitorear los cambios en el sistema inteligente en tiempo real.

Los ingenieros del MIT mostraron la interfaz de la herramienta en el siguiente video . En él, resolvieron varios casos de usuarios.


El panel de control de ATMSeer le permite administrar el proceso de aprendizaje y descargar nuevos conjuntos de datos. También muestra los indicadores de rendimiento de todos los modelos en una escala de cero a diez.

Perspectivas


Los ingenieros dicen que la nueva herramienta contribuirá al desarrollo del campo del aprendizaje automático, haciendo que el trabajo con algoritmos inteligentes sea más transparente. Varios especialistas en MO ya han notado que con ATMSeer tienen más confianza en la exactitud de sus modelos generados por AutoML.

El nuevo sistema también ayudará a las empresas a cumplir con los requisitos de GDPR. Las regulaciones generales de protección de datos requieren algoritmos de aprendizaje automático para la transparencia . Los desarrolladores de sistemas inteligentes deberían poder explicar las decisiones tomadas por los algoritmos. Esto es necesario para que los usuarios puedan comprender completamente cómo el sistema procesa sus datos personales.


/ Unsplash / Esther Jiao

En el futuro, puede esperar más herramientas para buscar en el cuadro negro. Por ejemplo, los ingenieros del MIT ya están trabajando en otra solución. Ayudará a los estudiantes de medicina a entrenar habilidades de escritura de historia.

Además de MIT, IBM trabaja en esta área. Junto con colegas de Harvard, presentaron la herramienta Seq2Seq-Vis. Visualiza el proceso de toma de decisiones en la traducción automática de un idioma a otro. El sistema muestra cómo cada palabra en la fuente y el texto final se asocia con ejemplos en los que se formó la red neuronal. Por lo tanto, es más fácil determinar si se produjo un error debido a datos de entrada incorrectos o un algoritmo de búsqueda.

Las herramientas que hacen que los algoritmos de aprendizaje automático sean más transparentes también encontrarán aplicación en ITSM al implementar Service Desk. Los sistemas ayudarán con la capacitación de los robots de chat inteligentes y ayudarán a evitar situaciones en las que no se comporten como se esperaba .



Materiales de nuestro blog corporativo:


Y un blog sobre Habré:

Source: https://habr.com/ru/post/459030/


All Articles