La inteligencia artificial es un objetivo en movimiento. Y aquí está la mejor manera de apuntar.

La Inteligencia Artificial (IA) parece rodearnos por todos lados. Lo encontramos en casa y por teléfono. Ni siquiera tendremos tiempo para volver a nuestros sentidos, de acuerdo con empresarios e innovadores de negocios, cómo la IA estará presente en casi todos los productos y servicios que compramos y usamos. Además, el
alcance de su aplicación para resolver problemas comerciales está creciendo a pasos agigantados. Al mismo tiempo, crecen las dudas sobre las consecuencias del advenimiento de la IA; nos preocupa cómo la automatización afectará el lugar de trabajo, la disponibilidad laboral y la sociedad.
A veces, la realidad se pierde entre los temores y triunfos de los titulares que hablan sobre Alexa, Siri y AlphaGo, porque las tecnologías de inteligencia artificial (aprendizaje automático y su subconjunto, aprendizaje profundo) tienen muchas limitaciones, la superación de las cuales requerirá mucho esfuerzo. Este artículo describe estas limitaciones y debería ayudar a los directores a comprender mejor qué inhibe exactamente sus intentos de implementar IA. También describiremos avances prometedores destinados a eliminar algunas restricciones y crear una nueva ola de oportunidades.
Nuestras perspectivas dependen de una combinación de trabajo de vanguardia (investigación, análisis, evaluación de cientos de casos reales de uso) y la colaboración con algunos pensadores avanzados, científicos e ingenieros que trabajan en áreas avanzadas relacionadas con la IA. Intentamos extraer la esencia de su experiencia y ayudar a los directores de empresas, que, como lo demuestra nuestra experiencia, a menudo se guían solo por su propia iniciativa y no siempre comprenden bien dónde está la vanguardia o qué está disponible para la IA.
En pocas palabras, los problemas y las limitaciones de la IA crean un problema de "objetivo móvil" para los líderes: es difícil para ellos llegar a la vanguardia, ya que se mueve constantemente. También es a menudo frustrante cuando los intentos de usar IA tropiezan con barreras del mundo real; esto puede disminuir la motivación para nuevas inversiones o conducir a un punto de vista de "esperar y ver", mientras que otros continuarán avanzando. Un
estudio reciente
realizado por el McKinsey World Institute muestra que existe una brecha creciente entre los líderes y los que están rezagados en el uso de la IA, y esto se puede ver tanto en la comparación de diferentes industrias como en cada una de ellas (figura 1).
Anexo 1: Los líderes de IA en el futuro cercano van a invertir aún más en él. Vertical: estimar el aumento del gasto en IA en% en los próximos tres años; horizontal: porcentaje de empresas que ya usan IALos directores que intentan cerrar la brecha deberían poder trabajar con AI de manera informada. En otras palabras, necesitan comprender no solo en qué áreas la IA puede estimular la innovación, las ideas y la toma de decisiones, conducir a mayores ganancias y eficiencia, sino también dónde la IA aún no puede ayudar. Además, deben aceptar la relación y las diferencias entre las limitaciones técnicas y organizativas: barreras culturales, la falta de personal que pueda crear soluciones de inteligencia artificial llave en mano para las empresas y el problema de la "última milla" de integrar la inteligencia artificial en productos y procesos. Si desea convertirse en un líder que comprenda algunos de los problemas técnicos críticos que ralentizan el progreso de la IA, y esté listo para aprovechar los prometedores desarrollos que pueden superar estas limitaciones y potencialmente cambiar el camino del desarrollo de la IA, siga leyendo.
Desafíos, limitaciones y oportunidades
Un punto de referencia útil será comprender los avances recientes en la tecnología de aprendizaje profundo (GO). Estos son probablemente los desarrollos más emocionantes en el campo de la IA, y han logrado un aumento explosivo en la eficiencia en las clasificaciones y predicciones, sin la supervisión tradicional. GO utiliza redes neuronales a gran escala capaces de contener millones de "neuronas" simuladas distribuidas en capas. Las opciones de red más comunes se denominan
redes neuronales convolucionales (SNA) y
redes neuronales recurrentes (RNS). Estas redes neuronales se entrenan utilizando datos de entrenamiento y
algoritmos de retropropagación .
Si bien se han logrado progresos impresionantes en esta área, queda mucho por hacer. El momento crítico es ajustar la IA a una tarea específica y a los datos disponibles. Dado que estos sistemas no están programados, sino entrenados, varios procesos de su trabajo para la ejecución exacta de tareas complejas a menudo requieren una gran cantidad de datos etiquetados. Obtener un gran conjunto de datos puede ser complicado. En algunas áreas, simplemente pueden no existir, pero incluso si existen, el etiquetado puede requerir una gran cantidad de recursos humanos.
Además, en estos modelos puede ser difícil descifrar cómo un modelo matemático, entrenado con la ayuda de GO, llega a cierta predicción, recomendación o solución. La utilidad de una caja negra, incluso si cumple su propósito, puede ser limitada, especialmente en los casos en que sus predicciones o decisiones afectan a la comunidad y tienen consecuencias relacionadas con la salud humana. En tales casos, el usuario a menudo necesita saber "por qué", por ejemplo, cómo exactamente el algoritmo llegó a tales recomendaciones, si sus acciones pueden tener consecuencias legales o regulatorias. Por qué ciertos factores, y no algunos otros factores, fueron críticos en este caso.
Examinemos cinco factores interrelacionados en los que estas limitaciones y las opciones emergentes para sortearlas comienzan a desempeñar un papel.
Límite 1: marcado de datos
La mayoría de los modelos modernos de IA entrenan con el "aprendizaje supervisado". Esto significa que las personas deben marcar y clasificar los datos de origen, y ese trabajo puede ser difícil y propenso a errores. Por ejemplo, las compañías de robomobile están contratando a cientos de personas para etiquetar manualmente muchas horas de video para ayudar a entrenar estos sistemas. Al mismo tiempo, aparecen nuevas tecnologías prometedoras, por ejemplo, el control de transmisión (demostrado por Eric Horvitz y colegas de Microsoft Research), en el que los datos se pueden marcar durante el uso natural. Los enfoques no controlados o parcialmente controlados reducen la necesidad de grandes conjuntos de datos etiquetados. Dos técnicas prometedoras son el
entrenamiento de refuerzo y una
red generativa competitiva .
Entrenamiento reforzado. Esta técnica de aprendizaje sin supervisión permite que los algoritmos aprendan simplemente por prueba y error. La metodología utiliza el método de la zanahoria y el palo: por cada intento de completar una tarea, el algoritmo recibe una recompensa (por ejemplo, una puntuación alta) si su comportamiento es exitoso, o el castigo de lo contrario. Con un aumento en el número de repeticiones, la eficiencia también crece, y en muchos casos excede las capacidades humanas, siempre que el entorno de aprendizaje corresponda al mundo real.
El aprendizaje reforzado es famoso por usar juegos de computadora en la enseñanza de computadoras; recientemente, los médicos generales también se han incorporado a este esquema. En mayo de 2017, por ejemplo, ayudó al sistema
AlphaGo AI a vencer al campeón mundial
Ke Ze en el juego go. Como otro ejemplo, Microsoft ha comenzado a proporcionar servicios que se benefician del aprendizaje reforzado y se adaptan a las preferencias del usuario. La aplicación potencial del aprendizaje reforzado es adecuada para varios tipos de empresas. Entre las posibilidades se encuentran: el comercio de valores utilizando IA, que gana o pierde puntos por adquirir o perder financiación; motor de recomendaciones de productos, recibiendo puntos por cada venta realizada en la recomendación; El software que construye rutas para el transporte de carga, recibe una recompensa por la entrega a tiempo o el consumo reducido de combustible.
El aprendizaje reforzado también puede ayudar a la IA a trascender las limitaciones naturales y sociales del marcado humano mediante el desarrollo de soluciones que nadie había pensado antes y estrategias que incluso los jugadores experimentados nunca habían pensado usar. Recientemente, por ejemplo, el sistema AlphaGo Zero, utilizando entrenamiento de refuerzo de un nuevo tipo, derrotó a su predecesor AlphaGo al aprender a jugar desde cero. Significaba comenzar con un juego completamente al azar contigo mismo, en lugar de practicar en juegos jugados por personas y con personas.
Redes generacionales-adversarias (GSS). En este modelo de entrenamiento con control parcial, dos redes compiten entre sí para mejorar y refinar su comprensión de un determinado concepto. Por ejemplo, para reconocer el aspecto de las aves, una red intenta encontrar las diferencias entre las imágenes reales y falsas de las aves, y su competidor intenta engañarlo emitiendo imágenes muy similares a las imágenes de las aves, pero no esas. Cuando dos redes comienzan a dibujar, la representación del ave en cada modelo se vuelve más precisa.
La capacidad del GSS para proporcionar ejemplos de datos cada vez más plausibles puede reducir significativamente la necesidad de que las personas etiqueten los conjuntos de datos. Por ejemplo, para entrenar el algoritmo para reconocer tumores en imágenes médicas, generalmente se necesitarían millones de imágenes etiquetadas para indicar los tipos y etapas del desarrollo del tumor. Utilizando GSS, capacitado para producir imágenes cada vez más realistas de varios tipos de tumores, los investigadores pueden entrenar el algoritmo de reconocimiento de tumores, combinando una base de datos mucho más pequeña de datos etiquetados por personas con salida del GSS.
Aunque el uso de GSS para hacer diagnósticos precisos de enfermedades aún está lejos de implementarse, los investigadores ya están comenzando a usar GSS en contextos cada vez más complejos. Estos incluyen: comprender y producir obras de arte al estilo de un artista en particular; el uso de imágenes satelitales y el reconocimiento de características geográficas para crear mapas relevantes de territorios en rápido desarrollo.
Límite 2: Obtenga conjuntos de datos de entrenamiento masivo
Ya se ha demostrado que las tecnologías simples de IA que utilizan modelos lineales, en algunos casos, pueden acercarse a las capacidades de los expertos médicos en otros campos. Sin embargo, la ola actual de aprendizaje automático requiere conjuntos de datos de capacitación, no solo etiquetados, sino también numerosos, además de exhaustivos. Los métodos GO requieren miles de registros para compilar modelos relativamente buenos capaces de clasificación y, en algunos casos, millones de registros para acercarse al nivel de una persona.
La dificultad es que estos conjuntos de datos masivos pueden ser difíciles de obtener o crear en muchos casos comerciales. Cada pequeño cambio en la tarea puede requerir otro gran conjunto de datos y una nueva capacitación. Por ejemplo, entrenar un vehículo autónomo para moverse por un sitio minero, donde el clima a menudo cambia, puede requerir un conjunto de datos que incluya varias condiciones ambientales que la máquina puede encontrar.
La técnica de
aprendizaje de una sola vez puede reducir la necesidad de grandes conjuntos de datos y permitir que el modelo de IA aprenda las características del objeto con un
pequeño número de demostraciones o ejemplos
reales (en algunos casos, incluso uno). Las capacidades de la IA se acercarán a una persona que pueda reconocer con precisión a los distintos representantes de la misma categoría después de conocer solo un ejemplo, por ejemplo, con una camioneta. En esta metodología, que todavía está en desarrollo, los científicos primero entrenan de forma preliminar modelos en realidad virtual simulada, en la que hay opciones para la tarea o, en el caso del reconocimiento de patrones, una imagen de un objeto. Luego, después de que los modelos demuestren varias opciones para el objeto en el mundo real, que la IA no vio en la realidad virtual, se utilizarán los conocimientos existentes para encontrar la solución correcta.
Como resultado, este tipo de capacitación puede ayudar a crear un sistema que escanea los textos en busca de infracción de derechos de autor o reconoce un logotipo corporativo en un video después de familiarizarse con solo un ejemplo. Hoy, tales aplicaciones están en sus primeras etapas. Pero su utilidad y efectividad pueden expandir rápidamente las posibilidades de usar IA en varias industrias.
Limitación 3: el problema de la explicabilidad
La explicabilidad no es un problema nuevo para los sistemas de IA. Pero crece junto con los éxitos y la adopción de la defensa civil, por lo que no solo aumenta la variedad de aplicaciones, sino también su opacidad. Cuanto más grande y complejo es el modelo, más difícil es explicar en términos humanos por qué se tomó esta o aquella decisión (esto es aún más difícil de hacer si todo sucede en tiempo real). Esta es una de las razones por las cuales el uso de ciertas herramientas de IA no se está expandiendo tanto en áreas donde la explicabilidad es útil o incluso necesaria. Además, con la expansión del alcance de la IA, los requisitos de los reguladores también pueden aumentar la necesidad de modelos de IA con un alto nivel de explicabilidad.
Dos enfoques prometedores incipientes para aumentar la transparencia de los modelos son las explicaciones agnósticas de modelos locales interpretables (LIME) y las técnicas de atención (figura 2). LIME trata de determinar en qué partes de los datos de entrada el modelo entrenado basa principalmente sus cálculos para desarrollar un modelo intermedio e interpretable. Esta técnica analiza varios segmentos de datos a la vez y observa cómo cambian las predicciones para ajustar el modelo intermedio y desarrollar una interpretación más precisa (por ejemplo, excluyendo los ojos en lugar de la nariz para verificar cuál es más importante para el reconocimiento facial). Las técnicas de atención visualizan aquellas partes de los datos de entrada en los que se basa el modelo para tomar una decisión específica (por ejemplo, concentrarse en la boca para determinar si una persona está en la imagen).
Anexo 2Otra tecnología que se ha utilizado durante algún tiempo son los
modelos aditivos generalizados (OAM). Al usar modelos con una característica, OAM limita la interacción de las características, como resultado de lo cual cada una de ellas se vuelve más interpretable para los usuarios. Se espera que la adopción de estas y otras tecnologías que buscan eliminar la cortina del misterio de la IA ayudará en gran medida a aumentar el uso de la IA.
Límite 4: generalización del aprendizaje.
A diferencia de los humanos, los modelos de IA apenas transfieren su experiencia de un conjunto de circunstancias a otro. De hecho, todo lo que el modelo ha logrado en una aplicación específica sigue siendo aplicable solo a este caso. Como resultado, las empresas tienen que gastar constantemente recursos en la capacitación del próximo modelo, aunque las tareas para su aplicación son muy similares.
Una respuesta prometedora a este desafío es el aprendizaje portátil. En este enfoque, el modelo de IA está entrenado para resolver un problema específico y luego aplica rápidamente esta capacitación a un trabajo similar pero diferente. Investigadores de DeepMind han mostrado resultados prometedores con la transferencia de aprendizaje en experimentos en los que se transfirió entrenamiento con realidad virtual para controlar miembros robóticos reales.
El aprendizaje portátil y otros enfoques genéricos están evolucionando, y pueden ayudar a las organizaciones a crear rápidamente nuevas formas de aplicar y agregar nuevas funcionalidades a los métodos existentes y de trabajo. Por ejemplo, al crear un asistente virtual, la capacitación portátil puede generalizar las preferencias del usuario de un área (por ejemplo, música) a otra (por ejemplo, a libros). Los casos de uso no se limitan a productos digitales. La capacitación portátil puede ayudar, por ejemplo, a una compañía de petróleo y gas a expandir el uso de algoritmos de IA capacitados en mantenimiento predictivo de pozos a otros equipos, como tuberías y plataformas de perforación. La capacitación portátil, incluso en principio, puede revolucionar el análisis empresarial: imagine una herramienta de inteligencia artificial que analice los datos y comprenda cómo optimizar las ganancias de la aerolínea, capaz de adaptar su modelo a los cambios climáticos o las economías locales.
Otro enfoque es usar algo que describa más o menos la estructura generalizada aplicada a varios problemas. Por ejemplo, AlphaZero de DeepMind usó la misma estructura para tres juegos diferentes: fue posible con esta estructura generalizada entrenar un modelo de un juego de ajedrez en un día, para que luego ganara contra el programa del campeón mundial.
Finalmente, imagine las posibilidades de las nuevas técnicas de metaaprendizaje que intentan automatizar el desarrollo de modelos de aprendizaje automático. Por ejemplo, el equipo de Google Brain usa AutoML para automatizar el desarrollo de redes neuronales para clasificar imágenes en conjuntos de datos a gran escala. Hoy, estas técnicas funcionan tan bien como las desarrolladas por los humanos. , , . , . , .
5:
, , , . – . , ( ) , , . , , , , . : , , , , . « », « » « ».
- , , . , , , , , . , – , .
, , , , . – , , , . , , , , , , . - , – (, , )? , -, .
. , , , . , , , , .
, , .
, , , , , . , , , , ; , . – , , ,
AI Index ( "
" ).
.
- , , . , , , , , , . , -, , , . , , - . , .
.
, , . , , ? « » ? , - .
.
- , . – , , . , . , , ( , ) . , – (API), . , .
, , , , , . , , , – . , , , . , , , , , .