
El año pasado, un extraño robot robóbile comenzó a conducir por las carreteras del condado de Monmouth, Nueva Jersey. Este vehículo experimental, desarrollado por los especialistas de Nvidia, no difiere en apariencia de otros automóviles autónomos de otros fabricantes, como Google, Tesla o General Motors. Pero especialmente para este automóvil, se ha desarrollado un nuevo sistema de control. Ella es autodidacta y no depende de la configuración especificada en la producción. En cambio, el robomobile monitorea las acciones del conductor humano y aprende de él.
Esta es una forma ligeramente inusual de entrenar un robot robótico. Por otro lado, pocas personas imaginan completamente cómo la máquina toma decisiones. La información de sensores, radares y lidares ingresa a la red neuronal, donde estos datos se procesan con la asignación de reglas claras para controlar el volante, los frenos y otros sistemas. Como resultado, resulta que las acciones del robot robótico son a menudo similares a las acciones de un conductor humano que ha caído en la misma situación en la carretera. Surge la pregunta: ¿puede el automóvil tomar una decisión extraña en uno de los casos, por ejemplo, chocar contra un árbol a toda velocidad o pararse en un semáforo cuando la luz verde está encendida?
La información de procesamiento de una red neuronal se puede comparar con un cuadro negro. No, por supuesto, los expertos imaginan el principio del procesamiento de datos por una red neuronal en términos generales. Pero el problema es que el autoaprendizaje no es un proceso completamente predeterminado, por lo que a veces se pueden esperar resultados absolutamente inesperados en la salida. En el corazón de todo se encuentra el aprendizaje profundo, que ya nos ha permitido resolver una serie de problemas importantes, incluido el procesamiento de imágenes, el reconocimiento de voz y la traducción. Es posible que las redes neuronales puedan diagnosticar enfermedades en una etapa temprana, tomar las decisiones correctas al negociar en el intercambio y realizar cientos de otras acciones humanas importantes.
Pero primero necesita encontrar formas que comprendan mejor lo que está sucediendo en la red neuronal en sí al procesar datos. De lo contrario, es difícil, si es posible, predecir los posibles errores de los sistemas con una forma débil de IA. Y tales errores ciertamente serán. Esta es una de las razones por las cuales el auto de Nvidia aún está bajo prueba.
Una persona ahora aplica modelos matemáticos para facilitar la tarea de elegir por sí misma, por ejemplo, para determinar un prestatario confiable de fondos o para encontrar un empleado con la experiencia necesaria para algún tipo de trabajo. En general, los modelos matemáticos y los procesos que los usan son relativamente simples y directos. Pero las compañías militares y comerciales, los científicos ahora usan sistemas mucho más complejos, cuyas "decisiones" no se basan en los resultados de uno o dos modelos. El aprendizaje profundo difiere de los principios habituales del funcionamiento de la computadora. Según Tommy Jaakol, profesor del MIT, este problema es cada vez más relevante. "Hagas lo que hagas, toma una decisión sobre la inversión, intenta hacer un diagnóstico, elige un punto de ataque en el campo de batalla, todo esto no debería depender del método de la caja negra", dice.
Esto es entendido no solo por los científicos, sino también por los funcionarios. A partir del próximo verano, la Unión Europea presenta nuevas reglas para desarrolladores y proveedores de soluciones de sistemas informáticos automatizados. Se requerirá que los representantes de tales compañías expliquen a los usuarios cómo funciona el sistema y por qué decisiones principales se toman. El problema es que esto puede no ser posible. Sí, es posible explicar los principios básicos del funcionamiento de las redes neuronales sin problemas, pero pocos pueden decir exactamente qué sucede allí durante el procesamiento de información compleja. Incluso los creadores de tales sistemas no pueden explicar todo "desde y hacia", ya que los procesos que ocurren en la red neuronal durante el procesamiento de la información son muy complejos.
Nunca antes un hombre ha construido máquinas cuyo principio de funcionamiento no sea completamente comprendido por los creadores mismos y sea muy diferente de la forma en que la persona usa la información. Entonces, ¿podemos esperar una interacción normal con máquinas cuya operación es impredecible?

Pintura del artista Adam Ferriss con Google Deep Dream
En 2015, el equipo de investigación del Hospital Mount Sinai de Nueva York utilizó el aprendizaje profundo para procesar una base de datos de registros de pacientes. La base de datos incluía información sobre miles de pacientes con cientos de líneas de información para cada persona, como resultados de pruebas, fecha de visita al médico, etc. Como resultado, apareció el programa Paciente Profundo, que fue entrenado en el ejemplo de registros de 700 mil personas. Los resultados que mostró este programa fueron inusualmente buenos. Por ejemplo, fue capaz de predecir la aparición de algunas enfermedades en una etapa temprana en varios pacientes.
Sin embargo, los resultados resultaron ser un poco extraños. Por ejemplo, el sistema comenzó a diagnosticar perfectamente la esquizofrenia. Pero incluso para los psiquiatras experimentados, diagnosticar la esquizofrenia es un problema complejo. Pero la computadora lo enfrentó con fuerza. Por qué Nadie puede explicar, ni siquiera los creadores del sistema.
Inicialmente, los desarrolladores de IA se dividieron en dos campos. Los partidarios de la primera dijeron que la máquina debe ser programada para que todos los procesos que ocurren en el sistema puedan ser vistos y entendidos. El segundo campo se adhirió a la idea de que la máquina debería aprender por sí misma, recibiendo datos del número máximo de fuentes, seguido de un procesamiento independiente de dichos datos. Es decir, los partidarios de este punto de vista, de hecho, sugirieron que cada red neuronal debería ser "su propio jefe".
Todo esto siguió siendo pura teoría hasta el momento presente, cuando las computadoras se volvieron lo suficientemente poderosas como para que los expertos en inteligencia artificial y redes neuronales pudieran comenzar a poner en práctica sus ideas. En los últimos diez años, se han implementado una gran cantidad de ideas, han aparecido excelentes servicios que ayudan a traducir textos de un idioma a otro, reconocer el habla, procesar un flujo de video en tiempo real, trabajar con datos financieros y optimizar los procesos de producción.

Pero el problema es que casi cualquier tecnología de aprendizaje automático no es demasiado transparente para los especialistas. En el caso de la programación "manual", la situación es mucho más simple. Por supuesto, no se puede decir que los sistemas futuros serán incomprensibles para cualquiera. Pero por naturaleza, el aprendizaje profundo es una especie de caja negra.
No puede simplemente observar los principios de la red neuronal y predecir el resultado que obtendremos como resultado del procesamiento de algún tipo de matriz de datos. Dentro de la "caja negra" hay decenas y cientos de "capas de neuronas" interconectadas en un orden bastante complicado. Además, el valor para el resultado final no es solo el trabajo de las capas, sino también de las neuronas individuales. En la mayoría de los casos, una persona no puede predecir lo que aparecerá en la salida de una red neuronal.
Un ejemplo de cómo una red neuronal difiere de un cerebro humano es el sistema Deep Dream. Este es un proyecto de Google, una red neuronal, en el que se introdujo una foto normal y se le dio el objetivo de convertir esta foto de acuerdo con un tema específico. Bueno, por ejemplo, haz que todos los objetos de la imagen parezcan perros. Los resultados impresionaron a todos. De alguna manera, la tarea de generar una imagen con mancuernas se introdujo en el sistema. El sistema hizo frente, pero en todos los casos las manos de las personas se sintieron atraídas por la mancuerna: la red neuronal decidió que el brazo con mancuernas es un sistema único que no puede considerarse como dos elementos separados.

Los expertos creen que es necesario comprender mejor cómo funcionan dichos sistemas. Esto es necesario por la sencilla razón de que están comenzando a usar redes neuronales en áreas cada vez más importantes donde un error puede llevar a un final triste (el comercio de valores es un ejemplo). “Si tiene una red neuronal pequeña, puede comprender perfectamente cómo funciona. Pero cuando una red neuronal crece, el número de elementos en ella aumenta a cientos de miles de neuronas por capa con cientos de capas; en este caso, se vuelve impredecible ”, dice Jaakkola.
Sin embargo, las redes neuronales deben usarse en el trabajo, en la misma medicina. Los médicos subestiman la importancia de muchos datos, una persona simplemente no puede capturar sus ojos y encontrar los vínculos entre cientos de registros en el historial médico del paciente. Y la máquina, tal vez este es el gran valor de las redes neuronales y el aprendizaje profundo en general.
El ejército de los Estados Unidos ha invertido miles de millones de dólares en el desarrollo de sistemas automáticos de control de drones, la identificación e identificación de varios objetos, análisis de datos. Pero los militares creen que el trabajo de tales sistemas debería ser comprensible y explicable. Esos mismos soldados que están encerrados en un tanque controlado automáticamente se sentirán muy incómodos si no entienden cómo y qué funciona, por qué el sistema tomó tal decisión y no otra.
Quizás en el futuro estos sistemas expliquen sus acciones. Por ejemplo, Carlos Guestrin, profesor de la Universidad de Washington, ha desarrollado un sistema informático que explica los resultados intermedios de sus cálculos. Este sistema se puede usar para analizar mensajes electrónicos. Si alguno de ellos es evaluado por una computadora como enviado por un terrorista condicional, entonces se dará una explicación de por qué se llega a tal conclusión.
Según el científico, las explicaciones deberían ser bastante simples y comprensibles. "Todavía no hemos alcanzado el sueño en el que AI solo habla contigo y puede explicarte", dice Guestrin. "Estamos apenas al comienzo de un largo viaje hacia la creación de una IA transparente".
Comprender las razones que llevaron a la IA a un resultado específico es importante si queremos hacer de la IA una parte de nuestras vidas y una parte útil. Esto es cierto no solo en el caso de los militares, sino que se aplica a Siri o cualquier otro asistente digital. Por ejemplo, si le pide a Siri que le dé una selección de restaurantes cercanos, entonces muchos quieren entender por qué se muestran estos restaurantes, y no otros. Un criterio importante para la implementación de la IA es la confianza humana en los sistemas informáticos.
Probablemente, todavía es imposible hacer que la computadora explique todas sus acciones y decisiones, porque, por ejemplo, las acciones y decisiones de cualquier persona a menudo son imposibles de entender. Dependen de una gran cantidad de factores. Y cuanto más compleja es la red neuronal, más factores tiene en cuenta y analiza.
Esto plantea una serie de cuestiones complejas de naturaleza ética y social. Por ejemplo, en el caso de los mismos militares, cuando se trata de crear tanques automatizados y otras máquinas de matar, es importante que sus decisiones cumplan con los estándares éticos humanos. De hecho, la muerte en sí misma puede no estar de acuerdo con los estándares éticos de muchos de nosotros. Pero estas decisiones deberían ser al menos aceptables para la mayoría. Aunque, ¿qué es esta mayoría? También una pregunta.
Daniel Dennett, filósofo de la Universidad de Tufts, dice: “Creo que si vamos a usar estas cosas y depender de ellas, entonces debemos entender cómo y por qué actúan de esta manera y no de otra manera. Si no pueden explicarnos mejor lo que están haciendo, entonces no confíen en ellos ".