Hay habilidades, pero no hay razón: tareas que la IA no puede hacer frente

"El automóvil debe decidir a quién sacrificar: los que están dentro del automóvil o los que se apresuraron bajo las ruedas", Tatyana Gavrilova, profesora del Departamento de Tecnología de la Información de la Universidad Estatal de San Petersburgo, explica qué algoritmos subyacen a la inteligencia artificial y qué dificultades enfrentan sus desarrolladores.

Del cerebro vivo a la inteligencia artificial.


En los últimos cinco años, una gran ola de publicaciones, discursos, temores, así como exageraciones, debates, exageraciones y publicidad agresiva se han incrementado en torno a la inteligencia artificial. Esto indica principalmente especulación y blasfemias. Los portales de noticias que compiten entre sí cuentan cómo una red neuronal aprendió otro truco increíble. Debe entenderse que una red neuronal artificial no es un modelo del cerebro. Los neurofisiólogos señalan que el mecanismo del cerebro aún no se conoce bien, y su modelo está lejos de la formalización matemática.

En 2013, la Comisión Europea evaluó el proyecto de investigación del Proyecto Cerebro Humano y asignó una subvención de $ 1 mil millones para investigación. El objetivo de este proyecto es crear un modelo informático completamente funcional del cerebro humano. Presente la complejidad del cerebro: cómo se conectan e interactúan las neuronas entre sí, cómo se forman los recuerdos y se toman las decisiones. En la Conferencia Europea de 2019, el neurocientífico, director y fundador de The Human Brain Project, Henry Markram, hizo una presentación. Él y el equipo mostraron imágenes del cerebro, iluminadas en un tomógrafo desde diferentes ángulos, enfatizando que cuanto más profundizaban en el cerebro, menos se hacía evidente cómo funciona. Todo este tiempo se han estado moviendo por el camino de la miniaturización, pero es obvio que se necesita un macromodelo del cerebro. Aquí puede hacer una analogía con la conocida metáfora: no importa cuánto se haya arrastrado la hormiga dentro del televisor, todavía no comprende qué tipo de dispositivo es.

Los chatbots hablan pero no entienden


El primer programa de conversación "Eliza" se desarrolló en los años 60. Su trabajo fue como una sesión de psicoterapia. Un ejemplo de diálogo podría verse así:
Hola Como te sientes
- Me duele la cabeza.
- ¿Con qué frecuencia sucede esto?
"Cada vez que hablo con mi madre".
"Tienes un problema con tu madre". Cuéntanos más sobre esto.

El programa contiene un conjunto de espacios en blanco. Identifica la palabra clave en cada oración y crea la ilusión de conversación, sin ningún significado en absoluto. Por lo tanto, Eliza podía mantener hábilmente una conversación durante varias horas, causando una buena impresión en las personas.

La Alice de hoy de Yandex es la misma Elisa, con una plataforma de servicio conectada y un vocabulario mucho más rico. Toda la inteligencia de tales bots de chat se reduce al reciclaje. Si marcamos para ellos las respuestas son malas, inadecuadas, las eliminará en el futuro y dejará las buenas que sean adecuadas. La verdadera racionalidad del programa, su capacidad no solo para determinar lo que se muestra en la imagen o para convertir el discurso oral en texto, sino para comprender el significado de la información y pensar, solo aparecerá cuando esté conectado a una base de conocimiento. Esta es una cierta comprensión del orden mundial. Ningún programa puede hacer esto todavía. La inteligencia artificial que trabaja con una base de conocimiento se llama AI simbólica (IA simbólica).

Ahora se usan activamente dos direcciones: red neuronal artificial y aprendizaje automático. Su desarrollo no se lleva a cabo en laboratorios científicos bajo la dirección de científicos, sino en empresas de TI. Los programadores y desarrolladores de redes neuronales artificiales admiten que no hay nada que pensar excepto el cerebro. Por lo tanto, si quieren crear un sistema inteligente, se ven obligados a simular el cerebro, porque no hay nada más. Pero un avance fundamental será para aquellos que pueden cruzar modelos de representación del conocimiento y aprendizaje automático.
Por cierto, algunas empresas ya están utilizando activamente robots para la inserción laboral. Son especialmente buenos en exámenes masivos, que reciben más de 1000 currículums. El robot analiza los cuestionarios y evalúa la relevancia de los candidatos, pero la persona aún toma la decisión final. Los científicos del Instituto de Tecnología de Georgia han descubierto en qué caso las personas confían voluntariamente en el robot. Esto sucede si se les dice de antemano que está diseñado para realizar una tarea específica. Tales robots también realizan entrevistas de fin de semana. Las personas tienen un diálogo más franco con la máquina sobre los motivos del despido y sobre las dificultades que encontraron en el proceso de trabajo. Por lo tanto, los robots recopilan comentarios muy buenos y, lo que es más importante, significativos. Además, la gente tiene miedo de mentirle a un robot. Piensan que los autos tienen más información. Por ejemplo, las dos preguntas principales para seleccionar a los tenderos fueron: ¿tiene antecedentes penales y bebe alcohol? Y las personas sin esconderse respondieron estas preguntas al robot.

¿Qué hay de malo con los drones?


Los vehículos modernos no tripulados son imperfectos y tienen varias desventajas. Las mentiras más obvias en la visión artificial. El problema ni siquiera está en la esfera técnica; el problema de la visión artificial no se ha resuelto conceptualmente. Las cámaras y sensores procesan ciertas señales con gran velocidad, como resultado de lo cual se forman imágenes binarias en la memoria de la computadora, que deben ser interpretadas. Esta es la principal dificultad. Si, por ejemplo, un peatón cruza la carretera, cualquier conductor lo considera fácilmente. No porque su visión sea mejor que la de la cámara de un dron, sino porque el conductor tiene en mente el modelo de una persona en movimiento. Los modelos de visión aún no existen. No se sabe cómo una persona procesa la información visual. Se están diseñando dispositivos de modelado que permiten con cierto grado de confianza reconocer una cantidad de objetos.

Imagine que le pide a una persona que no entiende nada en los automóviles que traiga la espoleta. Obviamente, él no podrá hacer esto. Porque no es mecánico de automóviles y no tiene un modelo de palanca en la cabeza. Pero si dices que se trata de una pieza de hierro de forma curva, una persona lo traerá. Todo el mundo sabe lo que es un trozo de hierro y comprende cómo es una "forma curva". Incluso después de la explicación, el robot no podrá hacer frente. Para hacer esto, debe entrenarlo, estableciendo los conceptos de todos estos objetos desde diferentes ángulos y con diferentes grados de acceso.

Mientras está en la oficina, una persona no tiene que alejar la silla de la mesa para identificar el artículo. Solo mira la parte de atrás. Solo porque las personas tienen un modelo completo de la silla y nosotros, en una parte, recreamos el conjunto. Sabemos que una silla es un atributo esencial del interior de una oficina. Por lo tanto, de una gran selección de objetos que se pueden recrear a partir de este fragmento, seleccionamos uno. No hay programas universales que puedan hacer esto. Ninguna inteligencia artificial ahora contiene un modelo del mundo y el conocimiento que le permite interpretar sin ambigüedad la imagen que ve.

Supongamos que, en algún lugar detrás de los arbustos, un hombre se escondió, listo para salir corriendo a la carretera. Parte de su cuerpo está escondido detrás de un denso follaje. La parte visible no será suficiente para que la máquina pueda considerar esto como un peligro potencial. Además, si ve un elefante escondido detrás de los arbustos, entonces probablemente decida que se trata de un hombre con una máscara de elefante, porque en nuestra área no se encuentran elefantes. Bueno, el auto ciertamente no tiene este conocimiento.

El problema de las interpretaciones se está acercando a su resolución, en cualquier caso hay avances. En el algoritmo de aprendizaje automático en muestras enormes, puede colocar 100 automóviles, y está claro que 101, incluso de una marca diferente, con una alta probabilidad, el programa reconocerá correctamente. Aunque este automóvil no se colocará específicamente en él. También vale la pena señalar que para la capacitación del programa es importante observar la variedad de selección. Si, por ejemplo, solo aprenderá el programa en sedanes, y luego se convertirá en un convertible, entonces probablemente no lo reconocerá, porque no había automóviles sin techo en la muestra.

El segundo desafío es un dilema ético en el que una máquina tiene que tomar una decisión moral. Digamos que los vehículos no tripulados llevan un pasajero. Un hombre saltó para encontrarse, y la única forma de evitar una colisión era conducir a un pilar cercano. El automóvil debe decidir a quién sacrificar: los que están dentro del automóvil o los que corren debajo de las ruedas. Esta es una tarea absolutamente insoluble para ella. Ya hay primeros accidentes e incluso víctimas. En Arizona, un SUV no tripulado propiedad de Uber golpeó a un peatón hasta la muerte. Su culpa es que lanzaron un algoritmo crudo que no pasó todas las pruebas en la pista.

El problema de los drones es, en primer lugar, la falta de ideas básicas sobre el mundo. La gente siempre toma decisiones en contexto. Ninguna inteligencia artificial tiene una imagen completa del mundo que una persona tiene a la edad de 18 años. Por esta razón, la licencia de conducir se emite precisamente a partir de los 18 años [en Rusia], aunque la visión ya está bien formada a los 14. Antes de llegar a la edad adulta, una persona no puede tomar decisiones informadas, incluidas las éticas y emocionales.

Estamos tratando con algoritmos muy jóvenes e inmaduros que requieren refinamiento. Pueden trabajar correctamente, pero exclusivamente bajo control humano.

Inteligencia Artificial Poligráfica


En el mercado de inteligencia artificial, las empresas líderes del mundo están invirtiendo activamente en el campo de la informática emocional. Esta tecnología revela los cambios más invisibles en las expresiones faciales. El programa selecciona un cierto número de puntos en la cara y lo compara con la base de datos de fotografías en las que ya se reconoce la emoción.

Microsoft dijo que tienen un algoritmo similar, pero no se lo dará al gobierno. Esta es una herramienta muy peligrosa que se puede usar contra los humanos. Imagina que entras en la oficina del jefe, y él ve que lo odias y piensas mal de él. Hay un serio problema ético.

Habrá muchos más programas similares de "reconocedores". Hermoso, maravilloso incluido. Serán útiles, especialmente en medicina. Los automóviles ya están ayudando a los médicos a diagnosticar enfermedades. Digamos que el programa estadounidense IBM Watson hace que los diagnósticos diagnósticos sean mejores que algunos médicos novatos. Como muestra de entrenamiento, se colocaron seis mil historias de casos. Este es un trabajo titánico y, por supuesto, mucho dinero.

¿Sabe la máquina cómo componer?


La máquina no puede generar algo cualitativamente nuevo. Letras originales, versos, composiciones musicales: todo esto se basa en el principio de permutación o, más simplemente, permutación. En cuanto a la poesía, el algoritmo de acciones es el siguiente: el programa encuentra momentos comunes y ciertas combinaciones. Toma palabras clave, agrega las palabras de otros autores y las retuerce al ritmo deseado. El idioma ruso es complejo, pero si no te importa la rima, entonces puedes "componer" un verso blanco.

Con la música aún es más fácil. El programa determina qué acordes son más característicos de un artista en particular y los usa, pero en una secuencia diferente. La base de esta "creatividad" es la combinación de la escala y el rechazo de la cacofonía abierta.
Hubo programas que compusieron cuentos populares. Para hacer esto, realizamos un análisis de los escenarios utilizando el libro de Vladimir Propp "Morfología de un cuento". Resultó que el modelo del desarrollo de eventos incluye varios elementos obvios: los cuentos de hadas siempre tienen personajes positivos y negativos. También hay un donante, un camino, un obstáculo y un final feliz al final. Una característica distintiva de tales cuentos fue el eclecticismo. El programa combinó a los héroes y sus acciones, contando, por ejemplo, sobre Iván el Loco, que está luchando con la Serpiente Gorynych. Una desventaja absoluta era el lenguaje pobre de la historia. Los oyentes se aburrieron. Un narrador viviente siempre agregará humor, y en algún lugar velocidad del discurso divertida. Por la misma razón, el programa no puede traducir metáforas o unidades fraseológicas a otros idiomas. Los traductores en línea trabajan con grandes volúmenes de información. Vale la pena señalar que la calidad de su traducción ha mejorado significativamente en los últimos años. Ahora no traducen cada palabra individualmente, como lo hicieron antes, sino que buscan una oración completa en algún lugar de los textos. La mayor dificultad surge con la semántica. Esto requiere una base de conocimiento para comprender el significado de las expresiones. Por ejemplo: las gallinas están listas para la cena. No está claro cómo traducir esta frase correctamente si no sabe dónde está la persona en ese momento: en la granja de pollos (los pollos están listos para la cena) o en un restaurante (los pollos están preparados para el almuerzo).

Sin conocimiento humano, ninguna actividad intelectual es posible. El conocimiento no puede ser reemplazado por nada. La pregunta es cómo digitalizar estas habilidades. Cómo convertir la experiencia en un esquema significativo que podría compartirse con la máquina.

Source: https://habr.com/ru/post/473564/


All Articles