Una vez más sobre inteligencia artificial


Fuente


Las montañas se alzaban enormemente en el umbral.
Caigo al pie de mi mejilla.
Y esa margarita aún no ha crecido
En lo que me digo.


Robert navidad


La Inteligencia Artificial (IA) o Inteligencia Artificial (AI) es una tecnología de rápido crecimiento de la que vale la pena hablar aún más a menudo de lo que es hoy. Se está desarrollando rápidamente junto con tecnologías complementarias como redes neuronales y aprendizaje automático (a las que se ha conectado recientemente Internet de las cosas (IoT)) y, según los rumores, incluso se hará cargo de todo el mundo. Y con nuestra ayuda directa. Están constantemente hablando y escribiendo sobre ella, escribiendo y hablando. La IA ya se utiliza en modelos complejos, en juegos, en diagnósticos médicos, en motores de búsqueda, en logística, en sistemas militares y mucho más, y promete en el futuro previsible cubrir y posiblemente "traspalar" todo el panorama postindustrial. E incluso comenzó a escribir obras literarias como estas: “Había una vez un caballo dorado con una silla de oro y una hermosa flor morada en el pelo. El caballo trajo una flor al pueblo, donde la princesa comenzó a bailar al pensar en lo hermoso y bueno que se veía el caballo ".


Que puedo decir "Caballos, ellos son". Sí, y las princesas se encuentran, como saben, más en las aldeas ... Sin embargo, AI tiene la capacidad de aprender, a diferencia del inolvidable Lapis Trubetskoy de Ilf y Petrov que se les ocurrió desde las líneas anteriores. "El primer panqueque tiene grumos" ocurre no solo en la literatura, por lo tanto, todos los demás fanáticos de la IA también deben prepararse para él.


Y, sin embargo, la IA es un mantra que los tecnólogos, académicos, periodistas y capitalistas de riesgo repiten de vez en cuando para llamar la atención sobre los problemas de la humanidad y sobre uno mismo y sus seres queridos. Algunos expertos frente a conocidos representantes de la ciencia y los negocios, como Stephen Hawking, Bill Gates y Elon Musk, recientemente se han preocupado por el futuro de la IA, ya que el desarrollo adicional de las tecnologías de IA puede abrir la caja de Pandora cuando la IA se convierte en la forma dominante de "vida" en nuestro planeta Otros expertos están preocupados por el desarrollo de estándares éticos para frenar el poder destructivo de la IA (sin embargo, la IA aún no ha destruido nada), y lo dirige a servir al bien común de la civilización.


Pero el Pentágono, por ejemplo, ya ha decidido que la IA es un área clave en la que es necesario hacer un esfuerzo máximo para evitar que China y Rusia avancen. En este sentido, en los Estados Unidos, bajo el liderazgo del Secretario de Defensa, se está creando un centro de inteligencia artificial apropiado.


Actualmente, una parte importante de lo que se llama IA en la esfera pública es solo el llamado "aprendizaje automático" (ML - Machine Learning). En particular, con la ayuda de la tecnología Big Data ML, permite que un programa informático aprenda de todos los datos recopilados y emita predicciones / pronósticos con mayor precisión a medida que están capacitados para su uso en la toma de decisiones automática (o bajo control humano). En general, ML es un campo algorítmico que combina ideas de estadísticas, informática y muchas otras disciplinas para desarrollar algoritmos que le permitan hacer lo anterior.


Por cierto, ML no nació hoy. Su papel en la industria generalmente se entendía a principios de la década de 1990, y para fines del siglo XX, compañías prometedoras como Amazon ya habían usado ML en todo su negocio, resolviendo problemas críticos con la detección de fraude, pronosticando cadenas de suministro o haciendo recomendaciones a los consumidores A medida que los volúmenes de datos y los recursos informáticos de las computadoras crecieron rápidamente durante las próximas dos décadas, quedó claro que pronto ML administraría no solo Amazon, sino casi cualquier compañía en la que las soluciones pudieran estar vinculadas a datos a gran escala. Como especialistas en el campo de los algoritmos de ML colaboraron con especialistas en el campo de bases de datos y sistemas distribuidos para crear sistemas de ML escalables y confiables, los límites sociales y ambientales de los sistemas resultantes se ampliaron. Hoy, es esta fusión de ideas y tendencias tecnológicas lo que se llama IA.


Por otro lado, históricamente, el término AI apareció a fines de la década de 1950, por lo que en el surgimiento de las ideas que aparecieron con respecto al desarrollo de la cibernética (en su mayor parte donde no se consideraba "pseudociencia") sumergirse en un alma tan intoxicante de un científico Implementar en software y hardware una entidad con inteligencia cercana a la inteligencia humana. La revolución parecía tan cercana, y la esencia racional artificial debería habernos parecido a uno de nosotros, si no físicamente, al menos mentalmente. El nuevo término fue recogido inmediatamente por los escritores de ciencia ficción, pero en la vida real los creadores de las "nuevas esencias" no se acercaron realmente al éxito del Señor o simplemente a los éxitos de la Naturaleza (como es común con los ateos).


En aquellos días, el término IA se usaba en un "alto nivel", acercándose a la capacidad de las personas de "razonar" y "pensar". Según los expertos, a pesar del hecho de que han pasado casi 70 años desde entonces, todas esas discusiones e ideas de alto nivel pasadas siguen siendo esquivas y no han recibido ninguna implementación de software y hardware. En contraste con las expectativas entusiastas del pasado, toda la IA "real" de hoy se ha formado principalmente en las áreas de tecnología relacionadas con el reconocimiento de patrones de bajo nivel y el control de movimiento. Y en parte en el campo de las estadísticas en relación con las disciplinas centradas en la búsqueda de patrones de datos y la creación de pronósticos relacionados lógicamente. Es decir, la tan esperada revolución en la IA aún no ha sucedido.


Sin embargo, a diferencia del cerebro humano, sobre el cual existe nuestro intelecto, la IA no depende de los átomos de carbono, la vida de las proteínas y todo tipo de restricciones evolutivas. Gracias a esto, puede aprender y mejorar continuamente y, al final, permitirá que la humanidad resuelva muchos problemas apremiantes, desde el cambio climático hasta el cáncer. Esta opinión es compartida, en particular, por Max Tegmark, físico del MTI y cofundador del llamado "Instituto para el Futuro de la Humanidad". En una entrevista con The Verge, Tegmark presentó su visión de tres formatos de vida evolutivos (en nuestro planeta).


La vida 1.0 es característica de las bacterias, que Tegmark llama "pequeños átomos unidos en un algoritmo de autorregulación simple". Las bacterias no pueden aprender nada nuevo durante su vida, y los mecanismos de su trabajo son extremadamente primitivos: solo pueden girar en la dirección donde hay más alimentos. A su vez, el desarrollo de su "software" (los científicos modernos ahora dividen fácilmente todo lo que existe en software y hardware) solo es posible dentro del marco de los cambios evolutivos.


La vida 2.0 está encarnada en las personas. Y, a pesar del hecho de que una persona también tiene una evolución del cuerpo rígidamente definida y limitada - "hierro", también tiene una gran ventaja en la forma de una mente más perfecta - "software" que le permite aprender por sí mismo. Gracias a la capacidad de mejorar su software a su propia discreción, ganando conocimiento y no esperando el desarrollo evolutivo, las personas comenzaron a dominar este planeta, crearon la civilización y la cultura modernas. Sin embargo, a pesar de todas las ventajas, nuestra mejora tiene un límite. Es por eso que, con el tiempo, la vida 2.0 será reemplazada por una vida menos limitada 3.0 (teniendo en cuenta lo anterior, hacer tales declaraciones sería algo precipitado).


Life 3.0 se caracteriza por el hecho de que en él no solo hay limitaciones evolutivas, sino también biológicas. AI, a diferencia de los formatos anteriores, podrá desarrollar tanto su software como su hardware. Por ejemplo, instalar más memoria para memorizar un millón de veces más información o ganar más potencia informática (por cierto, sería interesante ver si Tegmark tiene un conector USB en algún lugar detrás de la oreja). A diferencia de la vida 3.0, nosotros, contentos con la vida 2.0, aunque podemos mantener nuestros latidos con marcapasos o facilitar la digestión con una tableta, no podemos realizar cambios fundamentales en nuestros cuerpos. Bueno, tal vez una pequeña corrección con la ayuda de cirujanos plásticos o la implantación de chips. No tenemos la oportunidad de aumentar seriamente nuestro crecimiento o acelerar el pensamiento miles de veces en nuestros propios cerebros. La inteligencia humana funciona en las conexiones neuronales biológicas, y el volumen de nuestro cerebro es limitado, de modo que al nacer la cabeza puede atravesar la abertura de nacimiento de la madre. La IA no está limitada por nada y se puede mejorar sin cesar, explica el científico.


Sin embargo, parece que Tegmark de alguna manera no tiene en cuenta el progreso en el diseño genético: la hora es desigual, las personas aún aprenden a ajustar sus cuerpos para crecer piernas largas, tentáculos tenaces, aumentar la apertura del nacimiento o agregar mente a aquellos que realmente carecen.


Tegmark señala que muchas personas hoy perciben la mente como una propiedad misteriosa de los organismos biológicos. Sin embargo, según él, estas ideas son erróneas. "Desde el punto de vista de un físico, la mente es solo el procesamiento de la información que realizan las partículas elementales que se mueven de acuerdo con ciertas leyes físicas", dice. Las leyes de la física no impiden de ninguna manera la creación de máquinas que sean muy superiores a los humanos en inteligencia (sería bueno saber con mayor precisión qué es la inteligencia). Además, enfatiza Tegmark, no hay evidencia de que la mente dependa de la presencia de materia orgánica:


“No creo que haya una salsa secreta en la que los átomos de carbono y la sangre deben estar presentes. Me pregunté muchas veces cuál podría ser el límite de la inteligencia desde el punto de vista de la física, y cada vez que llegué a la conclusión de que si ese límite existe, entonces estamos muy, muy lejos de él. Ni siquiera podemos imaginarlo. Sin embargo, estoy seguro de que es la humanidad la que respirará en el Universo lo que luego se convertirá en la vida 3.0, y esto, desde mi punto de vista, suena muy romántico ".


En respuesta, quiero agregar no menos romántico, pero ¿fuimos llamados con nuestra IA con todas nuestras "grietas"? En cuanto a las "grietas". Si la vida 3.0 no conoce las limitaciones, entonces sería bueno saber cuáles: ¿en engaño, en indiferencia, en maldad? ¿Y tal vez en la capacidad de matar? Exactamente los mismos problemas son confrontados regularmente por representantes individuales de la raza humana, que una y otra vez sucumben a la tentación.


“Nos enfrentamos a las limitaciones de nuestras mentes cada vez que realizamos una investigación en particular. Por eso creo que tan pronto como logremos combinar nuestra propia mente con IA, tendremos enormes oportunidades para resolver casi todos los problemas ", dice Tegmark, y como sabemos, las personas tienen muchos problemas.
Pues bien. Para hacer esto, no es necesario, como dicen, ir lejos. En los últimos 20 años, tanto en la industria como en la academia, se ha logrado un progreso significativo en la creación de la llamada "mejora de inteligencia" o IA (Amplificación de Inteligencia). En este caso, los cálculos y los datos se utilizan para crear servicios que complementan la inteligencia y la creatividad humana. El motor de búsqueda también puede considerarse como un ejemplo de IA (aumenta la memoria humana y el conocimiento real), así como una traducción natural del idioma (aumenta la capacidad de comunicación de una persona). La generación de sonidos e imágenes sirve como paleta y amplificador de creatividad para los artistas. Si bien los servicios de este tipo pueden incluir ideas y razonamientos de alto nivel, este no es el caso actualmente. Básicamente, se trata de realizar varias comparaciones de conjuntos de datos con patrones u operaciones numéricas. Quizás veamos algunos servicios en la nube, como InaaS (Intellect-as-a-Service) que ayudan al usuario a ser más sabio en diferentes áreas de conocimiento, pero esto solo será el desarrollo de motores de búsqueda, pero en ningún caso un reemplazo para la inteligencia humana.


También existe una cosa "inteligente" como "Infraestructura inteligente" (II - Infraestructura inteligente), en la que coexisten redes de informática, datos y objetos físicos y que comienza a aparecer en áreas como el transporte, la medicina, el comercio y las finanzas. Todo esto es de gran importancia para las personas y las comunidades. A veces, el concepto II surge en las conversaciones sobre cosas de Internet, pero generalmente se refiere al simple problema de tener "cosas" en Internet, y no a resolver un conjunto significativo de problemas asociados con estas "cosas" para analizar flujos de datos y descubrir sus conexiones con dispositivos externos. el mundo e interactuar con personas y otras "cosas" en un nivel de abstracción mucho más alto que solo bits. En general, IA y II todavía no son una IA "real".


¿Y qué es una inteligencia "real"? ¿Es necesario imitarlo en el marco de la creación de IA? Por supuesto, la inteligencia humana es el único tipo de inteligencia que conocemos. Pero también sabemos que, de hecho, las personas no están muy familiarizadas con ciertos juicios: tenemos nuestras propias omisiones, prejuicios y limitaciones. Sucede que la gente comete errores. Además, críticamente, no evolucionamos para cumplir con los tipos de toma de decisiones a gran escala que enfrentan los sistemas modernos con el papel de la IA. Por supuesto, puede argumentar razonablemente que el sistema de IA no solo imita la inteligencia humana, sino que también la complementa, corrige y luego escalará para resolver los problemas arbitrariamente grandes que enfrenta la humanidad. Pero, lo siento, esto ya es del reino de la ciencia ficción. Y tales argumentos especulativos que han alimentado la ficción durante 70 años no deberían convertirse en la estrategia principal para la formación de IA. Obviamente, IA y II continuarán desarrollándose, resolviendo sus problemas particulares, pero sin pretender convertirse en una IA "real". Hasta ahora, estamos muy lejos de al menos la implementación de una IA "simuladora de humanos".


Además, el éxito en IA y II no es suficiente ni necesario para resolver problemas importantes de IA. Si recurrimos a vehículos no tripulados, entonces para la implementación de dicha tecnología será necesario resolver una serie de problemas técnicos que pueden tener muy poca relación con las competencias humanas. Es más probable que un sistema de transporte inteligente (y este es el Sistema II) se parezca más a un sistema de control de tráfico aéreo existente que a una población de conductores de personas poco acoplados, auto orientados y generalmente desatentos. Más precisamente, será mucho más complicado que el sistema de control de tráfico aéreo actual, al menos en términos de uso de grandes cantidades de datos y modelos estadísticos adaptativos para informar sobre decisiones privadas para cada maniobra de cada automóvil.


Sin embargo, a pesar de la actitud generalmente optimista con respecto al futuro de la IA, los expertos reconocen que la IA conlleva serios riesgos. Recuerdo que Stephen Hawking y otros creían que la IA sería el peor o el mejor fenómeno en la historia de la humanidad. Además, cuando las personas hablan sobre la automatización total actual de los trabajos, a menudo olvidan que es mucho más importante mirar hacia adelante para comprender lo que sucederá después.


En esta ocasión, Tegmark dijo: “El hecho es que hoy nos enfrentamos a preguntas que debemos responder antes de que salga a la luz la primera superinteligencia. Además, estas preguntas son bastante complicadas, quizás podamos responderlas no antes de 30 años después. Pero tan pronto como los resolvamos, podemos protegernos de las amenazas ". “¿Cómo podemos asegurar la confiabilidad de los futuros sistemas de IA cuando hoy nuestras computadoras son muy fáciles de descifrar? ¿Cómo hacer que la IA entienda nuestros objetivos si se vuelve más inteligente que nosotros? ¿Cuáles deberían ser los objetivos de la propia IA? ¿La inteligencia artificial será capaz de resolver las altas tareas que muchos programadores estadounidenses esperan hoy, o la IA de repente pensará como un partidario de un IS prohibido en la Federación de Rusia o una persona de la Edad Media? ¿Cómo cambiará nuestra sociedad después de la invención de la IA? - Cuando su computadora se congela, comienza a ponerse nervioso porque ha perdido una hora de trabajo. Pero imagine que estamos hablando de la computadora de a bordo del avión en el que está volando, o del sistema responsable del arsenal nuclear en los Estados Unidos; esto ya es mucho peor ".


Pero, ¿quién, por ejemplo, debe responder si la IA o el robot armado con él realizan una acción que ha lastimado a las personas? Esta acción puede ser aleatoria, pero es una de las muchas preguntas que enfrenta el público sobre la autonomía y la responsabilidad de la IA, cuando sus formas más avanzadas, por ejemplo, autos autónomos (tal vez los primeros robots en los que aprendemos a confiar), drones o incluso herramientas de guerra, están cada vez más extendidos. Los expertos en IA y derecho están tratando de resolver esto, pero no ven una respuesta simple. En cualquier caso, la cuestión sigue siendo legalmente difícil. ¿Cómo, por ejemplo, separar las áreas de responsabilidad del programador y el propietario, dado que los robots y la IA aprenden de su entorno?


, , . , «» . . . – , . , ? , , . - .


, , «» ( , ). , , , ., «» . , , , , , . , , . - .


, , ? , «» , . ( ), , , « » , . , . , «» , . , «» «» … « »? , , , , . . , . - - ?


Quizás algún día algún tipo de tecnología inalámbrica y servicios en la nube permitirán dar inteligencia a cualquiera. Y luego todo a su alrededor se volverá inteligente y educado. Solo que esto ya no será necesario para nadie. La IA te dirá que tu tren, camaradas, ya se ha ido. ¿Qué nos quedará? - Bueno, al menos una canción:


Soñé con los mares y los corales.
Soñé con comer sopa de tortuga.
Entré en el barco, y el barco
salió del periódico de ayer ...


Basado en materiales : radio.ru, The Verge, hightech.fm, vz.ru, anews.com, pcweek.ru, medium.com, Defense News


Alexander Golyshko, Ph.D., analista de sistemas

Source: https://habr.com/ru/post/es423567/


All Articles