¬ŅPor qu√© no deber√≠as esperar las manifestaciones morales de los robomobiles?



Desde que las compa√Ī√≠as comenzaron a desarrollar veh√≠culos rob√≥ticos, las personas comenzaron a hacer preguntas sobre c√≥mo los dise√Īadores resolver√°n los problemas morales , como a qui√©n debe matar un robot en caso de que un accidente sea inevitable. Un estudio reciente sugiere que esta pregunta puede ser a√ļn m√°s dif√≠cil de responder de lo que se pensaba anteriormente, ya que las preferencias morales de las personas var√≠an en los diferentes pa√≠ses.

Investigadores de la Universidad de Harvard y el MIT han desarrollado un juego en línea que simula situaciones en las que el accidente con las víctimas era inevitable. Entrevistaron a 40 millones de personas de 200 países y ofrecieron elegir varias opciones sobre cómo deberían terminar tales incidentes, por ejemplo, si los pasajeros de automóviles o los peatones deberían morir.

Como resultado, se descubrieron tres grupos culturales con preferencias éticas significativamente diferentes. Por ejemplo, en el grupo del sur (que incluye la mayor parte de América Latina y las antiguas colonias francesas), la mayoría prefería dejar a las mujeres en detrimento de los hombres. En el grupo oriental (que incluía muchos países islámicos, China, Japón y Corea), era menos probable que las personas votaran para salvar a los jóvenes en detrimento de los ancianos.

Los investigadores concluyeron que esta informaci√≥n deber√≠a influir en las decisiones de los desarrolladores de robomobiles. ¬ŅPero deber√≠a? Este trabajo, destacando el descubrimiento interesante de las diferencias globales en las preferencias morales, tambi√©n demuestra malentendidos persistentes con respecto a la IA y sus capacidades. Dado el nivel actual de tecnolog√≠a de IA utilizada en veh√≠culos rob√≥ticos, est√° claro que la m√°quina no puede tomar decisiones morales.

Fantasía de "máquinas morales"


Los robomobiles están entrenados para tomar decisiones sobre cuándo conducir y cuándo reducir la velocidad, utilizando un tipo especial de IA, también conocida como " IA débil (estrecha) " , que se centra en una tarea altamente especializada. Se desarrollan utilizando varios sensores, cámaras y láseres de rango (lidars) que proporcionan información a una computadora central. La computadora usa IA para analizar los datos de entrada y tomar decisiones.

Y aunque hoy esta tecnología es relativamente simple, como resultado, los automóviles pueden superar a una persona en las tareas más simples asociadas con la conducción de un automóvil. Pero no sería realista creer que los robomobiles deberían poder tomar decisiones éticas, para lo cual incluso las personas más morales no tendrían tiempo en caso de accidente. Si queremos esto de un automóvil, necesitará programar inteligencia artificial de propósito general (IION).

IION es equivalente a hacernos humanos. Esta es una oportunidad para hablar, disfrutar de la m√ļsica, re√≠rse de algo o juzgar la moral. Ahora es imposible hacer IION debido a la complejidad del pensamiento y las emociones humanas. Si exigimos la creaci√≥n de autom√≥viles aut√≥nomos con moralidad, tendremos que esperar varias d√©cadas, incluso si esto es posible.

Otro problema con el nuevo estudio es la naturaleza poco realista de muchas situaciones evaluadas por los participantes. En un escenario, se desarroll√≥ el conocido " problema del tranv√≠a ", y se pregunt√≥ a los participantes a qui√©n deb√≠a mover el autom√≥vil cuando fallaran los frenos: tres pasajeros (un hombre, una mujer y un ni√Īo) o tres peatones mayores (dos viejos y una vieja).

Las personas pueden reflexionar cuidadosamente sobre estos temas completando un cuestionario. Pero en la mayoría de los incidentes de la vida real, el conductor no tendrá tiempo para tomar esa decisión en esas fracciones de segundo por las que sucederá. Entonces, la comparación es incorrecta. Dado el nivel actual de tecnología de IA utilizada en vehículos robóticos, estos vehículos tampoco podrán tomar tales decisiones.


La inteligencia artificial estrecha permite a los robomobiles hacer juicios simples sobre los objetos circundantes

Los robomobiles modernos tienen capacidades complejas de percepci√≥n del mundo, y pueden distinguir a los peatones de otros objetos, como farolas o se√Īales de tr√°fico. Sin embargo, los autores del estudio creen que los robomobiles pueden, y tal vez incluso necesitan hacer diferencias m√°s profundas. Por ejemplo, podr√≠an apreciar el grado de utilidad de ciertas personas para la sociedad, por ejemplo, m√©dicos o atletas, y decidir salvarlos en caso de accidente.

La realidad es que para llevar a cabo un razonamiento tan complejo, deberá crear un IION, que es imposible hoy en día. Además, no está claro si esto debería hacerse en absoluto. Incluso si fuera posible hacer que el programa de la máquina sea una oportunidad para decidir a quién salvar la vida, creo que no se nos debería permitir hacer esto. No debemos permitir que las preferencias determinadas por el estudio, por grande que sea su selección, determinen el valor de la vida humana.

B√°sicamente, los robomobiles est√°n dise√Īados para evitar accidentes tanto como sea posible o para minimizar la velocidad de impacto. Aunque, como las personas, no podr√°n tomar decisiones basadas en la moralidad en caso de una colisi√≥n inminente. Sin embargo, los robomobiles ser√°n m√°s seguros que los autom√≥viles conducidos por personas, m√°s atentos, su velocidad de reacci√≥n ser√° mayor y podr√°n utilizar todo el potencial del sistema de frenado.

Hasta ahora, el mayor problema ético en el campo de los robomobiles es si se ha reunido suficiente evidencia en las simulaciones de su comportamiento seguro para poder liberar robomobiles en las calles. Pero esto no significa que serán "morales", o podrán convertirse en tales en el futuro cercano. Decir lo contrario es confundir una conducción angosta de IA, con un IION, que probablemente no aparecerá durante nuestras vidas.

En √ļltima instancia, los robomobiles ser√°n m√°s seguros que los humanos. Esto se lograr√° gracias a su dise√Īo y la capacidad de evitar incidentes con todas sus fuerzas, o para reducir da√Īos en caso de inevitabilidad. Sin embargo, las m√°quinas no pueden tomar decisiones morales donde nosotros tampoco. Esta idea sigue siendo una ficci√≥n, y no debes esperarla. En cambio, nos centramos en la seguridad: la fe en ella estar√° justificada.

Source: https://habr.com/ru/post/441704/


All Articles