¿Por qué no deberías esperar las manifestaciones morales de los robomobiles?



Desde que las compañías comenzaron a desarrollar vehículos robóticos, las personas comenzaron a hacer preguntas sobre cómo los diseñadores resolverán los problemas morales , como a quién debe matar un robot en caso de que un accidente sea inevitable. Un estudio reciente sugiere que esta pregunta puede ser aún más difícil de responder de lo que se pensaba anteriormente, ya que las preferencias morales de las personas varían en los diferentes países.

Investigadores de la Universidad de Harvard y el MIT han desarrollado un juego en línea que simula situaciones en las que el accidente con las víctimas era inevitable. Entrevistaron a 40 millones de personas de 200 países y ofrecieron elegir varias opciones sobre cómo deberían terminar tales incidentes, por ejemplo, si los pasajeros de automóviles o los peatones deberían morir.

Como resultado, se descubrieron tres grupos culturales con preferencias éticas significativamente diferentes. Por ejemplo, en el grupo del sur (que incluye la mayor parte de América Latina y las antiguas colonias francesas), la mayoría prefería dejar a las mujeres en detrimento de los hombres. En el grupo oriental (que incluía muchos países islámicos, China, Japón y Corea), era menos probable que las personas votaran para salvar a los jóvenes en detrimento de los ancianos.

Los investigadores concluyeron que esta información debería influir en las decisiones de los desarrolladores de robomobiles. ¿Pero debería? Este trabajo, destacando el descubrimiento interesante de las diferencias globales en las preferencias morales, también demuestra malentendidos persistentes con respecto a la IA y sus capacidades. Dado el nivel actual de tecnología de IA utilizada en vehículos robóticos, está claro que la máquina no puede tomar decisiones morales.

Fantasía de "máquinas morales"


Los robomobiles están entrenados para tomar decisiones sobre cuándo conducir y cuándo reducir la velocidad, utilizando un tipo especial de IA, también conocida como " IA débil (estrecha) " , que se centra en una tarea altamente especializada. Se desarrollan utilizando varios sensores, cámaras y láseres de rango (lidars) que proporcionan información a una computadora central. La computadora usa IA para analizar los datos de entrada y tomar decisiones.

Y aunque hoy esta tecnología es relativamente simple, como resultado, los automóviles pueden superar a una persona en las tareas más simples asociadas con la conducción de un automóvil. Pero no sería realista creer que los robomobiles deberían poder tomar decisiones éticas, para lo cual incluso las personas más morales no tendrían tiempo en caso de accidente. Si queremos esto de un automóvil, necesitará programar inteligencia artificial de propósito general (IION).

IION es equivalente a hacernos humanos. Esta es una oportunidad para hablar, disfrutar de la música, reírse de algo o juzgar la moral. Ahora es imposible hacer IION debido a la complejidad del pensamiento y las emociones humanas. Si exigimos la creación de automóviles autónomos con moralidad, tendremos que esperar varias décadas, incluso si esto es posible.

Otro problema con el nuevo estudio es la naturaleza poco realista de muchas situaciones evaluadas por los participantes. En un escenario, se desarrolló el conocido " problema del tranvía ", y se preguntó a los participantes a quién debía mover el automóvil cuando fallaran los frenos: tres pasajeros (un hombre, una mujer y un niño) o tres peatones mayores (dos viejos y una vieja).

Las personas pueden reflexionar cuidadosamente sobre estos temas completando un cuestionario. Pero en la mayoría de los incidentes de la vida real, el conductor no tendrá tiempo para tomar esa decisión en esas fracciones de segundo por las que sucederá. Entonces, la comparación es incorrecta. Dado el nivel actual de tecnología de IA utilizada en vehículos robóticos, estos vehículos tampoco podrán tomar tales decisiones.


La inteligencia artificial estrecha permite a los robomobiles hacer juicios simples sobre los objetos circundantes

Los robomobiles modernos tienen capacidades complejas de percepción del mundo, y pueden distinguir a los peatones de otros objetos, como farolas o señales de tráfico. Sin embargo, los autores del estudio creen que los robomobiles pueden, y tal vez incluso necesitan hacer diferencias más profundas. Por ejemplo, podrían apreciar el grado de utilidad de ciertas personas para la sociedad, por ejemplo, médicos o atletas, y decidir salvarlos en caso de accidente.

La realidad es que para llevar a cabo un razonamiento tan complejo, deberá crear un IION, que es imposible hoy en día. Además, no está claro si esto debería hacerse en absoluto. Incluso si fuera posible hacer que el programa de la máquina sea una oportunidad para decidir a quién salvar la vida, creo que no se nos debería permitir hacer esto. No debemos permitir que las preferencias determinadas por el estudio, por grande que sea su selección, determinen el valor de la vida humana.

Básicamente, los robomobiles están diseñados para evitar accidentes tanto como sea posible o para minimizar la velocidad de impacto. Aunque, como las personas, no podrán tomar decisiones basadas en la moralidad en caso de una colisión inminente. Sin embargo, los robomobiles serán más seguros que los automóviles conducidos por personas, más atentos, su velocidad de reacción será mayor y podrán utilizar todo el potencial del sistema de frenado.

Hasta ahora, el mayor problema ético en el campo de los robomobiles es si se ha reunido suficiente evidencia en las simulaciones de su comportamiento seguro para poder liberar robomobiles en las calles. Pero esto no significa que serán "morales", o podrán convertirse en tales en el futuro cercano. Decir lo contrario es confundir una conducción angosta de IA, con un IION, que probablemente no aparecerá durante nuestras vidas.

En última instancia, los robomobiles serán más seguros que los humanos. Esto se logrará gracias a su diseño y la capacidad de evitar incidentes con todas sus fuerzas, o para reducir daños en caso de inevitabilidad. Sin embargo, las máquinas no pueden tomar decisiones morales donde nosotros tampoco. Esta idea sigue siendo una ficción, y no debes esperarla. En cambio, nos centramos en la seguridad: la fe en ella estará justificada.

Source: https://habr.com/ru/post/441704/


All Articles