¿Es posible introducir la ética en el algoritmo de los robomobiles?
Por el asesinato cometido por un robot robótico, el programa (y los programadores) serán juzgados
Año 2034. Un hombre borracho deambula por la acera por la noche, tropieza y cae justo en frente del robot robótico, que lo golpea y lo mata en el acto. Si hubiera una persona detrás del volante de un automóvil, la muerte se reconocería como un accidente, ya que la culpa recaería en el peatón y ningún conductor podría esquivarlo. Pero las normas para el "conductor promedio" (el término " persona razonable " está presente en la legislación extranjera ) desaparecieron en la década de 2020, cuando la propagación de robomobiles redujo el número de accidentes en un 90%. Ahora tenemos que hablar sobre el "robot promedio".La familia de la víctima está demandando al fabricante de vehículos robóticos, afirmando que aunque el automóvil no tuvo tiempo de frenar, podría rodear a un peatón, cruzar un doble sólido y colisionar con un robot que se aproxima. La reconstrucción del incidente sobre la base de sensores robóticos de vehículos confirma esto. El abogado del demandante, interrogando a un desarrollador líder de software para automóviles, pregunta: "¿Por qué el automóvil no se dio la vuelta?"Hoy, el tribunal no pregunta a los conductores por qué hicieron algo o no. El tema es discutible, ya que la persona está equivocada: el conductor puede entrar en pánico, no pensar en ello, reaccionar por instinto. Pero cuando el robot conduce el automóvil, la pregunta es "¿por qué?" bastante aceptable Los estándares éticos de las personas, que no están bien detallados en las leyes, hacen muchos supuestos diferentes a los que los ingenieros simplemente no han llegado. El más importante de ellos: una persona puede entender cuándo debe desviarse de la letra de la ley para preservar su espíritu. Ahora los ingenieros necesitan enseñar a las máquinas y otros robots cómo tomar decisiones inteligentes.La informatización del proceso de control comenzó en la década de 1970, cuando aparecieron los sistemas de frenos antibloqueo . Ahora, cada año hay novedades como la dirección automática, la aceleración automática y el frenado de emergencia. La prueba de máquinas totalmente automáticas, aunque con la participación de un conductor humano, ya está permitida en algunos lugares en Gran Bretaña, Holanda, Alemania y Japón. En los Estados Unidos, está permitido por ley en cuatro estados y el Distrito de Columbia, y al menos no está prohibido en el resto. Google, Nissan y Ford afirman que los robomobiles aparecerán en 5-10 años.Los vehículos automáticos recopilan información ambiental de sensores: cámaras de video, telémetros ultrasónicos, radares, lidares. En California, los robomobiles deben proporcionar al Departamento de Transporte todos los datos del sensor 30 segundos antes de cualquier colisión que ya se haya acumulado lo suficiente, incluida la colisión causada por la máquina de Google . Los ingenieros tienen la oportunidad de recuperar eventos en el área de colisión con bastante precisión, utilizando registros de lo que la máquina podría capturar, las alternativas que considera y la lógica del comportamiento. Se puede hacer que la computadora repita su razonamiento, la forma en que se le puede pedir que haga que la persona que jugó el juego o el simulador de manejo.Los reguladores y los litigantes podrán mantener estándares de seguridad sobrehumanos para vehículos robóticos y examinar a fondo las colisiones que ocurrirán de todos modos, aunque raramente. Los fabricantes y programadores protegerán las acciones de sus productos de una manera que los conductores de hoy nunca han soñado.Conducir siempre es un riesgo, y las decisiones sobre su distribución entre conductores, peatones, ciclistas y propiedades contienen un componente ético. Tanto para los ingenieros como para todas las personas, es importante que el sistema de toma de decisiones de la máquina evalúe las consecuencias éticas de sus acciones.
Colisión de Google Car con un autobúsLa respuesta habitual a situaciones moralmente ambiguas es seguir la ley mientras se minimiza el daño. La estrategia es atractiva: no solo permite al desarrollador defender fácilmente las acciones del automóvil (“Seguimos la ley por completo”), sino que también transfiere la responsabilidad de determinar la ética a los legisladores. Desafortunadamente, también impone demasiada carga a la ley.Por ejemplo, en la mayoría de los estados, la ley se basa en el sentido común de los conductores y dice poco sobre el comportamiento antes de una colisión. En el ejemplo descrito, el automóvil, siguiendo estrictamente la letra de la ley, no cruza el doble sólido, arriesgándose a una colisión con un borracho, aunque solo hay un robomóvil vacío al otro lado de la carretera. La ley rara vez hace excepciones en situaciones de emergencia específicas, como una persona que se cae en la carretera, y si lo hace, como es el caso, por ejemplo, en Virginia, el texto de la ley implica que cruzar un doble sólido es legal hasta que el auto se estrella. ("Si tal movimiento se puede hacer con seguridad"). En este caso, los desarrolladores tendrán que decidir, en cuyo caso será seguro cruzar el doble sólido.Un Robomobile rara vez estará 100% seguro de que la carretera está vacía y puede cruzar un doble sólido sin temor. Calificará el nivel de confianza en 98%, o 99.99%. Los ingenieros deberán decidir de antemano qué nivel de confianza será suficiente para cruzar un doble sólido y cómo el valor aceptable puede variar según lo que el robot esté intentando evitar en el camino: si es una bolsa de plástico o un peatón caído.Los robomóviles ya están tomando decisiones sobre la posibilidad de violar la ley. Google admitióque sus autos pueden exceder la velocidad para mantenerse en la corriente, donde reducir la velocidad es peligroso. La mayoría de las personas preferiría exceder la velocidad en diversas situaciones, por ejemplo, cuando intentan correr al hospital. Chris Gerdes [Chris Gerdes] y Sarah Thornton de la Universidad de Stanford contra la inclusión estricta de las leyes en los algoritmos de toma de decisiones, porque los conductores parecen considerar las leyes lo suficientemente flexibles como para evaluar el costo de romperlas en comparación con la ganancia potencial en velocidad Nadie quiere gatear después de un ciclista durante varios kilómetros debido al hecho de que su automóvil se niega a llamar al menos un poco por un doble sólido.E incluso cumpliendo con la ley, el robot robótico puede tomar muchas decisiones pequeñas que son sensibles desde el punto de vista de la seguridad. Por lo general, los carriles en la carretera tienen casi el doble de ancho que un automóvil típico, y los conductores pueden usar este ancho para evitar la basura o alejarse de los automóviles que conducen de manera desigual.En la patente de 2014, Google desarrolla esta idea y describe cómo se puede colocar un robot robótico en una franja para reducir los riesgos. La compañía da un ejemplo de un robot robótico en una carretera de tres carriles con un camión a la derecha y un automóvil pequeño a la izquierda. Para optimizar la seguridad, el robot robótico debería haberse movido un poco hacia la izquierda, más cerca en una máquina pequeña.Se ve saludable, y generalmente todos lo hacen, consciente o inconscientemente. Pero surgen preguntas éticas. Moviéndose hacia la pequeña máquina, el robot robótico redujo el riesgo, pero lo distribuyó de manera desigual. ¿Debería una máquina pequeña asumir un mayor riesgo solo porque es pequeña? Si se tratara de preferencias para un conductor en particular, no significaría nada. Pero si dicha redistribución se formaliza y se extiende a todos los robomobiles, las consecuencias serán más graves.En cada ejemplo, el robot robótico tiene en cuenta varios valores: el valor del objeto que puede golpear y el valor de su pasajero. Las personas toman decisiones instintivamente, y el robot lo hará sobre la base de una estrategia de gestión de riesgos cuidadosamente pensada que define el riesgo como la cantidad de daño de un evento indeseable, multiplicado por su probabilidad.En 2014, Google también patentó una aplicación de gestión de riesgos. La patente describe una máquina que puede decidir reconstruir para ver mejor el semáforo. O el automóvil puede decidir permanecer en el carril para evitar el riesgo de una colisión, por ejemplo, debido a las indicaciones de un sensor defectuoso, pero a costa de esto, habrá poca visibilidad del semáforo. El resultado de cualquiera de las decisiones es la probabilidad asignada, así como el valor positivo o negativo (ventaja o pérdida). Cada valor se multiplica por la probabilidad, y los valores obtenidos se pueden sumar. Si los beneficios superan las pérdidas lo suficiente, la máquina maniobrará.El problema es que el riesgo de colisión es muy pequeño: el conductor promedio en los EE. UU. Tiene un accidente una vez cada 257,000 kilómetros, o una vez cada 12 años ( en Rusia, una vez cada 1.6 años. Quizás esta diferencia se deba al hecho de que en los Estados Unidos las personas viajan mucho más a menudo en la carretera, aprox. Por lo tanto, incluso comenzando a recibir una gran cantidad de datos de los robomóviles cuando salen a la calle, podremos obtener estimaciones de las probabilidades de varios eventos muy pronto.Estimar el costo del daño es aún más difícil. El daño a la propiedad es fácil de evaluar: las aseguradoras tienen una amplia experiencia en este asunto, pero las lesiones y las muertes son otro asunto. La historia de la apropiación de la vida de una persona de cualquier valor tiene muchos años, y generalmente se expresa en la cantidad de dinero que podría gastarse para prevenir a la víctima promedio. Una mejora de seguridad, con una probabilidad del 1% de salvar la vida de 100 personas, es una víctima promedio. El Departamento de Transporte recomienda gastar $ 9.1 millones para evitar víctimas. El número se deriva de los datos de marketing, incluidas las asignaciones que las personas requieren para trabajos peligrosos y las cantidades que las personas están dispuestas a gastar en equipos de seguridad, por ejemplo, detectores de humo. Debe sopesar no solo la seguridad, sino también la pérdida de movilidad o tiempo,gastado en el camino, que el Departamento estima en $ 26.44 por hora.En palabras, todo se ve hermoso. Pero la evaluación de riesgos en vidas perdidas y el tiempo pasado en el camino no incluye diferentes evaluaciones morales de cómo ponemos a las personas en riesgo. Por ejemplo, un robot robótico, que evalúa la vida de todas las personas por igual, tendría que dar más espacio a un motociclista sin casco que a un motociclista en plena marcha, ya que el primero tendrá menos probabilidades de sobrevivir. Pero esto es injusto: ¿es posible castigar por cuidar su seguridad?Otra diferencia entre la ética de los robots y los humanos es que los programadores pueden distorsionar la ética de los primeros, incluso por una buena razón. Imagine que el algoritmo ajustó el tamaño de la zona de amortiguamiento para los peatones en diferentes áreas sobre la base del análisis de la cantidad de compensación por reclamos presentados por los peatones en un accidente. Por un lado, es razonable, eficiente y bien intencionado. Por otro lado, las sanciones más pequeñas pueden depender del ingreso promedio de las personas en un área en particular. Luego, el algoritmo castigará a los pobres dándoles una zona de amortiguación más pequeña, lo que aumenta ligeramente su riesgo de ser derribados.Existe la tentación de dejar de lado preguntas como las puramente académicas, pero no puede evitarlas, porque los programas toman todo literalmente. Tendrá que evaluar las consecuencias de las acciones antes de que se deban realizar, en la etapa de desarrollo y no en la etapa de creación de parches para el software.En parte debido a esto, los investigadores utilizan situaciones hipotéticas en las que una máquina debe elegir entre dos males. Una de las tareas más famosas de este tipo es el problema de un carro.Un pesado carro no controlado se transporta sobre rieles. En el camino hay cinco personas atadas a los rieles por un filósofo loco. Afortunadamente, puede cambiar la flecha, y luego el carro irá por una ruta diferente y alternativa. Desafortunadamente, hay una persona en el revestimiento, también atada a los rieles. ¿Cuales son tus acciones?¿Sacrificarás una vida por varias? Si no, debido a su inacción, la gente seguirá muriendo, entonces, ¿cómo puede lidiar con esta contradicción?Se han escrito libros sobre los temas de tales experimentos, y le permiten probar sistemas simples y directos que manejan problemas éticos y encontrar áreas en las que sería bueno profundizar en algunos de los matices. Supongamos que programamos un robot robótico para evitar a toda costa a los peatones. Si un peatón aparece repentinamente en un túnel de dos carriles y el automóvil no puede frenar a tiempo, tendrá que apagar el carril, incluso si se encuentra en el camino de un autobús con pasajeros. La probabilidad de tal evento no es tan importante como el problema que expone en la lógica del automóvil robot: que la superioridad absoluta del valor de un peatón sobre todas las demás personas que usan la carretera puede ser muy peligrosa.La ética en robótica es una tarea solucionable. Sabemos esto porque en otras áreas ya hemos encontrado la oportunidad de manejar aproximadamente los mismos riesgos y beneficios de manera segura y razonable. Los órganos de los donantes se distribuyen a los pacientes en función de una métrica calculada a partir de los años potenciales de vida y la calidad de vida. Las personas de profesiones tan necesarias como granjero y maestro están exentas del reclutamiento militar.Las tareas de los robomobiles son más complicadas. Deben decidir rápidamente, basándose en información incompleta, en situaciones que los programadores podrían no haber previsto utilizando una ética que debe incorporarse al algoritmo de manera demasiado literal. Afortunadamente, la gente no espera de ellos una sabiduría sobrehumana, solo una justificación racional de las acciones de una máquina que evalúa cuestiones éticas. La solución no debe ser perfecta, sino reflexiva y que pueda protegerse.Source: https://habr.com/ru/post/es395143/
All Articles