¬ŅPor qu√© un autom√≥vil autom√°tico cl√°sico es imposible y no tiene perspectivas comerciales?

¬ŅPor qu√© un autom√≥vil autom√°tico cl√°sico es imposible y no tiene perspectivas comerciales?




Aquellos que siguen las innovaciones automotrices al menos un poco saben bien que un autom√≥vil autom√°tico completo debe conducir por las carreteras durante mucho tiempo. Pero su apariencia cada 5 a√Īos, se transfiere constantemente por otros 5 a√Īos. Obviamente, algo va mal, e incluso los optimistas m√°s obstinados est√°n atormentados por vagas dudas, y aquellos que recuerdan el "invierno de la inteligencia artificial", por lo general caen en una penumbra. La inteligencia artificial se top√≥ con una barrera de comprensi√≥n . Es obvio que si Google (Weimo) con sus capacidades ilimitadas no hizo nada adem√°s de los costosos juguetes en 10 a√Īos, entonces es hora de reconocer que con las tecnolog√≠as actuales de inteligencia artificial, un autom√≥vil autom√°tico comercial de quinto nivel (AA) completo. imposible de hacer Indirectamente, esto se reconoci√≥ incluso en Weimo, y en las √ļltimas pruebas en diciembre de 2018 (Waymo lanz√≥ un servicio de taxi no tripulado pagado en los EE. UU.), El conductor fue devuelto al volante (en cada autom√≥vil, por si acaso, los conductores se pondr√°n al volante para que puedan responder a la fuerza - una situaci√≥n importante o una falla de un sistema no tripulado). Y art√≠culos que en 2019 un AA de pleno derecho se alej√≥ de nosotros, y no m√°s cerca, ya no gana un mont√≥n de desventajas (el 5to nivel va m√°s lejos, no m√°s cerca) .

En este art√≠culo, analizaremos los obst√°culos insuperables que han surgido durante numerosos y largos intentos de crear un AA cl√°sico. Es decir, hablaremos sobre el estado actual de las cosas hoy, y no sobre las promesas publicitarias de un futuro m√°s brillante en N a√Īos.

¬ŅY qu√© es un autom√≥vil autom√°tico (AA) en general?


En opini√≥n del lego, este es un autom√≥vil controlado por una computadora, es decir, una cierta Inteligencia Artificial (IA). De ah√≠ la soluci√≥n obvia: hacemos una IA normal , la conectamos a una c√°mara est√©reo rotativa, la ponemos en cualquier autom√≥vil, la enviamos a cursos de capacitaci√≥n de manejo ordinarios y conseguimos un conductor calificado. Sin embargo, no vemos nada parecido a esta decisi√≥n. Es decir, la IA existente no puede competir con el conductor humano. Por lo tanto, los desarrolladores de AA se ven obligados a hacer trampa, ofreciendo una especie de sustituto (un mont√≥n de sensores caros, redes neuronales que no entienden qu√© y c√≥mo hacer, etc.). Tenga en cuenta que todo esto es una soluci√≥n temporal hasta que aparezca una IA completa (fuerte). Con el advenimiento de los cuales, todos estos raros y lidares caros ser√°n descartados como innecesarios (una persona prescinde de ellos). Es decir, el enfoque cl√°sico para crear AA en s√≠ huele a alg√ļn tipo de enga√Īo. Averig√ľemos por qu√©.

Comencemos con lo que definimos, ¬Ņy qu√© queremos decir con AA de pleno derecho del quinto nivel? Con esto queremos decir un cierto complejo automatizado (ACS) capaz de conducir un autom√≥vil en condiciones reales de la carretera con las caracter√≠sticas de un conductor humano promedio. El problema surge de inmediato: ¬Ņqu√© tipo de bestia es un "conductor promedio"? ¬ŅEs esta la temperatura promedio en un hospital? Pero propongo dejar la soluci√≥n a este problema a los gerentes de relaciones p√ļblicas, y simplificando enormemente la tarea, compare AA con el nivel de un conductor novato que solo recibi√≥ una licencia de conducir y, en consecuencia, el acceso a la v√≠a p√ļblica.

Es decir, compararemos el controlador novato y el piloto automático más avanzado, ni siquiera uno específico, sino el más potencialmente posible en el nivel actual de desarrollo tecnológico. Para hacer esto, debe crear una tabla comparativa de todas las características de conducir un conductor humano novato y el piloto automático más perfecto.



Y que vemos Que de acuerdo con un criterio (responsabilidad), AA, en principio, no podrá alcanzar el nivel de incluso un conductor novato. Es decir, estrictamente hablando, el AA clásico nunca puede alcanzar el nivel de un conductor novato, incluso teóricamente.

O tal vez ella, esta responsabilidad? Vamos a hacerlo bien. Vemos que incluso las características potenciales del piloto automático son "buenas", pero no "excelentes". Porque en todas partes hay restricciones insuperables . Brevemente:

La precisión del control depende de la información sobre la superficie de la carretera. Y en el caso general, esta información no está completa.

La evaluación de la situación del camino en el caso general se basa en información incompleta y, en consecuencia, no puede ser precisa.

Tomar una decisión con una falta de información generalmente inevitable es de naturaleza probabilística y no se puede garantizar que sea correcto, incluso teóricamente.

Como resultado, es obvio que incluso un piloto automático ideal no puede garantizar la ausencia de un accidente, incluso teóricamente.

Entonces, ¬Ņqui√©n ser√° responsable de las inevitables v√≠ctimas de un accidente de tr√°fico?


Por lo tanto, cuando los pr√≥ximos especialistas en relaciones p√ļblicas le digan que un AA completo ya est√° completamente listo, pero estos son solo problemas con las leyes arcaicas, no lo crea. Si los fabricantes asumieran la responsabilidad a nivel de un conductor humano, las leyes cambiar√≠an instant√°neamente . Pero la realidad es que todav√≠a no hay un AA real, y ya hay cad√°veres de sus "falsificaciones", y nadie quiere responder por ellos. Musk dijo que no ten√≠a nada que ver con eso, pero este imb√©cil era el culpable, quien no se dio cuenta de que el "piloto autom√°tico" de Tesla no era un piloto autom√°tico, sino un "piloto autom√°tico TM", es decir, solo una mentira publicitaria llamada el nombre de un asistente de conductor com√ļn. Y era necesario creer no en Ilon Mask y el anuncio, sino en lo que estaba escrito en letra peque√Īa al final ( toda la responsabilidad recae en el conductor humano ).

Por lo tanto, el problema de responsabilidad del AA clásico no puede resolverse ni siquiera teóricamente. Por lo tanto, un AA clásico completo es imposible, incluso teóricamente .

Esto, por cierto, no significa que no se pueda fabricar o incluso vender, significa que primero , tendr√° que resolver de alguna manera el problema de la responsabilidad, o vender la forma de deshacerse de esta responsabilidad.

Y aquí entendemos que es muy difícil hacer esto de manera natural (sin directivas estatales directas).

Adem√°s, el problema es a√ļn peor. Responsabilidad, esto es una consecuencia del establecimiento de la culpa. Pero este es un gran problema ahora. Por un lado, la presencia de una caja negra en AA simplifica esta tarea y, por otro lado, la complica, ya que toda la informaci√≥n del fabricante de AA es informaci√≥n de la parte interesada . No tiene que ir muy lejos por ejemplos: naturalmente, cambiar el autom√≥vil al modo diesel no se reflej√≥ en los registros. Y quiz√°s a√ļn peor, se puede escribir informaci√≥n falsa a sabiendas en los registros. Aqu√≠ est√° la p√°gina del informe de la investigaci√≥n de pegado del acelerador:



Diapositiva 14 del informe: puede aparecer un cuadro negro sobre lo que hizo clic el controlador.

Y luego, los fabricantes de AA son compa√Ī√≠as de estados espec√≠ficos, de qu√© manera los estados apoyar√°n, en el √ļltimo turno prestando atenci√≥n a la verdad. Por ejemplo, en casos muy similares, Toyota y GM, las autoridades estadounidenses toman decisiones significativamente diferentes.



Permíteme recordarte brevemente que hubo un error técnico allí y allí, ellos sabían de él, lo escondieron durante mucho tiempo, y los que hablaron de esto fueron despedidos.

C√≥mo se resolver√° este problema, los especialistas en relaciones p√ļblicas no nos lo dicen.

Pero supongamos que todav√≠a encontramos a AA culpable. ¬ŅQu√© hacer a continuaci√≥n? Necesitamos averiguar la raz√≥n, pero aqu√≠ entendemos que el pseudo III actual, es decir, las redes neuronales, en principio, no puede explicar por qu√© se tom√≥ la decisi√≥n incorrecta, lo que condujo al accidente.

Una peque√Īa digresi√≥n sobre las redes neuronales. Sus problemas son bien conocidos por los especialistas en el "Renacimiento de la IA": nada m√°s que hardware costoso y publicidad lanzada para implementar la vieja idea . Y muchos ya est√°n comenzando a hablar abiertamente sobre el segundo invierno de la IA. Si explica con los dedos, entonces necesita saber una cosa sobre las redes neuronales: que estas son solo estad√≠sticas multidimensionales. No menos, pero no m√°s. Por lo tanto, sus capacidades y limitaciones son obvias:

  1. Al igual que cualquier estad√≠stica, dependen mucho de los datos de entrada, es decir, incluso peque√Īos cambios en los datos de entrada pueden cambiar seriamente el resultado final.
  2. Como esto es empírico, y no analítico, además multidimensional, los desarrolladores, en principio, no entienden cómo funciona una red neuronal y qué elementos afectan qué. Esto puede ilustrarse con cualquier fórmula empírica compleja, que es un polinomio con muchos coeficientes. En general, es imposible entender de qué es responsable un coeficiente particular y cómo, de lo contrario, sería posible escribir una fórmula analítica simple.
  3. De los dos primeros puntos, se deduce que cualquier cambio en los datos de entrada requiere una prueba completa de todo el sistema. De lo contrario, resulta que al corregir un error, podemos agregar otros errores que no existían antes. Es decir, los resultados de pruebas anteriores pierden su significado.
  4. La recopilación adecuada de datos primarios es insoportable organizativamente y económicamente.

Como resultado, el enfoque cl√°sico para la resoluci√≥n de problemas no funciona. Y como resultado, cada nueva versi√≥n del software no es un hecho que ser√° mejor que la anterior. ¬ŅC√≥mo, entonces, certificar AA?

Pero todos consideramos la situación bajo el supuesto de que, desde un punto de vista técnico, el AA ideal ya existe. Pero esto está lejos del caso. Aquí hay algunas razones, cada una de las cuales, si no pone fin al enfoque clásico, al menos pospone la decisión y aumenta el costo del AA final . Y ahora es muy caro.

Imposible ver todo desde el auto


El problema en la forma cl√°sica no tiene soluci√≥n en absoluto, ya que simplemente no existen tales sensores por dinero. Por lo tanto, en el caso general, AA debe tomar decisiones en condiciones de falta de informaci√≥n, es decir, pensar en lo que est√° a la vuelta de la esquina. ¬ŅUna persona es responsable de estos pensamientos y una computadora? Tenga en cuenta que, dependiendo de la responsabilidad real, la misma persona con la misma experiencia y calificaciones toma decisiones fundamentalmente diferentes en la carretera real y en el simulador de autom√≥viles. Y si el conductor todav√≠a se ve obligado a responder por una gran cantidad de pasajeros, entonces debe obtener una categor√≠a adicional de licencia de conducir. Por lo tanto, la responsabilidad es un criterio de gesti√≥n fundamental, del que dependen directamente otras caracter√≠sticas de gesti√≥n . Y AA cl√°sico est√° completamente desprovisto de este criterio crucial.

Es imposible tomar decisiones sin siquiera una IA completa, pero una conciencia artificial completa


imagen

Y en situaciones peligrosas esto a menudo se requiere. Por ejemplo, seguir reglas escritas (frenamos directamente) y reglas no escritas (dejamos de lado) conducir√≠a a un accidente. Y un desv√≠o a la izquierda con una salida al carril que se aproxima permiti√≥ evitar un accidente. Obviamente, el problema sin una conciencia artificial completa no tiene soluci√≥n, ya que requiere una decisi√≥n sobre la violaci√≥n intencional de las normas de tr√°fico en ausencia de informaci√≥n. ¬ŅQui√©n ser√° responsable de las consecuencias, dada la falta real de informaci√≥n y pron√≥sticos probabil√≠sticos?

No hay camino correcto


Es f√°cil adivinar que el problema de resolver situaciones de conflicto entre AA y un conductor humano no puede resolverse sin ambig√ľedades (una persona siempre afirmar√° que estar√≠a de acuerdo en interactuar con otra persona). La soluci√≥n de este problema en la corte es muy problem√°tica, ya que es poco probable que el juez sea objetivo. Dado que el juez puede estar en el lugar del conductor de la persona, pero nunca en el lugar de la computadora del conductor.

Resultar√° toda la amante que no se adapta al propietario


El AA real solo puede programarse para el cumplimiento estricto de las reglas de tr√°fico , que, desafortunadamente, no difieren en rigor y falta de ambig√ľedad. Por lo tanto, AA har√° hipertrofia para cumplir con la regla "dar el camino al tonto". Y, por supuesto, los tontos-conductores usar√°n esto, cortando a AA con impunidad. Y se frenar√°, dejando que todos avancen. ¬ŅQu√© tan r√°pido se aburrir√° el due√Īo de AA?

No se puede garantizar la seguridad (que no se estrellar√°n contigo)


El problema del carro, que no tiene una solución segura, garantiza a las víctimas por culpa de AA. Naturalmente, los conductores profesionales que se queden sin trabajo utilizarán cualquier accidente por presión política sobre las autoridades para prohibir AA. Pero estos son votantes reales.

Inaceptablemente baja confiabilidad e inmunidad al ruido


Absolutamente todos los sensores AA se atascan o enga√Īan f√°cilmente. Por lo tanto, deshabilitar todos los AA en cualquier parte del camino es muy simple y econ√≥mico. Les damos a los ni√Īos "reflectores l√°ser" para la bicicleta y les pedimos que vayan por la carretera. Dispersamos WiFi, GPS, ruido blanco para el radar de un quadrocopter en los √°rboles. Dibujamos las marcas viales "originales". Modificamos levemente las se√Īales de tr√°fico, confundiendo las c√°maras de video ordinarias. Tesla puede enga√Īar a un kit de $ 40 de Arduino y un transmisor ultras√≥nico que genera ondas de sonido: el autom√≥vil no podr√° encontrar un espacio de estacionamiento gratuito ni perder obst√°culos reales . Barato y efectivo. ¬°Y no consideramos hackers en absoluto! Estos son solo neoluditas.

Los conductores humanos profesionales están categóricamente en contra y desalentarán


Por lo tanto, mediante una interferencia simple y barata (una guerra electrónica tan simple), puede garantizar la detención de cualquier AA. Que en tales condiciones no podrá funcionar ni siquiera teóricamente, pero un conductor humano sí . Trate de encontrar al menos una razón por la cual las personas que se quedan sin trabajo no usen este método. Pero nadie necesita transporte que pueda detenerse en cualquier momento por tiempo indefinido. Y los taxistas, personas que han elevado los precios en este momento, reducirán rápidamente a cero la cantidad de personas que desean ahorrar en taxis AA.

Hackers


Incluso ahora, cientos de compa√Ī√≠as de docenas de pa√≠ses hacen AA. ¬ŅC√≥mo verificar, certificar y dar servicio a todo esto? Pero, ¬Ņc√≥mo certifica el software que se actualiza constantemente por aire? ¬ŅC√≥mo garantizar que el pr√≥ximo empleado ofendido no haya filtrado los c√≥digos de acceso? En el futuro, todos los pilotos autom√°ticos ser√°n reparados en los servicios provinciales de autom√≥viles. ¬ŅC√≥mo controlar qu√© firmware se instalar√° all√≠? ¬ŅQui√©n ser√° responsable de este firmware? El conductor dir√° que lo pusieron en el servicio y no sab√≠a nada sobre el modo activado de Dios, pens√© que este es el caso con todos. Es decir, una gran cantidad de problemas de seguridad, y lo que sea que uno diga, ¬°el AA cl√°sico es solo el sue√Īo de un hacker! Un buen objetivo para los piratas inform√°ticos: c√≥mo enga√Īar a la IA y hacer que tome decisiones peligrosas

En pocas palabras: para AA clásico, hay muchos problemas técnicos y legales que hoy no tienen una solución aceptable . Teóricamente, por supuesto, todo se puede resolver o "suavizar", pero requerirá mucho tiempo y dinero.

Y aquí caemos al suelo. Es decir, de "¡guau! AA "a" y a expensas de quién es el banquete "? En realidad, hay muchos costos adicionales significativos que no están incluidos en el precio de AA:

  1. AA en sí. Es caro, pero al menos honestamente.
  2. Mapas precisos de alta resoluci√≥n. ¬ŅY c√≥mo mantener su relevancia? Hay dos formas y ambas son malas. Primero, reunir a la propia empresa con el fabricante de AA. ¬ŅPero cu√°ntos autos necesitas para esto? La segunda forma, deja que los autos se monten. Pero c√≥mo determinar la fiabilidad de estos datos (y no los piratas inform√°ticos o los competidores est√°n tratando de ense√Īarle a su red neuronal lo malo). Es decir, estos datos deber√°n verificarse seriamente, y todos los cheques requieren dinero. Pero la cuesti√≥n de la relevancia real de estas tarjetas en el caso general no tiene soluci√≥n alguna para ning√ļn dinero .
  3. Estas tarjetas precisas deben cargarse a trav√©s de redes inal√°mbricas, de lo contrario, en principio, no pueden ser relevantes. Entonces, resulta que todav√≠a necesitamos Internet de banda ancha en todas partes, e incluso en las carreteras federales no tenemos comunicaciones celulares en todas partes. ¬ŅA expensas de qui√©n? Tenga en cuenta que incluso las raras actualizaciones de Tesla solo se pueden hacer a trav√©s de WiFi gratuito. Esto no quiere decir que esto no se dice en absoluto. Pero en el mejor de los casos, aqu√≠ y all√° en letra peque√Īa y siempre sin especificar un precio.

  4. 4) seguro de accidentes. Por alguna raz√≥n, se cree que el seguro puede resolver el problema de la responsabilidad. Pero esto no es as√≠, el seguro solo distribuye la responsabilidad a un gran n√ļmero de personas inocentes. Naturalmente, los propietarios de Tesla no querr√°n ser responsables de los errores del Kamaz no tripulado y viceversa. Es dif√≠cil decir c√≥mo van las cosas, pero en la etapa inicial el seguro ser√° prohibitivo (millones de d√≥lares por auto para pruebas en California). Y luego el cl√°sico c√≠rculo vicioso (peque√Īo AA, seguro costoso, seguro costoso, peque√Īo AA). Adem√°s, la misma afirmaci√≥n de que el AA cl√°sico es m√°s seguro que una persona no se basa en ning√ļn hecho, ya que no pueden estar a la vista de la ausencia de AA real .

¬ŅY de d√≥nde viene el mito sobre la eficiencia econ√≥mica de AA?


A primera vista, obviamente, tiramos al conductor, ahorrando en su salario. Pero en realidad, no todo es tan simple. Despu√©s de todo, no solo tiramos al conductor, tiramos a la persona. Y para el cami√≥n, la √ļnica persona en el auto. ¬°Pero este es un sue√Īo de ladrones! Silenciamos la comunicaci√≥n, simulamos un accidente, detenemos un vag√≥n no tripulado en una carretera vac√≠a. Cargamos carga, eliminamos lidares, radares, etc. Prendimos fuego y nos vamos. Y todo esto se puede clasificar como ni siquiera el robo, sino el vandalismo. No hay hombre all√≠, as√≠ que no hay robo.
Nos quitamos los lidars para jugar para experimentos. Y la carga fue robada por personas al azar. Y contrarrestar tal escenario es muy difícil. Dado que los atacantes bloquearán la conexión regularmente y en muchos lugares, es físicamente imposible enviar una policía antidisturbios para cada caso.
Poner equipo de defensa en el autom√≥vil tampoco es una opci√≥n, ya que usted ser√° responsable de los ni√Īos muertos, especialmente enmarcados por los atacantes.

Por lo tanto, una persona en cualquier caso debería ser. Sí, puede que no sea un conductor, sino un promotor. Pero la presencia de una persona inevitablemente requiere un régimen de trabajo y descanso. Es decir, la principal ventaja de AA es que el trabajo las 24 horas desaparece .

Pero, ¬Ņqu√© pasar√≠a si varios vagones se aferraran firmemente a los piratas inform√°ticos y bloquearan completamente el camino durante mucho tiempo, por ejemplo, una ambulancia? Es decir, en el futuro previsible en cada autom√≥vil deber√≠a . , , , . , , , . , , . , .

: , . , ? . , , . !

( ) .

: , . , , , .

Un automóvil automático clásico aumentará los atascos y complicará su regulación:


Pero supongamos que todos los problemas anteriores se resolvieron milagrosamente de alguna manera y tenemos una autonom√≠a completa de AA de quinto nivel sin volante ni pedales. Wow! Wow! ¬ŅPero qui√©n lo necesita, qui√©n paga por √©l? Naturalmente, el proceso no suceder√° instant√°neamente y alguien seguramente se encontrar√° con estas timideces de un lado a otro, pero la l√≥gica de introducir AA cl√°sico se presenta de la siguiente manera:

  1. La tecnología es más efectiva en un taxi automático.
  2. La falta de salario para el conductor reducir√° dr√°sticamente el precio del viaje.
  3. Esto aumentar√° dram√°ticamente la demanda de pasajeros de transporte p√ļblico. Uber ha demostrado que un taxi barato no se transfiere desde autom√≥viles privados, sino desde el transporte p√ļblico.
  4. De acuerdo con el modelo de Uber, la demanda satisfactoria, las empresas y los propietarios privados aumentar√°n dr√°sticamente la cantidad de taxis autom√°ticos.
  5. , ( 80% , ).
  6. , , ( ). , , ( , ).
  7. ( Vision Zero). , ! , , .
  8. ( , , , ). , .

, :


  1. , ¬ę ¬Ľ. , - - . , , - . , . , , .
  2. , ¬ę ¬Ľ. ¬ę¬Ľ , , .
  3. , . , , , .
  4. , .

¬ę ¬Ľ, , . , . , . , Vision Zero .

, _ , , LSE Cities_ ‚ÄĒ , , , , , . , . ¬ę ¬Ľ, , , . .

: , , , , . , , . , .

, :

  1. ?
  2. , ?

. , , .

PS ¬ę ¬Ľ, .

.

Source: https://habr.com/ru/post/441602/


All Articles