
¿Qué sensores serán los más importantes en vehículos no tripulados? Esos sensores que controlan el llamado sistema de percepción, y esto es lo más importante en la conducción. La tarea del sistema de percepción es detectar todos los objetos importantes en o cerca de la carretera, por ejemplo, otros vehículos, peatones, basura y, en algunos casos, objetos de la carretera, como señales y marcas de carriles.
(El posicionamiento en la carretera también depende de los sensores).
El sistema de percepción debe detectar todos los obstáculos e intentar identificarlos. Ella necesita medir su velocidad y dirección, y también predecir su movimiento. Esta es una tarea muy difícil.
Dos errores clave en el sistema de percepción son los falsos positivos (ceguera) y los falsos positivos (objetos fantasmales).
La respuesta negativa falsa es una situación en la que no se detectó un obstáculo. Esto puede llevar a consecuencias desastrosas si el sistema funciona de esta manera durante tanto tiempo que no puede evitar el obstáculo de manera segura. Un buen sistema casi nunca producirá un resultado falso negativo. Puede tomar un par de minutos adicionales reconocer un obstáculo, puede perder algo debido a destellos repentinos, pero los errores repetidos pueden provocar un accidente. Al decir "nunca", me refiero a "casi nunca", del orden de la unidad a muchos millones.
Un resultado falso positivo es otro tipo de error. En su caso, el sistema ve algo que en realidad no está allí, y esto obliga al automóvil a frenar o colapsar. Esto molesta a los pasajeros y, si no están abrochados, puede provocar lesiones. También puede provocar un accidente si el otro automóvil viaja muy cerca o con frenadas y curvas demasiado bruscas. Por lo general, estos casos no son peligrosos, pero si esto sucede con demasiada frecuencia, los usuarios abandonarán el sistema.
La clasificación incorrecta también se asocia con los errores anteriores. Una clasificación incorrecta significa que el ciclista se confundió con un peatón, o que dos motocicletas se confundieron con un automóvil. Incluso sin una identificación precisa, la máquina sabe cómo no chocar contra un obstáculo, pero el sistema puede determinar incorrectamente dónde se está moviendo o cuál es la mejor manera de responder.
Otra clase de errores son las fallas completas. El sensor o su software pueden funcionar mal o pueden no funcionar correctamente. Sorprendentemente, esto es permisible con mayor frecuencia que la ceguera, porque el sistema sabrá que el sensor está fuera de servicio y no aceptará sus datos. En este caso, dependerá de los sensores de reserva o se esforzará por salir del camino lo antes posible utilizando otros sensores, si esto no es suficiente. Aunque esto tampoco debería ocurrir con demasiada frecuencia, de lo contrario las personas dejarán de confiar en el sistema.
Hay muchos sensores importantes para vehículos no tripulados, pero los más investigados y discutidos son los lidars y las cámaras.
Lidar es un radar basado en la luz. El sensor envía pulsos cortos de luz láser invisibles para el ojo y detecta cuánto tiempo vuelve la luz reflejada. Por lo tanto, el sistema reconoce el brillo y el rango del objetivo con bastante precisión.
Lidar tiene grandes ventajas:- Es extremadamente confiable para detectar varios objetos de tamaño suficiente y calcula su distancia, tamaño y posición muy cerca del 100% de confiabilidad.
- El resultado del LIDAR es un mapa 3D del mundo que lo rodea. Es fácil seleccionar algo de los objetos detrás del sensor (o en frente de él)
- Lidar utiliza luz emitida, por lo que funciona independientemente de la luz ambiental. De día o de noche, nublado o soleado, el cielo está nublado o el sol brilla: el lidar ve casi lo mismo en todas las condiciones.
- Es resistente a las interferencias y tiene una resolución mucho más alta que el radar.
- Algunos lidares pueden determinar la velocidad de un objeto usando el efecto Doppler.
Sin embargo, hay desventajas:- Inicialmente, los lidars eran muy caros. Los lidares de alta resolución se produjeron en pequeñas cantidades y cuestan más que los automóviles (los nuevos modelos aparecen a un precio de menos de $ 1000)
- Bastante modesta resolución. Los mejores dispositivos reciben una imagen de 128 píxeles en escaneo vertical con una frecuencia de 10 Hz.
- El rango es limitado. Los lidares medianos ven a una distancia de 70-100 metros y reciben menos retorno de objetos grandes como automóviles a una distancia de aproximadamente cien metros. Algunos afirman que trabajan hasta 200 metros, pero esto es dudoso. Los lidares de 1,5 micras, que son aún más caros, pueden ver más.
- La mayoría de los lidares tienen partes móviles para escanear el mundo. Los lidares flash no tienen partes móviles, pero ahora son aún más caros (en los lidars de estado sólido de nueva generación, el número de partes móviles se minimiza o se eliminan por completo).
- La frecuencia de actualización suele ser menor. Además, mientras el LIDAR escanea la escena, está distorsionado debido al movimiento de automóviles escaneados y otros objetos, y dado que los diferentes bordes de la escena se escanean en diferentes momentos, se produce un desplazamiento.
- Los lidares pueden encontrar problemas con fuertes lluvias, nieve y niebla, aunque otros sensores de luz, incluidas las cámaras, se comportan de manera similar. Los lidares a veces también pueden desencadenar cosas invisibles como gases de escape.
- Los lidares se montan mejor afuera. Necesitan todos los fotones, así que no los debiliten instalándolos detrás del parabrisas.
Cámaras
Los sistemas basados en cámaras se comportan como humanos. Una o más cámaras observan la escena, y el software intenta hacer lo mismo que una persona: imaginar y comprender un mundo tridimensional a partir de una imagen bidimensional.
- Las cámaras son realmente baratas. El equipo cuesta solo decenas de dólares, puede tener muchos de ellos.
- Dado que las cámaras que son sensibles a la luz visible usan la luz reflejada, pueden ver una distancia arbitraria durante el día si tienen un campo de visión bastante estrecho y se pueden dirigir. Por la noche, deben usar luz transmitida, como sus faros.
- Ellos ven los colores. Los lidares perciben sombras de gris en el espectro infrarrojo.
- A menos que las cámaras estén guiadas, no tienen partes móviles; de lo contrario, pueden recibir una imagen de alta resolución incluso para objetos remotos. Incluso en acceso amplio hay cámaras con una resolución muy alta, mientras que el LIDAR ve 64 líneas, la cámara ve 3000.
- Debido a la alta resolución y el color, las cámaras pueden sacar conclusiones sobre escenas que no se pueden obtener de la imagen de baja resolución obtenida del LIDAR.
- Las cámaras pueden ver semáforos, dimensiones, intermitentes y otras fuentes de luz emitida. Las cámaras son excelentes para leer personajes.
Sin embargo, las cámaras tienen algunos inconvenientes, y la primera estropea mucho:- Hoy en día, la visión por computadora no funciona lo suficientemente bien como para detectar todas las características importantes con la confiabilidad necesaria para una conducción segura.
- Las cámaras deberían funcionar con iluminación cambiante. Los objetos observados a menudo están sujetos al movimiento de las sombras, y también pueden encenderse desde cualquier dirección (o no encenderse en absoluto).
- Por la noche, las cámaras necesitan iluminación adicional, y los faros pueden no ser suficientes.
- Las tareas de visión por computadora requieren procesadores de alto rendimiento o chips específicos para operar al nivel de los requisitos actuales.
Visión por computadora
El procesamiento de imágenes de la cámara se puede dividir aproximadamente en dos categorías: "visión por computadora" y "visión artificial". La visión artificial se refiere a un análisis simple y localizado de imágenes digitales. Incluye tareas como buscar detalles y bordes de una imagen, determinar el movimiento y paralaje del movimiento, y también aplicar paralaje a imágenes estéreo para determinar la distancia. Estos métodos están bastante bien establecidos, y muchos de ellos son bastante comprensibles. Algunas tareas de visión artificial (como reconocer y leer señales de tráfico) son más difíciles, pero se resolverán pronto.
La visión por computadora se refiere a un conjunto más complejo de tareas que requieren habilidades similares a las humanas, incluida la capacidad de comprender imágenes. Estas tareas también implican habilidades como la capacidad de dividir la imagen en segmentos y reconocer objetos. Puede mostrar la imagen de otra persona a una persona que se encuentra en casi cualquier situación y bajo cualquier luz, y el observador puede determinar fácilmente qué persona está en la imagen, e incluso a qué distancia se encuentra. Incluso podemos determinar a qué atención se dirige y qué hace la persona representada. Los algoritmos en esta área son cada vez mejores, pero aún no están en un nivel suficiente.
Algunas tareas llegaron a la zona fronteriza. Las herramientas de visión artificial buscan detalles en la imagen y lo hacen independientemente del tamaño y la orientación de la imagen. Esto le permite detectar otros automóviles, peatones, límites de carreteras y marcas viales. El problema general de la identificación precisa es uno que muchos creen que finalmente se resolverá, pero es mucho más difícil predecir cuándo ocurrirá esto. Conducir requiere que el sistema "nunca se pierda" cualquier cosa que pueda ser un problema de seguridad. Particularmente difíciles son los obstáculos estacionarios que están tan lejos que la imagen estéreo no funciona, y la paralaje del movimiento (la forma en que los objetos en el fondo se mueven en relación con otros objetos durante el movimiento) también es limitada. (El objeto al que se dirige directamente, como un peatón o un automóvil de pie, tendrá una paralaje de movimiento muy pequeño)
Otro problema para los sistemas de visión artificial es la variedad de luces y sombras. Los objetos se pueden iluminar desde cualquier dirección. Además, el sol puede estar detrás de ellos. A menudo, las sombras cruzan el objeto en sí. En este caso, será necesario utilizar tecnologías HDR para poder ver los detalles en cada una de las áreas de la imagen, cuando los bordes de las sombras difuminan los rasgos característicos del objeto en la imagen de contraste.
Hay un tipo especial de cámara, conocida como infrarrojo de onda larga o "térmica", que utiliza luz emitida en lugar de reflejada. Los objetos que se encuentran en la sombra en relación con la luz solar seguirán ocultos en la imagen, pero ya no habrá sombras en movimiento. Las imágenes térmicas son monocromas y funcionan igual de bien tanto de día como de noche, aunque de noche el resultado es ligeramente mejor. Dichas cámaras se pueden ver mejor en la niebla y otras condiciones climáticas. Pueden ser muy buenos para detectar seres vivos, excepto cuando la temperatura de la tierra es igual a la temperatura del cuerpo humano. Desafortunadamente, las cámaras térmicas son muy caras, y los modelos con buena resolución son aún más caros. También deben instalarse externamente ya que las ondas infrarrojas no pasan a través del vidrio. Actualmente, no hay informes sobre el uso práctico de estas cámaras, sin embargo, se están realizando algunas investigaciones.
Existe cierto potencial en el campo de las imágenes "hiperespectrales", en el que tiene cámaras que funcionan en muchos rangos de color, incluyendo infrarrojo y ultravioleta. Con tales imágenes, será más fácil reconocer algunos tipos de objetos.
Las personas pueden transformar las imágenes bidimensionales observadas en un modelo tridimensional del mundo y, al mismo tiempo, hacerlo mucho mejor después de examinar la escena y observar la paralaje del movimiento. Las computadoras son actualmente modestas en el análisis de imágenes fijas y solo ocasionalmente recurren al uso del movimiento. Las personas usan imágenes estéreo, pero también pueden conducir cuando un ojo está cerrado o falta.
A su vez, el LIDAR puede crear un mapa tridimensional completo de la escena en una sola pasada. Los pases múltiples pueden mejorar la imagen y ayudarlo a apreciar la velocidad.
Aprendizaje profundo
La mayor parte de la publicidad actual de la visión por computadora está asociada con redes neuronales convolucionales, en particular aquellas creadas con una herramienta llamada Deep Learning, que imita muchas de las capacidades del cerebro biológico. Mucha gente piensa que esta dirección será un gran avance. Las redes de aprendizaje profundo funcionan con un gran conjunto de aprendizaje (y hasta cierto punto pueden incluso funcionar sin capacitación especial) para comprender mejor la cosmovisión y tomar medidas. Las personas crearon robots, que se llevaron a cabo en terrenos irregulares utilizando técnicas de aprendizaje profundo, después de lo cual estos robots pudieron aprender el movimiento en condiciones similares.
Este es un trabajo excelente, pero aún estamos lejos de la alta precisión que se requiere para los vehículos no tripulados. También es inquietante que cuando trabajamos con el aprendizaje profundo, no sabemos exactamente por qué esto funciona, solo tenemos el hecho del trabajo. Puede volver a entrenar la red neuronal para corregir errores, pero no puede estar seguro de por qué el reentrenamiento ha corregido todo. El mismo inconveniente también es característico del cerebro humano, solo una persona puede explicarle por qué actuó de una forma u otra.
Hay diferentes puntos de vista sobre el entrenamiento profundo en vehículos no tripulados desde un punto de vista legal. El aprendizaje automático puede lastimarte porque no entiendes cómo funciona, y puede ser útil porque aplicaste las mejores técnicas con buenos indicadores de seguridad y no cometiste ningún error que pueda llamarse descuidado.
El aprendizaje automático tiende a mejorar la calidad del trabajo con un aumento en la cantidad de datos de capacitación, razón por la cual se realizan esfuerzos tan grandes para crear grandes volúmenes de dichos datos. Sin embargo, las redes neuronales no pueden reconocer cosas que nunca han visto (o visto objetos similares).
Otros sensores
El más importante de los otros sensores es el radar. El radar tiene ventajas fantásticas. En primer lugar, ve bien a través de la niebla, mientras que los sensores ópticos no pueden hacer frente a esto. En segundo lugar, ve bien a otros autos y cada golpe del radar brinda información no solo sobre la distancia, sino también sobre la velocidad, gracias al efecto Doppler. Esto es incluso más que la información del LIDAR: una toma del radar muestra todos los obstáculos en movimiento y sus velocidades. El radar puede evaluar los reflejos de la carretera debajo del automóvil o camión frente a usted y brindar información sobre las acciones del automóvil en la zona ciega del camión; este es un truco muy inteligente.
Los radares ofrecen una resolución mucho más baja. Existen radares experimentales de alta resolución, pero requieren un amplio espectro de radio (rango de frecuencia), más de lo que producen los reguladores. Es poco probable que el radar le diga si el objetivo está en su carril o no, o si está en un paso elevado o en la carretera frente a usted.
Los objetos fijos también reflejan señales de radar, y esto es un problema. Tierra, signos, cercas: todos devuelven señales de que son objetos estáticos. Por lo tanto, cuando un automóvil parado refleja una señal de radar, no puede estar seguro de que se trata de una señal en la carretera o un automóvil estacionado en él. La mayoría de los radares de automóviles simplemente ignoran los reflejos de los objetos estáticos, que fue una de las razones por las que durante mucho tiempo, el control de crucero automático no funcionó en los flujos de tráfico, en los que a menudo es necesario acelerar y frenar.
Como resultado de una nueva investigación, se creó un radar de mayor resolución, y también se está investigando para reconocer objetos por sus características en sus reflejos. Los radares digitales con una matriz en fases pueden inspeccionar la escena y aumentar la resolución en un grado. Esto no es suficiente, pero ya es una mejora.
Asociación de sensores
Cuando usa más de un sensor, desea combinar todos los datos para que pueda comprender que la máquina que detecta el radar es la misma que vio la cámara o el LIDAR. Esto mejora la calidad de los datos recibidos, pero también puede dañar. La combinación de sensores no es 100% confiable. ¿Qué harás si el radar muestra que hay un automóvil delante y la cámara considera que no lo está (o viceversa)? Tendrás que elegir qué creer. Si la elección es incorrecta, puede surgir un problema. Si cree en el mensaje sobre el obstáculo, puede reducir la ceguera (que es muy importante), pero puede tener en cuenta los obstáculos inexistentes de ambos sensores. A veces obtienes lo mejor de dos mundos, y a veces lo peor.
A pesar de esto, dado que todos los sensores tienen varias limitaciones, la integración de los sensores sigue siendo el objetivo principal de la mayoría de los equipos involucrados en robots.
La combinación de sensores se puede realizar sin complicaciones, si cada sensor hace frente mejor a una tarea específica o un campo de visión separado. Entonces confías en los sensores el trabajo que mejor hacen.
(Tenga en cuenta que se realiza una buena combinación de sensores teniendo en cuenta los datos brutos de todos los sensores; no solo toma decisiones basadas en el hecho de que el automóvil está presente en los datos del radar, sino no en los datos de la cámara. Sin embargo, se mostrarán muchos objetos en uno el conjunto de datos del sensor es más claro que en otro).
Posicionamiento
, (, ). , 3D, , .
GPS, . . GPS ( GPS ), .
, , , ?
, . ?
2020 . – .
. , Velodyne 75 000 $, 32 . . , , 1982 5- 3000 $, , . , , , .
, . , , , . , , . , ,
, , .
. , , . , .
MobilEye, Intel, (, , ), , , , . 4 , .
, . , , . , . .
, . , . , , , VisLab , , , Mercedes 6D MobilEye, .
, , , , – . , .
, , , . , , , .
, “Super Cruise”, , . ( , ) , . , , , , .
, – . , . 99% , 99% 99.9999% . . , , , .
. , , , , . , - . , 10-20% , , - , , . , , , , , , .
- , - . , , 100 000 $, 3000 $ .
?
, , , .
, . , 400 000 . 170 290 . , 3 , 6000 . , .
, . , - ( 80% , ). - . , . - , , – , . - , , , .
, , . , . , , . . .
, , , , , . , , , . - , , , – . , .
. , , , .
. , . , . ( , ) - .
, , , . , , , . , - .
, , , . , . , , ( ), , , . - , , .
, . , “ ” , 40 /. , 3D, .
, , ( Microsoft Kinect). 3D, , , .
, , . , . , – .
, , , . , . , . , , . . , , , . , . , 99.9% , , , , , . , .
, , - . , , . - – , . , 99.99999%, .
, , . , . , 1 10 000 100 000 , -, .
, -, 2017 2019 , . – , . , , , , . , , . , , .
, 2020, , , , , .
( 25 /) , .
, , , – , ?
Tesla
, Tesla , “” , “”. 8 , : . , , . , , .
Tesla , , , . , , , , . , - , .
, ,
. Velodyne, , , 64 . 10 . 905 (, ) . Velodyne 32 16 10 000 $.
, . , , , , , .
. – , . , , , , DVD. , , .
. 16- Velodyne 10 000 $. Quanergy, , 8 . Valeo/IBEO 250 4 , , Velodyne , 300 . .
, :- , , , . . 360 , Velodyne . , , .
- Los lidares de flash envían un destello brillante en toda el área, y luego es recibido por una serie de sensores y temporizadores que pueden tomar una foto de toda la escena a la vez. Hay muchas ventajas en este diseño: no hay partes móviles y no obtendrá artefactos de movimiento, porque tanto el mundo como el sensor se mueven durante el escaneo. En el escaneo lidar, todos los objetos se estiran y distorsionan porque se mueven en relación con el sensor. Hoy en día, un flash lidar es muy costoso: necesita un chip sensor especial y el pulso debe ser extremadamente potente para iluminar todo el campo de visión a la vez.
- Los microscanners son espejos móviles ultrafinos hechos a base de chips de silicio. Así es como funcionan la mayoría de los proyectores de video. Aunque hay partes móviles, son muy pequeñas y pueden ser muy ligeras y duraderas. Algunos lidares de corto alcance se construyeron utilizando esta tecnología.
- Si usa luz en el rango de 1.5 micras (infrarrojo de rango medio), el ojo humano ya no la enfoca. Esto significa que puede enviar pulsos mucho más brillantes sin causar daño, y esto a su vez significa que puede ver a una distancia mayor. La mala noticia es que la luz de 1.5 micras no activa el silicio, lo que significa que debe usar otros tipos de electrónica, tecnologías que no tienen el bajo costo de una producción amplia, como el silicio. Por lo tanto, los lidares de 1,5 micras son muy caros en este momento.
- Se hicieron algunos lidares especiales para ver más allá, e incluso aprovechan el efecto Doppler, para que sepan qué tan rápido se mueve el objeto que vieron. Esto es difícil de hacer en las tapas de propósito general de alta resolución.
- Algunas cámaras de tiempo de vuelo estudian la luz con una onda portadora y observan los cambios de fase de los reflejos que regresan para medir el tiempo. Dichas cámaras pueden ser muy económicas, pero tienen un rango y ruido bajos al medir distancias.

Sobre ITELMASomos una gran
empresa de componentes
automotrices . La compañía emplea a unos 2.500 empleados, incluidos 650 ingenieros.
Somos quizás el centro de competencia más poderoso de Rusia para el desarrollo de la electrónica automotriz en Rusia. Ahora estamos creciendo activamente y hemos abierto muchas vacantes (alrededor de 30, incluso en las regiones), como un ingeniero de software, ingeniero de diseño, ingeniero de desarrollo líder (programador DSP), etc.
Tenemos muchos desafíos interesantes de los fabricantes de automóviles y preocupaciones que impulsan la industria. Si desea crecer como especialista y aprender de los mejores, estaremos encantados de verlo en nuestro equipo. También estamos listos para compartir experiencia, lo más importante que sucede en la industria automotriz. Háganos cualquier pregunta, responderemos, discutiremos.
Leer más artículos útiles: