Kameras oder Laser

Bild

Welche Sensoren werden in unbemannten Fahrzeugen am wichtigsten sein? Diejenigen Sensoren, die das sogenannte Wahrnehmungssystem steuern, und dies ist das Wichtigste beim Fahren. Die Aufgabe des Wahrnehmungssystems besteht darin, alle wichtigen Objekte auf oder in der Nähe der Straße zu erfassen, z. B. andere Fahrzeuge, Fußgänger, Müll und in einigen Fällen Straßenobjekte wie Schilder und Fahrbahnmarkierungen.

(Die Positionierung auf der Straße hängt auch von den Sensoren ab.)

Das Wahrnehmungssystem muss alle Hindernisse erkennen und versuchen, sie zu identifizieren. Sie muss ihre Geschwindigkeit und Richtung messen und ihre Bewegung vorhersagen. Dies ist eine sehr schwierige Aufgabe.

Zwei Schlüsselfehler im Wahrnehmungssystem sind False Positives (Blindheit) und False Positives (Geisterobjekte).

Eine falsch negative Reaktion ist eine Situation, in der ein Hindernis nicht erkannt wurde. Dies kann katastrophale Folgen haben, wenn das System so lange funktioniert, dass Sie das Hindernis nicht sicher umgehen können. Ein gutes System führt fast nie zu einem falsch negativen Ergebnis. Es kann einige Sekunden dauern, bis ein Hindernis erkannt wird, es kann aufgrund plötzlicher Blitze etwas fehlen, aber wiederholte Fehler können zu einem Unfall führen. Mit "nie" meine ich "fast nie", von der Größenordnung der Einheit bis zu vielen Millionen.

Ein falsch positives Ergebnis ist eine andere Art von Fehler. In ihrem Fall sieht das System etwas, das tatsächlich nicht vorhanden ist, und dies zwingt das Auto zum Bremsen oder Zusammenbrechen. Dies ärgert die Passagiere und kann zu Verletzungen führen, wenn sie nicht angeschnallt sind. Es kann auch zu einem Unfall kommen, wenn das andere Auto sehr nahe fährt oder zu scharf gebremst und in Kurven gefahren wird. Normalerweise sind solche Fälle nicht gefährlich. Wenn dies jedoch zu häufig vorkommt, verlassen Benutzer das System.

Eine falsche Klassifizierung ist auch mit den obigen Fehlern verbunden. Eine falsche Klassifizierung bedeutet, dass der Radfahrer mit einem Fußgänger verwechselt wurde oder dass zwei Motorräder mit einem Auto verwechselt wurden. Auch ohne genaue Identifikation weiß die Maschine, wie sie nicht auf ein Hindernis stößt, aber das System kann möglicherweise falsch bestimmen, wo es sich bewegt oder wie es am besten darauf reagiert.

Eine weitere Fehlerklasse sind vollständige Ausfälle. Der Sensor oder seine Software funktionieren möglicherweise nicht oder nicht richtig. Dies ist überraschenderweise häufiger zulässig als Blindheit, da das System erkennt, dass der Sensor nicht in Betrieb ist und seine Daten nicht akzeptiert. In diesem Fall wird sie sich auf Standby-Sensoren verlassen oder sich bemühen, mit anderen Sensoren so schnell wie möglich von der Straße abzuheben, wenn dies nicht ausreicht. Auch wenn dies nicht allzu oft vorkommen sollte, werden die Menschen sonst aufhören, dem System zu vertrauen.

Es gibt viele wichtige Sensoren für unbemannte Fahrzeuge, aber die am meisten erforschten und diskutierten sind Lidars und Kameras.

Bild


Lidar ist ein Lichtradar. Der Sensor sendet kurze, für das Auge unsichtbare Laserlichtimpulse aus und erkennt, wie lange das reflektierte Licht zurückkehrt. Somit erkennt das System die Helligkeit und Reichweite des Ziels ziemlich genau.

Lidar hat große Vorteile:

  • Es ist äußerst zuverlässig bei der Erkennung verschiedener Objekte von ausreichender Größe und berechnet deren Abstand, Größe und Position sehr nahe an der 100% igen Zuverlässigkeit.
  • Das Ergebnis des Lidars ist eine 3D-Karte der Welt. Es ist einfach, etwas aus den Objekten hinter dem Sensor (oder davor) auszuwählen.
  • Lidar verwendet emittiertes Licht, sodass es unabhängig vom Umgebungslicht funktioniert. Tag oder Nacht, bewölkt oder sonnig, der Himmel ist bedeckt oder die Sonne scheint - der Lidar sieht unter allen Bedingungen fast gleich aus.
  • Es ist störsicher und hat eine viel höhere Auflösung als Radar.
  • Einige Lidars können die Geschwindigkeit eines Objekts mithilfe des Doppler-Effekts bestimmen.

Es gibt jedoch Nachteile:

  • Ursprünglich waren Lidars sehr teuer. Hochauflösende Lidars wurden in kleinen Mengen hergestellt und kosten mehr als Autos (neue Modelle erscheinen zu einem Preis von weniger als 1000 US-Dollar).
  • Ziemlich bescheidene Auflösung. Die besten Geräte empfangen ein Bild von 128 Pixeln in vertikaler Abtastung mit einer Frequenz von 10 Hz.
  • Die Reichweite ist begrenzt. Mittlere Lidars sehen in einer Entfernung von 70-100 Metern und werden von großen Objekten wie Autos in einer Entfernung von etwa hundert Metern weniger gut aufgenommen. Einige behaupten, bis zu 200 Meter zu arbeiten, aber das ist zweifelhaft. 1,5 Mikron Lidars, die noch teurer sind, können weiter sehen.
  • Die meisten Lidars haben bewegliche Teile, um die Welt abzutasten. Flash-Lidars kommen ohne bewegliche Teile aus, sind aber jetzt noch teurer (bei Festkörper-Lidars der neuen Generation wird die Anzahl der beweglichen Teile minimiert oder sie werden vollständig eliminiert).
  • Die Bildwiederholfrequenz ist normalerweise niedriger. Während das Lidar die Szene abtastet, wird es außerdem aufgrund der Bewegung der abgetasteten Autos und anderer Objekte verzerrt, und da verschiedene Kanten der Szene zu verschiedenen Zeiten abgetastet werden, tritt ein Versatz auf.
  • Lidare können Probleme mit starkem Regen, Schnee und Nebel haben, obwohl sich andere Lichtsensoren, einschließlich Kameras, ähnlich verhalten. Lidare können auch manchmal unsichtbare Dinge wie Abgase auslösen.
  • Lidare werden am besten im Freien montiert. Sie brauchen jedes Photon, also schwächen Sie sie nicht, indem Sie sie hinter der Windschutzscheibe installieren.

Kameras


Bild


Kamerabasierte Systeme verhalten sich wie Menschen. Eine oder mehrere Kameras beobachten die Szene und die Software versucht, dasselbe wie eine Person zu tun - sich eine dreidimensionale Welt aus einem zweidimensionalen Bild vorzustellen und zu verstehen.

  • Kameras sind wirklich günstig. Ausrüstung kostet nur Dutzende von Dollar, man kann eine ganze Menge davon haben.
  • Da Kameras, die für sichtbares Licht empfindlich sind, reflektiertes Licht verwenden, können sie tagsüber eine beliebige Entfernung sehen, wenn sie ein relativ enges Sichtfeld haben und gerichtet werden können. Nachts sollten sie Durchlicht verwenden - wie Ihre Scheinwerfer.
  • Sie sehen Farben. Lidare nehmen Graustufen im Infrarotspektrum wahr.
  • Sofern die Kameras nicht geführt werden, haben sie keine beweglichen Teile. Andernfalls erhalten sie möglicherweise auch für entfernte Objekte ein hochauflösendes Bild. Selbst in der Ferne gibt es Kameras mit einer sehr hohen Auflösung - während das Lidar 64 Zeilen sieht, sieht die Kamera 3000.
  • Aufgrund der hohen Auflösung und Farbe können Kameras Rückschlüsse auf Szenen ziehen, die aus dem mit dem Lidar aufgenommenen Bild mit niedriger Auflösung nicht erhalten werden können.
  • Kameras können Ampeln, Abmessungen, Blinker und andere Lichtquellen erkennen. Kameras eignen sich hervorragend zum Lesen von Zeichen.

Kameras haben jedoch einige Nachteile, und die erste verdirbt viel:

  • Computer Vision funktioniert heutzutage nicht gut genug, um alle wichtigen Funktionen mit der für ein sicheres Fahren erforderlichen Zuverlässigkeit zu erkennen.
  • Kameras sollten mit wechselnder Beleuchtung funktionieren. Beobachtete Objekte sind häufig der Bewegung von Schatten ausgesetzt und können auch aus jeder Richtung (oder überhaupt nicht) beleuchtet werden.
  • Nachts benötigen Kameras zusätzliche Beleuchtung, und die Scheinwerfer reichen möglicherweise nicht aus.
  • Computer Vision-Aufgaben erfordern Hochleistungsprozessoren oder spezielle Chips, um auf dem Niveau der aktuellen Anforderungen zu arbeiten.

Computer Vision


Die Bildverarbeitung der Kamera kann grob in zwei Kategorien unterteilt werden: „Computer Vision“ und „Machine Vision“. Machine Vision bezeichnet eine einfache, lokalisierte Analyse digitaler Bilder. Es umfasst Aufgaben wie das Suchen nach Details und Kanten eines Bildes, das Bestimmen von Bewegung und Parallaxe der Bewegung sowie das Anwenden von Parallaxe auf Stereobilder, um die Entfernung zu bestimmen. Diese Methoden sind ziemlich gut etabliert und viele von ihnen sind ziemlich verständlich. Einige Bildverarbeitungsaufgaben (wie das Erkennen und Lesen von Verkehrszeichen) sind schwieriger, werden jedoch bald gelöst.

Computer Vision bezieht sich auf eine komplexere Reihe von Aufgaben, die menschliche Fähigkeiten erfordern, einschließlich der Fähigkeit, Bilder zu verstehen. Diese Aufgaben beinhalten auch Fähigkeiten wie die Fähigkeit, das Bild in Segmente aufzuteilen und Objekte zu erkennen. Sie können das Bild einer anderen Person einer Person zeigen, die sich in nahezu jeder Situation und in jedem Licht befindet, und der Beobachter kann leicht feststellen, was die Person auf dem Bild ist und in welcher Entfernung sie sich befindet. Wir können sogar feststellen, auf was die Aufmerksamkeit gerichtet ist und was die abgebildete Person tut. Algorithmen in diesem Bereich werden immer besser, sind aber noch nicht auf einem ausreichenden Niveau.

Einige Aufgaben erreichten die Grenzzone. Bildverarbeitungswerkzeuge suchen nach Details im Bild und tun dies unabhängig von der Größe und Ausrichtung des Bildes. Auf diese Weise können Sie andere Autos, Fußgänger, Straßengrenzen und Fahrbahnmarkierungen erkennen. Das allgemeine Problem der genauen Identifizierung ist eines, von dem viele glauben, dass es endgültig gelöst sein wird, aber es ist viel schwieriger vorherzusagen, wann dies geschehen wird. Das Fahren erfordert, dass das System nichts „verpasst“, was ein Sicherheitsproblem darstellen könnte. Besonders schwierig sind stationäre Hindernisse, die so weit entfernt sind, dass das Stereobild nicht funktioniert, und die Parallaxe der Bewegung (die Art und Weise, wie sich Objekte im Hintergrund im Verhältnis zu anderen Objekten während Ihrer Bewegung bewegen) ist ebenfalls begrenzt. (Das Objekt, auf das Sie direkt zusteuern, wie ein Fußgänger oder ein stehendes Auto, hat eine sehr kleine Bewegungsparallaxe.)

Ein weiteres Problem für künstliche Bildverarbeitungssysteme ist die Vielfalt der Beleuchtung und Beschattung. Objekte können aus jeder Richtung beleuchtet werden. Auch die Sonne kann hinter ihnen sein. Oft kreuzen Schatten das Objekt selbst. In diesem Fall müssen HDR-Technologien verwendet werden, um die Details in den einzelnen Bildbereichen sehen zu können, wenn die Schattenränder die charakteristischen Merkmale des Objekts im Kontrastbild verwischen.

Es gibt einen speziellen Kameratyp, der als langwelliges Infrarot oder „thermisches“ Licht bekannt ist und emittiertes statt reflektiertes Licht verwendet. Objekte, die sich im Schatten des Sonnenlichts befinden, werden im Bild immer noch verdeckt, aber es gibt keine sich bewegenden Schatten mehr. Wärmebilder sind einfarbig und funktionieren sowohl bei Tag als auch bei Nacht gleich gut, obwohl das Ergebnis nachts etwas besser ist. Solche Kameras sind bei Nebel und anderen Wetterbedingungen besser zu sehen. Sie können Lebewesen sehr gut erkennen, es sei denn, die Temperatur der Erde entspricht der Temperatur des menschlichen Körpers. Leider sind Wärmebildkameras sehr teuer, und Modelle mit guter Auflösung sind noch teurer. Sie müssen auch extern installiert werden, da Infrarotwellen nicht durch das Glas gelangen. Derzeit gibt es keine Berichte über den praktischen Einsatz dieser Kameras, es werden jedoch einige Untersuchungen durchgeführt.

Im Bereich der "hyperspektralen" Bildgebung gibt es ein gewisses Potenzial. Sie verfügen über Kameras, die in vielen Farbbereichen, einschließlich Infrarot und Ultraviolett, arbeiten. Mit solchen Bildern ist es einfacher, bestimmte Arten von Objekten zu erkennen.

Menschen sind in der Lage, die beobachteten zweidimensionalen Bilder in ein dreidimensionales Modell der Welt zu verwandeln und es gleichzeitig viel besser zu machen, nachdem sie die Szene untersucht und die Parallaxe der Bewegung beobachtet haben. Computer sind derzeit bei der Analyse von Standbildern bescheiden und greifen nur gelegentlich auf die Verwendung von Bewegung zurück. Menschen verwenden Stereobilder, können aber auch fahren, wenn ein Auge geschlossen ist oder fehlt.

Der Lidar kann wiederum in einem Durchgang eine vollständige dreidimensionale Karte der Szene erstellen. Mehrere Durchgänge können das Bild verbessern - und ihm dabei helfen, die Geschwindigkeit zu schätzen.

Tiefes Lernen


Der Großteil des heutigen Hype im Bereich der Computersicht hängt mit faltungsbedingten neuronalen Netzwerken zusammen, insbesondere solchen, die mit dem Tool Deep Learning erstellt wurden, das viele der Funktionen des biologischen Gehirns nachahmt. Viele Menschen glauben, dass diese Richtung ein Durchbruch sein wird. Deep-Learning-Netzwerke arbeiten mit einem großen Lernsatz (und können in begrenztem Umfang auch ohne spezielle Schulung funktionieren), um die Weltanschauung besser zu verstehen und Maßnahmen zu ergreifen. Die Menschen schufen Roboter, die mit Deep-Learning-Techniken über unwegsames Gelände geführt wurden, wonach diese Roboter in der Lage waren, Bewegungen unter ähnlichen Bedingungen zu lernen.

Dies ist eine großartige Arbeit, aber wir sind immer noch weit von der hohen Genauigkeit entfernt, die für unbemannte Fahrzeuge erforderlich ist. Es ist auch beunruhigend, dass wir bei der Arbeit mit tiefem Lernen nicht genau wissen, warum dies funktioniert, sondern nur die Tatsache, dass wir arbeiten. Sie können das neuronale Netz neu trainieren, um Fehler zu korrigieren, aber Sie können nicht sicher sein, warum das Retraining alles korrigiert hat. Der gleiche Nachteil ist auch für das menschliche Gehirn charakteristisch. Nur eine Person kann Ihnen erklären, warum sie auf die eine oder andere Weise gehandelt hat.

Aus rechtlicher Sicht gibt es unterschiedliche Auffassungen zum Tieftraining in unbemannten Fahrzeugen. Maschinelles Lernen kann Sie verletzen, weil Sie nicht verstehen, wie es funktioniert, und es kann nützlich sein, weil Sie die besten Techniken mit guten Sicherheitsindikatoren angewendet haben und keine Fehler gemacht haben, die als schlampig bezeichnet werden können.

Maschinelles Lernen verbessert tendenziell die Arbeitsqualität mit einer Zunahme der Trainingsdatenmenge, weshalb so große Anstrengungen unternommen werden, um große Mengen solcher Daten zu erstellen. Neuronale Netze sind jedoch nicht in der Lage, Dinge zu erkennen, die sie noch nie gesehen haben (oder ähnliche Objekte gesehen haben).

Andere Sensoren


Der wichtigste der anderen Sensoren ist Radar. Das Radar hat fantastische Vorteile. Erstens sieht er gut durch den Nebel, während optische Sensoren dies nicht verkraften können. Zweitens sieht er andere Autos gut und jeder Treffer des Radars gibt dank des Doppler-Effekts nicht nur Auskunft über die Entfernung, sondern auch über die Geschwindigkeit. Dies ist mehr als nur Informationen vom Lidar - eine Aufnahme des Radars zeigt alle sich bewegenden Hindernisse und ihre Geschwindigkeit. Das Radar kann die Reflexionen von der Straße unter dem Auto oder LKW vor Ihnen auswerten und Informationen über die Aktionen des Autos in der toten Zone des LKWs geben - dies ist ein sehr cleverer Trick.

Radare bieten eine viel geringere Auflösung. Es gibt experimentelle hochauflösende Radare, die jedoch ein großes Funkspektrum (Frequenzbereich) erfordern - mehr als das, was Regulierungsbehörden produzieren. Es ist unwahrscheinlich, dass das Radar Ihnen sagt, ob sich das Ziel auf Ihrer Fahrspur befindet oder nicht, oder ob es sich auf einer Überführung oder auf der Straße vor Ihnen befindet.

Feste Objekte reflektieren auch Radarsignale, und dies ist ein Problem. Erde, Zeichen, Zäune - alle geben Signale zurück, dass es sich um statische Objekte handelt. Wenn ein stehendes Auto ein Radarsignal reflektiert, können Sie nicht sicher sein, ob es sich um ein Straßenschild oder ein darauf geparktes Auto handelt. Die meisten Autoradars ignorieren einfach die Reflexionen von statischen Objekten, was einer der Gründe dafür war, dass die automatische Geschwindigkeitsregelung lange Zeit nicht in Verkehrsströmen funktionierte, in denen Sie häufig gasen und bremsen müssen.

Als Ergebnis neuer Forschungen wurde ein Radar mit höherer Auflösung geschaffen, und es wird auch geforscht, um Objekte an ihren charakteristischen Merkmalen in ihren Reflexionen zu erkennen. Digitale Radarsysteme mit einer phasengesteuerten Anordnung können die Szene untersuchen und die Auflösung um einen Grad erhöhen. Dies ist nicht genug, aber es ist bereits eine Verbesserung.

Sensor Association


Wenn Sie mehr als einen Sensor verwenden, möchten Sie alle Daten kombinieren, um zu verstehen, dass die vom Radar erkannte Maschine mit der von der Kamera oder der Lidar-Säge übereinstimmt. Dies verbessert die Qualität der empfangenen Daten, kann aber auch schaden. Die Kombination der Sensoren ist nicht 100% zuverlässig. Was machen Sie, wenn das Radar anzeigt, dass sich ein Auto vor Ihnen befindet und die Kamera dies nicht glaubt (oder umgekehrt)? Sie müssen sich entscheiden, was Sie glauben möchten. Wenn die Auswahl falsch ist, kann ein Problem auftreten. Wenn Sie an die Nachricht über das Hindernis glauben, können Sie die Blindheit reduzieren (was sehr wichtig ist), aber Sie können nicht vorhandene Hindernisse von beiden Sensoren berücksichtigen. Manchmal bekommt man das Beste aus zwei Welten und manchmal das Schlimmste.

Da alle Sensoren unterschiedliche Einschränkungen aufweisen, bleibt die Integration von Sensoren das Hauptziel der meisten an Robotern beteiligten Teams.

Die Kombination von Sensoren kann ohne Komplikationen durchgeführt werden, wenn jeder Sensor eine bestimmte Aufgabe oder ein separates Sichtfeld besser bewältigt. Dann vertrauen Sie den Sensoren die Arbeit, die sie am besten leisten.

(Es ist zu beachten, dass eine gute Sensorkombination unter Berücksichtigung der Rohdaten aller Sensoren durchgeführt wird. Sie treffen Entscheidungen nicht nur aufgrund der Tatsache, dass das Auto in den Radardaten, sondern nicht in den Kameradaten vorhanden ist. Dennoch werden viele Objekte in einem angezeigt der Datensatz vom Sensor ist klarer als in einem anderen.)

Positionierung


, (, ). , 3D, , .

GPS, . . GPS ( GPS ), .

, , , ?


, . ?

2020 . – .

. , Velodyne 75 000 $, 32 . . , , 1982 5- 3000 $, , . , , , .

, . , , , . , , . , ,

, , .

. , , . , .

MobilEye, Intel, (, , ), , , , . 4 , .

, . , , . , . .

, . , . , , , VisLab , , , Mercedes 6D MobilEye, .

, , , , – . , .

, , , . , , , .

, “Super Cruise”, , . ( , ) , . , , , , .

, – . , . 99% , 99% 99.9999% . . , , , .

. , , , , . , - . , 10-20% , , - , , . , , , , , , .

- , - . , , 100 000 $, 3000 $ .

?


, , , .

, . , 400 000 . 170 290 . , 3 , 6000 . , .

, . , - ( 80% , ). - . , . - , , – , . - , , , .

, , . , . , , . . .

, , , , , . , , , . - , , , – . , .

. , , , .

. , . , . ( , ) - .

, , , . , , , . , - .

, , , . , . , , ( ), , , . - , , .

, . , “ ” , 40 /. , 3D, .

, , ( Microsoft Kinect). 3D, , , .


, , . , . , – .

, , , . , . , . , , . . , , , . , . , 99.9% , , , , , . , .

, , - . , , . - – , . , 99.99999%, .

, , . , . , 1 10 000 100 000 , -, .

, -, 2017 2019 , . – , . , , , , . , , . , , .

, 2020, , , , , .

( 25 /) , .

, , , – , ?

Tesla


, Tesla , “” , “”. 8 , : . , , . , , .

Tesla , , , . , , , , . , - , .


, , . Velodyne, , , 64 . 10 . 905 (, ) . Velodyne 32 16 10 000 $.

, . , , , , , .

. – , . , , , , DVD. , , .

. 16- Velodyne 10 000 $. Quanergy, , 8 . Valeo/IBEO 250 4 , , Velodyne , 300 . .

, :

  • , , , . . 360 , Velodyne . , , .
  • Blitzlidare senden einen hellen Blitz über die gesamte Fläche und werden dann von einer Reihe von Sensoren und Timern empfangen, die gleichzeitig ein Bild der gesamten Szene aufnehmen können. Dieses Design bietet viele Vorteile: Es gibt keine beweglichen Teile und Sie erhalten keine Bewegungsartefakte, da sich sowohl die Welt als auch der Sensor beim Scannen bewegen. Im Scan-Lidar werden alle Objekte gestreckt und verzerrt, weil sie sich relativ zum Sensor bewegen. Ein Blitzlidar ist heutzutage sehr teuer - es benötigt einen speziellen Sensorchip, und der Puls muss extrem stark sein, um das gesamte Sichtfeld auf einmal zu beleuchten.
  • Mikroscanner sind ultradünne bewegliche Spiegel, die auf der Basis von Siliziumchips hergestellt werden. So funktionieren die meisten Videoprojektoren. Obwohl es sich um bewegliche Teile handelt, sind sie sehr klein und können sehr leicht und langlebig sein. Einige Lidars mit kurzer Reichweite wurden mit dieser Technologie gebaut.
  • Wenn Sie Licht im 1,5-Mikron-Bereich (mittleres Infrarot) verwenden, fokussiert das menschliche Auge es nicht mehr. Dies bedeutet, dass Sie viel hellere Impulse senden können, ohne Schaden zu verursachen, und dies wiederum bedeutet, dass Sie in größerer Entfernung sehen können. Die schlechte Nachricht ist, dass 1,5-Mikron-Licht kein Silizium auslöst, was bedeutet, dass Sie andere Arten von Elektronik verwenden müssen, Technologien, die nicht die niedrigen Kosten einer breiten Produktion aufweisen, wie Silizium. Daher sind Lidars mit 1,5 Mikron derzeit sehr teuer.
  • Einige spezielle Lidars wurden erstellt, um weiter zu sehen, und sie nutzen sogar den Doppler-Effekt, damit sie wissen, wie schnell sich das Objekt, das sie entdeckten, bewegt. Dies ist bei hochauflösenden Universaldeckeln schwierig.
  • Einige Time-of-Flight-Kameras untersuchen Licht mit einer Trägerwelle und untersuchen die Phasenänderungen von zurückkehrenden Reflexionen, um die Zeit zu messen. Solche Kameras können sehr kostengünstig sein, haben jedoch eine geringe Reichweite und Rauschen beim Messen von Entfernungen.



Bild

Über ITELMA
Wir sind ein großes Automobilzulieferunternehmen . Das Unternehmen beschäftigt rund 2.500 Mitarbeiter, darunter 650 Ingenieure.

Wir sind vielleicht das leistungsstärkste Kompetenzzentrum in Russland für die Entwicklung der Automobilelektronik in Russland. Jetzt sind wir aktiv am Wachsen und haben viele offene Stellen (etwa 30, einschließlich in den Regionen) geöffnet, wie z. B. einen Software-Ingenieur, einen Konstrukteur, einen leitenden Entwicklungsingenieur (DSP-Programmierer) usw.

Wir haben viele interessante Herausforderungen von Autoherstellern und Sorgen, die die Branche antreiben. Wenn Sie als Spezialist wachsen und von den Besten lernen möchten, freuen wir uns, Sie in unserem Team zu sehen. Wir sind auch bereit, Know-how zu teilen, das wichtigste, was in der Automobilindustrie passiert. Stellen Sie uns Fragen, wir werden antworten, wir werden diskutieren.

Lesen Sie weitere nützliche Artikel:

Source: https://habr.com/ru/post/de479736/


All Articles