Autonome Antriebssysteme sind typischerweise auf die Montage zahlreicher Sensoren angewiesen. Sie umfassen normalerweise eine Sammlung von Sicht- und Emissionsentfernungssensoren wie Radarsensor, Lidarsensor, Ultraschallsensor usw. Anschließend werden die von jedem Sensor erfassten Daten gesammelt, um die Umgebung des Fahrzeugs besser zu verstehen und zu bestimmen, wie das Fahrzeug gesteuert werden soll. Mit zunehmender Anzahl und Art der Sensoren steigen jedoch auch die Komplexität und die Kosten des Systems.
Beispielsweise ist es oft kostspielig, Abstandssensoren wie Lidar in ein Massenmarktfahrzeug aufzunehmen. Darüber hinaus erhöht jeder zusätzliche Sensor die Anforderungen an die Eingangsbandbreite (die Differenz zwischen der oberen und der unteren Frequenz in einem kontinuierlichen Frequenzband) für das autonome Antriebssystem.
Daher besteht die Notwendigkeit, die optimale Konfiguration von Sensoren an einem Fahrzeug zu finden. Die Konfiguration sollte die Gesamtzahl der Sensoren begrenzen, ohne die Menge und Art der erfassten Daten zu begrenzen, um die Umgebung genau zu beschreiben und das Fahrzeug sicher zu steuern.
Tesla hat ein Patent veröffentlicht, "Schätzen von Objekteigenschaften unter Verwendung von Bilddaten", das eine maschinelle Lerntrainingstechnik zum Erzeugen hochpräziser maschineller Lernergebnisse aus Visionsdaten offenbart.
FEIGE. 1 ist ein Blockdiagramm, das eine Ausführungsform eines Deep-Learning-Systems zum autonomen Fahren darstellt.
Quelle: Tesla-Patent
Unter Verwendung von Hilfssensordaten wie Radar- und Lidarergebnissen werden die Hilfsdaten Objekten zugeordnet, die aus den Sichtdaten identifiziert wurden, um Objekteigenschaften wie die Objektentfernung genau abzuschätzen.
Die Erfassung und Zuordnung von Hilfsdaten zu Visionsdaten erfolgt automatisch und erfordert wenig oder gar kein menschliches Eingreifen. Beispielsweise müssen Objekte, die mithilfe von Bildverarbeitungstechniken identifiziert wurden, nicht manuell beschriftet werden, was die Effizienz des maschinellen Lerntrainings erheblich verbessert. Stattdessen können die Trainingsdaten automatisch generiert und zum Trainieren eines maschinellen Lernmodells verwendet werden, um Objekteigenschaften mit einem hohen Maß an Genauigkeit vorherzusagen.
Beispielsweise können die Daten automatisch von einer Fahrzeugflotte erfasst werden, indem Schnappschüsse der Sichtdaten und der zugehörigen zugehörigen Daten, wie z. B. Radardaten, erfasst werden. Die gesammelten Fusionsdaten aus der Fahrzeugflotte werden automatisch gesammelt und zum Trainieren neuronaler Netze verwendet, um die erfassten Daten nachzuahmen.
Es ist ein Diagramm, das ein Beispiel für die Erfassung von Hilfssensordaten zum Trainieren eines maschinellen Lernnetzwerks darstellt.
Quelle: Tesla-Patent
Das trainierte Modell des maschinellen Lernens kann in Fahrzeugen eingesetzt werden, um Objekteigenschaften wie Entfernung, Richtung und Geschwindigkeit genau vorherzusagen, wobei nur Sichtdaten verwendet werden.
Wenn beispielsweise das maschinelle Lernmodell darauf trainiert wurde, eine Objektentfernung unter Verwendung von Bildern einer Kamera zu bestimmen, ohne dass ein dedizierter Entfernungssensor erforderlich ist, ist es möglicherweise nicht mehr erforderlich, einen dedizierten Entfernungssensor in ein autonom fahrendes Fahrzeug aufzunehmen ...
In Verbindung mit einem dedizierten Abstandssensor kann dieses maschinelle Lernmodell als redundante oder sekundäre Abstandsdatenquelle verwendet werden, um die Genauigkeit zu verbessern und / oder Fehlertoleranz bereitzustellen.
Die identifizierten Objekte und entsprechenden Eigenschaften können verwendet werden, um autonome Fahrmerkmale wie Selbstfahren oder fahrerunterstützten Betrieb eines Fahrzeugs zu implementieren.