4D

Tesla-Autopilot mit NNs und 8 Kameras funktioniert wie ein übermenschlicher, 10-mal besserer als menschlicher Pilot

Tesla Autopilot with NNs & 8 Cameras Will Work Like a Superhuman, 10X Better Than Human Pilot

Bild: Tesla

In den letzten Jahren haben Unternehmen zunehmend versucht, autonome Fahrsysteme zu entwickeln. Während andere sich auf Lidar verlassen, hat Tesla seinen eigenen Weg eingeschlagen und versucht, einen "intelligenten Autopiloten" zu erstellen, der Daten aus vier Dimensionen interpretiert. Um dies zu erreichen, verwendet die Hardware von Tesla nur acht Kameras, Radar und Sonar, die letztendlich Informationen in Surround-Video umwandeln müssen. All dies hat eine Reihe von Vorteilen, die Tesla Autopilot dabei helfen, wie ein Übermensch zu arbeiten.

Eine Person mit nur zwei Augen (wie zwei Kameras) kann nicht alles gleichzeitig steuern, was das Auto umgibt. Als Menschen geben wir unser Bestes, um sicher zu fahren und Unfälle zu vermeiden. Aber wir tun dies bereits so gut wie möglich für einen Menschen. Das heißt, wir haben bereits unser Limit erreicht.

Andererseits können autonome Fahrtechnologien um ein Vielfaches verbessert werden, bis Fahrzeuge 100% sicher sind. Tesla-Autos haben bereits das Zeug, ein Übermensch zu werden und das autonome Fahren mindestens 10-mal sicherer zu machen als das Fahren mit menschlichen Piloten.

Im Februar 2019 meldete Tesla ein Patent für die "Generierung der Grundwahrheit für maschinelles Lernen aus Zeitreihenelementen" an, in dem eine Trainingstechnik für maschinelles Lernen zur Erzeugung hochpräziser Ergebnisse für maschinelles Lernen offenbart wurde. Tatsächlich zeigt es die Methodik der Arbeit des Systems in 4D. Elon Musk, CEO von Tesla, versuchte zu erklären, was 4D ist:

"Du denkst über die Welt in drei Dimensionen nach und die vierte Dimension ist die Zeit.

Es ist in der Lage, Dinge zu tun, die, wenn Sie nur Dinge als einzelne Bilder im Gegensatz zu Videos betrachten, im Grunde genommen so aussehen, als könnten Sie von einzelnen Bildern zu Surround-Videos wechseln. Es ist also grundlegend.

Dieser architektonische Wandel, der seit einiger Zeit im Gange ist, aber für niemanden in der Produktionsflotte wirklich eingeführt wurde, ist wirklich wichtig für das volle Selbstfahren. "

Musk versuchte zu erklären, dass wir beim Betrachten von Bildern eines Ereignisses nur separate Bilder sehen. Wenn wir uns jedoch ein Video ansehen, erhalten wir ein vollständiges Verständnis dessen, was passiert ist, und wir können es korrekt und objektiv bewerten. Das gleiche passiert mit Tesla-Autos, die in 4D "sehen". Wenn Tesla-Kameras Bilder aufnehmen, kombinieren sie diese mit der Zeit (4. Dimension), um Surround-Videos zu erstellen.

Dies ist der entscheidende Punkt, um die Flugbahn dynamisch verdeckter Objekte richtig zu erkennen und zu berücksichtigen, was besonders an Orten mit dichtem Fahrzeug- und Fußgängerverkehr wichtig ist. Tesla schreibt die gesamte Etikettierungssoftware für 4D neu. Innerhalb eines Jahres (oder so) wird Dojo (Teslas Supercomputer) einen Beitrag zum NN-Training leisten, wodurch FSD noch sicherer wird.

© 2021, Eva Fox. Alle Rechte vorbehalten.

_____________________________

Wir bedanken uns für Ihre Leserschaft! Bitte teilen Sie Ihre Gedanken im Kommentarbereich unten.

Artikel bearbeitet von @SmokeyShorts, können Sie ihm auf Twitter folgen


About the Author

Eva Fox

Eva Fox

Eva Fox joined Tesmanian in 2019 to cover breaking news as an automotive journalist. The main topics that she covers are clean energy and electric vehicles. As a journalist, Eva is specialized in Tesla and topics related to the work and development of the company.

Follow me on X

Weiterlesen

Tesla TSLA South Korean Retail Investors Load Up on Shares, Investment Totals $10B
SpaceX's first Starlink satellites in Polar Orbit feature 'Space Lasers'

Tesla Accessories