Profilbild: Shuttervorrat | Tesmanian
Die Frage ist besser, dass es besser ist, um ein volles Selbstfahren (FSD), Tesla-Set von Kameras und Sensoren, oder nur Sensoren (z. B. Lidar), oder nur Sensoren (z. B. Lidar) -, die von absolut anderen Herstellern verwendet werden, ist seit langem auf der Agenda. Tesla hat der Angelegenheit jedoch etwas mehr Gewürze hinzugefügt. Nun soll das Unternehmen Sensoren von seinen Autos entfernen, und FSD wird nur auf reine Vision verlassen, was laut Tesla-CEO ELON MOUSK bereits in der neuen Version von FSD Beta v9.0 möglich ist.
Seit einiger Zeit ist Tesla bemüht, neuronale Netzwerke (NN) zum Umrundungsvideo zu bewegen, mit dem Autos das nächste Level der vollen Selbstfahrung erreichen können. Es scheint, dass das Unternehmen dabei Fortschritte erzielt hat, und die nächste Version von FSD Beta v9.0 kann durch Erhalt von Informationen nur von Kameras ausarbeiten.
Moschus hat wiederholt gesagt, dass das Unternehmen strebt, seine Autos in 4D (vier Dimensionen) zu erhalten. Wir sehen die Welt in 3D und die vierte Dimension ist Zeit; Sobald die Autos in allen vier Dimensionen "sehen" können, wird Teslas Ziel erreicht. Ende Januar sprach Moschus über das Unternehmen, das alle NNS auf acht Kameras-Surround-Video bewegte.
Am 9. April bestätigte er, dass FSD Beta v9.0 fast fertig ist. Moschus betonte, dass die aktualisierte Version massive Verbesserungen hat, insbesondere in Bezug auf Eckfälle und schlechtes Wetter. Er hat auch darauf hingewiesen, dass v9.0 mit reiner Sicht und ohne Radar arbeitet.
Fast bereit mit FSD Beta v9.0. Schrittänderungsverbesserung ist massiv, insbesondere für seltsame Eckfälle und schlechtes Wetter. Pure Vision, kein Radar.
- Elon Moschus (@elonmusk) 9. April 2021
Geführt von dem Prinzip weniger Details, weniger Probleme -, was in Wirklichkeit True-Tesla ist, möchte Radar in seinen Fahrzeugen vollständig loswerden. Um unnötige Fragen und Zweifel zu vermeiden, erklärte Moschus, dass Radars den gesamten Prozess schwieriger machen, also ist es sinnvoll, sie loszuwerden. Er wies darauf hin, dass die Daten aus dem Radar und Kameras in einigen Situationen abweichen können, und dann entsteht die Frage, was zu glauben ist?
Musk erklärte, dass Vision viel genauer ist, weshalb es besser ist, sich auf die Sehvermögen zu verdoppeln, als Sensorfusion zu erledigen. "Sensoren sind ein Bitstream und die Kameras haben mehrere Größenordnungen mehr Bits / Sek. Als Radar (oder weit hinter sich."
Sensoren sind ein Bitstream und die Kameras haben mehrere Größenordnungen mehr Bits / s als Radar (oder Lidar).
- Elon Moschus (@elonmusk) 10. April 2021
Radar muss das Signal / Rauschen des Bitstroms sinnvoll erhöhen, um die Integration der Integration wert zu sein.
Da die Vision-Verarbeitung besser wird, lässt es einfach den Radar weit zurück.
Somit verbessert Tesla zusammen mit der Verbesserung der FSD ihre Autos, wodurch unnötige Geräte entfernt werden. Auf diese Weise erzielt das Unternehmen bessere Ergebnisse, um eine vollständige Autonomie zu erreichen, während gleichzeitig die Kosten der Automobilproduktion reduziert wird.
© 2021, Eva Fox. Alle Rechte vorbehalten.
_____________________________
Wir schätzen Ihre Leserschaft! Bitte teilen Sie Ihre Gedanken in dem Kommentarabschnitt unten.
Artikel von @smokeyshorts bearbeitet, können Sie ihm auf Twitter folgen