Tesla Vision jetzt auch ohne Ultraschall-Sensoren

Tesla Model 3 Spoiler Performance Header

Wenn wir über das pilotierte Fahren bei Tesla sprechen, dann kann man mittlerweile durchaus von Minimalismus sprechen. Ob das positiv ist, ist ein anderes Thema. Es ist aber eben so, dass man immer mehr Technik für den Tesla Autopilot entfernt.

Tesla Vision jetzt auch ohne Ultraschall

Seit Anfang 2022 setzt Tesla auf Tesla Vision, ein System ohne Radar. Jetzt geht man noch einen Schritt weiter, denn man streicht nicht nur Radar, sondern auch Ultraschall. Das Model 3 und Model Y werden ab Oktober ohne diesen Sensor in Europa ausgeliefert (gilt für Modelle, die in Europa und China produziert werden).

Das Model S und Model X werden dann 2023 ohne Ultraschall-Sensor (USS) auf den Markt kommen. Und wie beim Wegfall des Radar-Sensors, gibt es auch hier den ein oder anderen Nachteil, denn es fallen direkt vier Funktionen bei Tesla weg:

  • Park Assist: alerts you of surrounding objects when the vehicle is traveling <5 mph.
  • Autopark: automatically maneuvers into parallel or perpendicular parking spaces.
  • Summon: manually moves your vehicle forward or in reverse via the Tesla app.
  • Smart Summon: navigates your vehicle to your location or location of your choice via the Tesla app.

Sicherheit laut Tesla nicht beeinträchtigt

Tesla möchte die Funktionen, die übrigens nicht alle in Deutschland verfügbar sind, aber bald wieder nachreichen. Laut Tesla beeinträchtigt das aber definitiv nicht die Sicherheit der Fahrzeuge und man hat auch nicht vor, das bei Modellen mit einem Ultraschall-Sensor zu ändern. Da soll der Funktionsumfang erhalten bleiben.

Während also viele Autohersteller immer mehr Sensoren in ihre Autos packen und einige davon sogar bereits auf Lidar für autonomes Fahren in Zukunft setzen, geht Tesla einen anderen Weg und vertraut langfristig wohl nur noch auf Kameras.

Ich kann ehrlich gesagt nicht beurteilen, ob das gut oder schlecht ist. Dazu fehlen mir zu viele Kenntnisse in der Entwicklung autonomer Systeme. Ich habe aber mit dem ein oder anderen Experten gesprochen und die meisten sind überzeugt, dass Kameras alleine definitiv nicht für autonomes Fahren (Level 4 oder 5) ausreichen.

Wir werden sehen, wie sich das langfristig entwickelt. Für den aktuellen Umfang des Autopiloten, was ja eher Level 2 bei uns und Level 3 in den USA (aber auch nur Beta) ist, sollte es ausreichen. Dann wird sich zeigen, ob damit Level 4 möglich ist.

Toyota und Elektroautos: Keine Änderung der Strategie geplant

Toyota Bz Bz5 Sdn Header

Viele Autohersteller haben sich bereits auf das Ende des Verbrenners festgelegt, nur die weltweite Nummer 1 möchte da noch keine Aussage treffen. Das liegt daran, dass Toyota der Meinung ist, dass Elektroautos einen zu großen Hype erleben. Toyota will Strategie…4. Oktober 2022 JETZT LESEN →


Fehler melden13 Kommentare

Bitte bleibe freundlich.

  1. Athlonet ☀️

    Ich glaube dass es ein großer Fehler ist, sich rein auf Kameras zu verlassen.
    Was ist wenn die Kamera "geblendet" wird (z.B. durch tief stehende Sonne)? Oder bei Nebel?
    Ohne Radar / Lidar wird autonomes Fahren (Level 4/5) meiner Meinung nach nicht möglich sein.

    1. Hugo 🌟

      Meinst du wirklich, Tesla hat sich darüber keine Gedanken gemacht ?

      1. René Fischer ☀️

        Die werden schon wissen was sie tun (hoffentlich) und auch ein Ziel verfolgen. Die Art und Weise wie sie es tun, ist aber nicht in Ordnung. Ich meine das ist schon clever. Diese ganzen Sensoren werden ja nirgendwo erwähnt und wenn sie die jetzt plötzlich weglassen hast als Kunde, der auf ein Auto wartet auch keinen Anspruch das du die bekommst. Es ist auch in Ordnung das sie es technisch anders lösen und ich glaube sogar daran das es langfristig gleichwertig oder sogar besser funktioniert. Aber bis dahin bist du als Kunde der Depp der für Tesla den Beta-Test macht und das ist nicht fair. Nicht wenn du 20k bezahlt hast und schon gar nicht wenn du 60k für dein Auto bezahlt hast.

    2. René H. 🏆

      Aktuell steigt das System komplett aus.
      Für die Zukunft bei Tesla muss man ja nur weiter denken: Wenn ein FSD-Autopilot so funktionieren soll wie ein Mensch, also nur mit visuellen Systemen, dann wird er auch so reagieren wie ein Mensch. Was machst du, wenn du Auto fährst und voll geblendet wirst?
      Bei einem L4/L5-System muss sich das System selbst behelfen. Es wird also langsamer fahren und ggf. Methoden nutzen, um die Blendwirkung zu reduzieren.

      1. René Fischer ☀️

        Wie das Tesla-System reagiert, kann ich dir sagen: Bremsen. Google mal nach Phantombremsen und du wirst sehen, wie frustriert die Tesla-Community über dieses Verhalten ist.

        Wenn du mich fragst, ist das der falsche Weg.

        1. René H. 🏆

          Ich kenne das aus eigener Erfahrung. Die "normalen" Phantomsbremsungen sind gar nicht mal so häufig und schlimm. Problematisch sind übervorsichtige "Angstbremsungen". Das System hat Angst vor LKWs, Bussen etc. auf etwas engeren Straßen, vor allem in Kurven, und führt dann echte Notbremsungen aus. Wenn man das weiß, deaktiviert man entweder den Autopiloten (oder ACC) an entsprechenden Stellen, oder man muss immer den Fuß über dem Fahrpedal haben. Na ja, damit bekommt man natürlich Bestnoten in den Crashtests für aktive Sicherheit, aber die Frage ist, wie nutzbar das Ganze dann noch ist.

          1. René Fischer ☀️

            Hatte leider schon einige Phantombremsungen und bin da mittlerweile echt etwas genervt. Wenn du mit 140 km/h auf der Autobahn fährst und das rein Kamera-basierte System einen Schatten für ein Auto hält und BREMST, dann ist das einfach maximal zum Kotzen. Wie gesagt, in nun 3 Wochen leider mehrfach erlebt.

            Zum Glück habe ich das Auto nicht wegen dem Autopiloten gekauft, ansonsten wäre ich echt mega frustriert. Aber ehrlich gesagt hätte ich mir mehr erwartet und habe auch sehr große Zweifel, ob Tesla das nur mit Kameras packen wird.

  2. René Fischer ☀️

    Fahre ja seit ein paar Wochen einen Tesla und zum Glück habe ich die „Parksensoren“ noch. Denn wenn das dann ähnlich gut funktionieren soll wie der – durch das Kamerasystem ersetzte – Regensensor, dann will ich glaube ich irgendwann keinen Tesla mehr fahren.

    1. René H. 🏆

      Ich habe ein Model Y seit Juni und war damit 10.000 km durch Norwegen und Schweden unterwegs. Daher rühren auch meine Erfahrungen mit dem ACC/Autopiloten auf Landstraßen (s.o.). Und es regnet natürlich in Norwegen. Den "Regensensor" fand ich jetzt nicht (noch) schlechter als die Funktion im BMW X1, den ich vorher hatte und sonst ein sehr gutes Auto war (also für einen Verbrenner). Optimal war er keineswegs, ist klar. Auch die neue Kopplung des Wischers an den Autopiloten und ACC ist manchmal nervig. Den Wahnsinn mit dem Fernlichtassistenten bei Autopilot habe ich noch nicht ausprobiert. :D

      1. René Fischer ☀️

        Der Fernlichtassistent ist ja eigentlich auf Automatik eingestellt. Das heißt, du hast den bewusst abgeschaltet, oder? Du schaltest Fernlicht dann manuell an/aus? Ganz ehrlich, ich vermisse mein adaptives LED-Licht aus dem Mercedes. Diese Lichtorgel im Tesla ist echt nervig und insbesondere auf Autobahnen habe ich das Gefühl, dass der Gegenverkehr (je nach Straßenführung) durch das Fernlicht geblendet wird. Hatte ihn deshalb Nachts auf Autobahnen auch bisher auf manuell.

  3. mat simmons 👋

    mach die augen zu und geh auf der autobahn spazieren.

    bin in der entwicklung von ad systemen tätig. von daher kann ich die aussage treffen: kein oem / hersteller / zulieferer wird ein AD System ohne redundante sensorik auf dem markt bringen. keiner.

    alles andere – insbesondere was tesla macht – wird zu unfällen führen – zwangsläufig.

    eine kamera wird noch viele generationen brauchen um rein physikalisch auf das niveau von menschlichen augen zu kommen, von der entsprechenden verarbeitungskapazität ganz abgesehen. es gibt zig optische effekte die die kameraphysik beeinträchtigen können (vergleich systemkamera vs. automotive kamera) und der beste algo wird mit dem datenmüll dann nichts anfangen können.

    mutig wer da mit so einem system seine angehörigen und sich selbst im strassenverkehr befördert.

    hier ist der gesetzgeber gefordert einzuschreiten da nicht nur der tesla sondern meist auch der umgebende verkehr gefährdet wird.

  4. Fred 🪴

    Eine Video Kamera ist kein richtiger Sensor im Vergleich zu echten Sensoren, die eine physikalische Eigenschaft nutzen wie Ultraschall, Radar, Licht, Wärme etc.
    Die Kamera nimmt ein Bild auf und dieses muss ausgewertet werden. Am Ende liegt es an der Software, die richtigen Schlüsse aus dem Bild zu ziehen und das ist nicht ganz trivial. Nicht umsonst müssen immer noch Menschen die Google Capchas lösen.

  5. Alex 🪴

    Alleine, dass Tesla ständig die Strategie ändert, ist schon sehr schlecht für die Software.

    Ich verstehe auch nicht, was das soll. Ultraschall ist perfekt als Backup für die letzten Meter, sollte die Software oder das Bild wirklich mal nicht optimal sein und die Kosten dafür sind minimal.

Schreibe einen Kommentar    

Deine E-Mail-Adresse wird nicht veröffentlicht. Durch das Absenden eines Kommentars stimmst du der Speicherung deiner Angaben gemäß unserer Datenschutzerklärung zu.

Um mobiFlip.de nutzen zu können, müssen Cookies in Deinem Browser aktiviert sein.