Tesla Full Self Driving erfordert alle 21 Kilometer menschliches Eingreifen

Tesla Full Self Driving erfordert alle 21 Kilometer menschliches Eingreifen

Vergrößern / Ein unabhängiges Automobil-Testunternehmen hat Tesla FSD bewertet und kam zu besorgniserregenden Ergebnissen.

PonyWang/Getty Images

Teslas umstrittenes „Full Self Driving“ ist jetzt zu einigen recht fortschrittlichen Fahrfunktionen fähig. Doch das kann laut unabhängigen Tests zu ungerechtfertigter Selbstgefälligkeit führen. Das teilweise automatisierte Fahrsystem zeigte gefährliches Verhalten, das im Verlauf von über 1.600 km Fahrt in Südkalifornien mehr als 75 Mal menschliches Eingreifen erforderte, im Durchschnitt ein Eingriff alle 21 km.

AMCI Testing bewertete die FSD-Builds 12.5.1 und 12.5.3 in vier verschiedenen Umgebungen: Stadtstraßen, zweispurige Landstraßen, Bergstraßen und Autobahnen. Und wie die Videos zeigenmanchmal war FSD zu recht anspruchsvollen Fahrverhalten fähig, wie z. B. in eine Lücke zwischen geparkten Autos zu fahren, um ein entgegenkommendes Fahrzeug durchzulassen, oder nach links zu fahren, um Fußgängern Platz zu machen, die an einem Zebrastreifen auf die Ampel warten. AMCI lobte FSD auch für seine Fähigkeit, unübersichtliche Kurven auf dem Land zu bewältigen.

„Es lässt sich nicht leugnen, dass FSD 12.5.1 beeindruckend ist, angesichts der großen Bandbreite an menschenähnlichen Reaktionen, die es erreicht, insbesondere für ein kamerabasiertes System“, sagte Guy Mangiamele, Direktor von AMCI Testing.

„Aber seine scheinbare Unfehlbarkeit in den ersten fünf Minuten des FSD-Betriebs erzeugt ein Gefühl der Ehrfurcht, das unweigerlich zu gefährlicher Selbstgefälligkeit führt. Wenn Fahrer mit aktiviertem FSD fahren, ist es unglaublich gefährlich, mit den Händen im Schoß oder vom Lenkrad weg zu fahren. Wie Sie in den Videos sehen werden, sind die kritischsten Momente einer FSD-Fehlkalkulation Ereignisse im Bruchteil einer Sekunde, auf deren Erkennung sich sogar professionelle Fahrer mit einer Prüfungsmentalität konzentrieren müssen“, sagte Mangiamele.

Zu den gefährlichen Verhaltensweisen, die AMCI beobachtete, gehörte das Überfahren einer roten Ampel und das Wechseln auf die Gegenfahrbahn auf einer kurvigen Straße, während ein anderes Auto auf den Tesla zusteuerte. Um die Sache noch schlimmer zu machen, erwies sich das Verhalten von FSD als unvorhersehbar – vielleicht eine Folge von Teslas Vertrauen in die probabilistische Blackbox des maschinellen Lernens?

“Ob es an mangelnder Rechenleistung liegt, an einem Pufferproblem, wenn das Auto bei den Berechnungen in RĂĽckstand gerät, oder an einem kleinen Detail bei der Umgebungsbewertung, lässt sich nicht sagen. Diese Fehler sind die heimtĂĽckischsten. Aber es gibt auch ständige Fehler aufgrund einfacher Programmiermängel, wie z. B. wenn der Spurwechsel bei einer Autobahnausfahrt erst knapp eine Zehntelmeile vor der Ausfahrt selbst beginnt, was das System behindert und Zweifel an der Gesamtqualität seiner Basisprogrammierung aufkommen lässt”, sagte Mangiamele.

Leave a Comment

Your email address will not be published. Required fields are marked *