Ein Safety Board schlägt Tesla und die Aufsichtsbehörden bei einem tödlichen Absturz im Jahr 2018 aus

20. März 2020 Aus Von admin

Das National Transportation Safety Board sagt, der Autohersteller sollte die Verwendung seiner Autopilot-Funktion einschränken und besser erkennen, wann Fahrer aufpassen.

Das National Transportation Safety Board gab am Dienstag Ergebnisse und Empfehlungen in einer von vier Sonden für Abstürze mit Tesla heraus

Ein Bundesüberwachungsgremium hat Tesla und die Bundesbehörde, die es reguliert, am Dienstag angegriffen, nachdem auf onlinebetrug.net eine Untersuchung eines tödlichen Unfalls von 2018 abgeschlossen wurde, an dem die Fahrassistenzfunktion des Autoherstellers Autopilot beteiligt war.

Die Untersuchung des National Transportation Safety Board ergab, dass Tesla nicht genug getan hat, um den Missbrauch des Autopiloten durch die Fahrer zu verhindern. Tesla sagt, dass er in bestimmten Situationen auf Autobahnen „fahren“ kann, aber immer von denen hinter dem Lenkrad überwacht werden muss. Die Untersuchung kam auch zu dem Schluss, dass der freiwillige Ansatz der National Highway Traffic Safety Administration zur Regulierung neuer Fahrzeugtechnologien das Risiko fortschrittlicher Fahrerassistenzfunktionen übersehen hatte, die jetzt in Fahrzeugen von Tesla, General Motors , Audi und anderen zu finden sind.

„Das Beheben von Problemen nach dem Tod von Menschen ist kein guter Autobahnansatz“, sagte Robert Malloy, Direktor für Straßenverkehrssicherheit beim NTSB, am Dienstag gegenüber den Vorstandsmitgliedern.

Die Untersuchung des NTSB – eine von vier abgeschlossenen oder laufenden Autopilot-Abstürzen – untersuchte einen Vorfall im März 2018 in Mountain View, Kalifornien. Während des morgendlichen Pendelverkehrs prallte ein 2017er Modell X des Autopiloten gegen eine Betonbarriere, die die Autobahn von einer Ausfahrt mit 71 Meilen pro Stunde trennte. (Die Barriere war 11 Tage zuvor bei einem weiteren Unfall beschädigt und von der kalifornischen Autobahnbehörde nicht repariert worden.) Der SUV drehte sich, kollidierte mit zwei anderen Fahrzeugen und fing dann Feuer. Zuschauer zogen den Fahrer aus dem Fahrzeug, aber der Mann, ein 38-jähriger Apple-Ingenieur namens Walter Huang, starb bald darauf in einem örtlichen Krankenhaus.

Das Board stellte fest, dass die wahrscheinliche Ursache des Absturzes kompliziert war – machte jedoch einige ausgetretene Anschuldigungen gegen Tesla geltend. Es hieß, dass das Autopilot-System von Tesla den SUV von der Straße ablenkte und dass der Fahrer es nicht bemerkte, bevor das Auto Sekunden später gegen die Barriere knallte. Das NTSB kam zu dem Schluss, dass Huang sich stärker auf die Autopilot-Funktion stützte, als er sollte; Handy-Protokolle deuten darauf hin, dass er ein Spiel auf seinem Handy gespielt hat. Das Safety Board hat einen Teil dieser Unaufmerksamkeit auf das Design des Tesla Autopilot gelenkt, bei dem das auf das Lenkrad ausgeübte Drehmoment als Zeichen dafür verwendet wird, dass der Fahrer ausreichend mit dem Fahren beschäftigt ist. (Andere Systeme, wie das von General Motors, verwenden eine Fahrzeugkamera, um die Kopfposition und die Augenbewegung zu überwachen.)

Das NTSB kann die Bundes- oder Kommunalpolitik nicht ändern, aber Empfehlungen aussprechen. Es gab viele davon. Das Board wiederholte zwei Empfehlungen, die es während einer Untersuchung eines Autopilot-Todes im Jahr 2017 herausgegeben hatte – auf die Tesla nicht offiziell reagiert hat. Tesla wurde gebeten, den Fahrer auf die Verwendung von Autopilot in Straßen- und Wettersituationen zu beschränken, in denen er sicher verwendet werden kann. Und es forderte das Unternehmen auf, sein Fahrerüberwachungssystem zu aktualisieren, damit es „effektiver erkennen“ kann, wie sehr sich die Person hinter dem Lenkrad mit dem Fahren beschäftigt.

Tesla antwortete nicht auf eine Bitte um Kommentar. Aber nur wenige Tage nach dem Absturz, das Unternehmen veröffentlicht Details über den Vorfall-eine ernsthafte no-no in NTSB Untersuchungen, die in der Regel Monate oder Jahre dauern , um eine vollständige-und effektiv verantwortlich gemacht Huang für die Veranstaltung. Das Unternehmen sagte, Huang habe das Rad sechs Sekunden lang nicht berührt, bevor das Fahrzeug in den Betonspurteiler prallte, und dass „der Fahrer etwa fünf Sekunden und 150 Meter freie Sicht auf den Betonteiler hatte… aber die Fahrzeugprotokolle zeigen, dass keine Aktion durchgeführt wurde genommen. “ Da Tesla diese Informationen veröffentlichte, unternahm das NTSB den ungewöhnlichen Schritt , Tesla als Partei der Untersuchung förmlich zu entfernen .

Straßen

Probleme zu beheben, nachdem Menschen gestorben sind, ist kein guter Autobahnansatz

Das NTSB sagte auch, dass die kalifornischen Autobahnbehörden zu dem Vorfall beigetragen hätten, indem sie die Betonbarriere nicht repariert hätten – etwas, das sie zu dem Schluss gebracht hätte, hätte den Fahrern das Leben gerettet.

Das NTSB hatte auch Empfehlungen für das NHTSA. Die Agentur wurde aufgefordert, neue Möglichkeiten zu finden, um erweiterte Fahrerassistenzfunktionen wie die Vorwärtskollisionswarnung zu testen und insbesondere das Autopilot-System von Tesla zu untersuchen. Das NTSB forderte die NHTSA außerdem auf, mit der Industrie zusammenzuarbeiten, um Leistungsstandards für Fahrerassistenzfunktionen zu schaffen, die laut Kritikern den Menschen zu Selbstzufriedenheit verleiten können, obwohl sie nicht die Fahraufgabe übernehmen sollen.

Vorstandsmitglied Jennifer Homendy kritisierte die Bundesregulierungsbehörden für ihre Herangehensweise an neue Technologien wie Autopilot, für die sich die NHTSA eingesetzt hat, um neue Fahrzeuge zu angemessenen Preisen und für mehr Fahrer zugänglich zu halten. „NHTSA hat nicht die Aufgabe, Autos zu verkaufen“, sagte sie.

In einer Erklärung sagte ein NHTSA-Sprecher, die Agentur werde den Bericht des NTSB „sorgfältig prüfen“, dessen endgültige Fassung in den kommenden Wochen veröffentlicht wird. Es wurde auch auf die Forschung von Agenturen hingewiesen, in der branchenweit bewährte Verfahren für die Fahrerassistenztechnologie dargelegt wurden.

Wie ein chaotisches Skunkworks-Rennen in der Wüste eine möglicherweise außer Kontrolle geratene globale Industrie ins Leben gerufen hat

Das NTSB machte auch Huangs Absturz zu Füßen seines Arbeitgebers Apple verantwortlich. Arbeitgeber sollten abgelenkte Fahrrichtlinien für ihre Arbeitnehmer haben, sagte der Vorstand, die ihnen untersagten, Geräte zu verwenden, während sie firmeneigene Fahrzeuge bedienen, und ihre Arbeitsgeräte zu verwenden, während sie ein Fahrzeug bedienen. (Huang betrieb zum Zeitpunkt des Absturzes sein eigenes Fahrzeug, aber sein Telefon gehörte Apple.) Und das Panel forderte Hersteller mobiler Geräte, darunter Apple, Google, Lenovo und Samsung, auf, Technologien zu entwickeln, die Fahrer ausschließen von ablenkenden Anwendungen während der Fahrt. Die Frage „ist nicht gegen Technologie“, sagte der NTSB-Vorsitzende Robert Sumwalt in seiner Eröffnungsrede. „Es ist für die Sicherheit.“ Apple erwartet von seinen Mitarbeitern die Einhaltung des Gesetzes.

Nach einem Absturz von 2016 mit Autopilot änderte Tesla die Funktionsweise der Funktion. Wenn ein Fahrer, der Autopilot verwendet, 30 Sekunden lang keinen Druck auf das Lenkrad ausübt, piepen und blinken die Warnungen, bis das Auto langsamer wird. Im vergangenen Jahr hat das Unternehmen Autopilot erneut mit neuen Warnungen für rote Ampeln und Stoppschilder aktualisiert.

Als Reaktion auf ein Video, das letztes Jahr viral wurde und einen Fahrer zeigt, der während der Nutzung von Autopilot auf einer Autobahn schläft, empfahl der US-Senator Ed Markey (D-Massachusetts) Tesla, Autopilot umzubenennen und umzubenennen, um seine Einschränkungen zu verdeutlichen und ein Backup-System hinzuzufügen um sicherzustellen, dass der Fahrer am Steuer beschäftigt bleibt. Als Antwort auf Markey glaubt Tesla, dass Fahrer, die Autopilot missbrauchen, „einen sehr kleinen Prozentsatz unseres Kundenstamms ausmachen“ und dass viele Online-Videos von Fahrern, die diese Funktion missbrauchen, „gefälscht sind und die Aufmerksamkeit der Medien auf sich ziehen sollen“.

Durch den Vergleich der Crash-Daten von Tesla-Fahrern mit eingeschaltetem Autopilot mit Daten von Personen, die nur grundlegendere Sicherheitsfunktionen wie Vorwärtskollisionswarnung und automatische Notbremsung verwenden, ist Tesla zu dem Schluss gekommen, dass Kunden mit eingeschaltetem Autopilot 62 Prozent weniger wahrscheinlich abstürzen.

Dennoch wollte NTSB eine unbestreitbare Tatsache hervorheben. „Sie besitzen kein selbstfahrendes Auto“, sagte Sumwalt am Dienstag. „Tu nicht so, als ob du es tust.“