Screenshot: NHTSA
Das Office of Defects Investigation (ODI, FYI) der National Highway Traffic Safety Administration (NHTSA) hat eine Untersuchung zu einer Reihe von Autopilot-gesteuerten Tesla-Crashs eingeleitet, an denen Rettungsfahrzeuge beteiligt waren, die mit anderen Vorfällen zu tun hatten. Die Untersuchung zielt speziell auf 11 Unfälle ab, die 17 Verletzte und ein Todesopfer forderten.
Hier ist die Zusammenfassung der Untersuchung vom ODI:
Seit Januar 2018 hat das Office of Defects Investigation (ODI) elf Unfälle identifiziert, bei denen Tesla-Modelle verschiedener Konfigurationen mit Einsatzfahrzeugen in Berührung gekommen sind und anschließend ein oder mehrere Fahrzeuge getroffen haben, die an diesen Einsätzen beteiligt waren. Die Vorfälle sind am Ende dieser Zusammenfassung nach Datum, Stadt und Bundesland aufgelistet.
Die meisten Vorfälle ereigneten sich nach Einbruch der Dunkelheit, und die Unfallstellen waren durch Einsatzfahrzeuge, Fackeln, eine beleuchtete Pfeiltafel und Straßenkegel abgesichert. Bei allen beteiligten Fahrzeugen wurde bestätigt, dass sie bei der Annäherung an den Unfall entweder den Autopiloten oder den verkehrsabhängigen Geschwindigkeitsregler eingeschaltet hatten.
…
ODI hat eine vorläufige Bewertung des SAE Level 2 ADAS-Systems (Autopilot) in den Modellen Y, X, S und 3 der Modelljahre 2014-2021 eingeleitet. Die Untersuchung wird die Technologien und Methoden bewerten, die zur Überwachung, Unterstützung und Durchsetzung des Engagements des Fahrers bei der dynamischen Fahraufgabe während des Autopilot-Betriebs eingesetzt werden. Die Untersuchung wird zusätzlich die OEDR von Fahrzeugen im Autopilot-Modus und die ODD bei funktionierendem Autopilot-Modus bewerten. Die Untersuchung wird auch eine Prüfung der Umstände umfassen, die zu den unten aufgeführten bestätigten Unfällen und anderen ähnlichen Unfällen beigetragen haben.
Die Untersuchung wird sich auf alle Fahrzeuge erstrecken, die den Autopilot-Modus nutzen können, d. h. auf etwa 765.000 Teslas, die derzeit auf den Straßen unterwegs sind, und auf alle derzeitverkauften Modelle, die das superschlaue Akronym S, 3, X und Y bilden.
Wir haben schon seit Jahren Unfälle dieser Art gesehen, bei denen Teslas mit Autopilot irgendwie keine Einsatzfahrzeuge “gesehen” haben, und diese besondere Art von Fehler ist einer, der einige sehr grundlegende Probleme mit den aktuellen Grenzen der KI und den grundlegenden Unterschieden zwischen der Herangehensweise von Computern und Menschen an die Aufgabe des Fahrens aufzeigt.
G/O Media könnte eine Provision erhalten
Kurz gesagt: Computer sind Idioten. Das ist eine starke Vereinfachung, aber im Zusammenhang mit der realen Welt ist sie nicht ganz falsch. Die Art von Unfällen, die hier untersucht werden <!– –>- Zusammenstöße mit angehaltenen Einsatzfahrzeugen mit Blinklichtern und manchmal sogar “Leuchtraketen, einer beleuchteten Pfeiltafel und Straßenkegeln” sind einfach nicht die Art von Dingen, die menschliche Fahrer nicht bemerken würden.
KI-gestützte Fahrer hingegen verstehen den größeren Kontext der Welt nicht und fahren eher auf der Grundlage von Regeln, die auf unmittelbare Sensordaten reagieren – das sogenannte “Bottom-up”-Verständnis anstelle des menschlichen “Top-down”-Verständnisses, das ein Bewusstsein für den Gesamtkontext einer Situation beinhaltet.
Diese Art von Untersuchung ist dringend notwendig und wird hoffentlich die erste von vielen sein. Und obwohl ich davon ausgehe, dass die Befürworter des automatisierten Fahrens auf Widerstand stoßen werden, muss diese Art von Untersuchung durchgeführt werden, damit es überhaupt eine Art von AVs geben kann.
Das Ergebnis, das ich am liebsten sehen würde, ist eines, das die inhärenten Probleme jedes Level-2-Systemsanerkennt – eines, das von einem menschlichen Fahrer verlangt, dass er bereit ist, die Kontrolle mit minimaler oder gar keiner Warnung zu übernehmen – und ein Ergebnis, das die Autohersteller dazu bringen kann, sichere Failover-Systeme zu entwickeln, die ein Auto aus dem aktiven Verkehr nehmen, wenn es einen nicht reagierenden Fahrer findet.