Autonomes Fahren: Grenzfälle als Herausforderung

Waymo darf ohne Sicherheitsfahrer in Kalifornien fahren. Foto: dpa
Ein selbstfahrendes Auto von Waymo. © dpa

Ein Roboterauto muss auf alle Situationen angemessen reagieren können. Doch Grenzfälle sorgen dafür, dass die Technologie langsamer kommen wird als gedacht.

Das Auto fährt mit Tempo 130 über die Autobahn, während der Fahrer sich zurücklehnt und Zeitung liest: So hatte BMW sein Elektroauto iNext für das Jahr 2021 angekündigt. Jetzt geht es doch ein bisschen langsamer beim automatisierten Fahren – nicht nur bei den Münchnern. Denn es reicht nicht, wenn das Auto in 99 Prozent der Situationen selbstständig sicherer fährt als ein guter Autofahrer. Das letzte Prozent, „das ist ein Problem“, sagt Branchenexperte Stefan Bratzel.


„Zum Beispiel ein stehendes Auto in einer Autobahnkurve bei Nebel. Oder eine Waschmaschine auf der Straße“, erklärt BMW-Sprecher Bernhard Ederer: „Solche Grenzfälle sind eine Herausforderung. Auch da muss es absolut sicher sein. Aber das ist ein dickes Brett.“ Auf einem Campus bei München arbeiten 1300 Experten von BMW, Intel, FiatChrysler und Mobileye am neuen Technik-Baukasten für den iNext, mit Radar, Lasersensorik, besseren Kameras und stärkeren Rechnern. Aber beim Fahren „bleibt der Mensch in der Verantwortung“, sagt Ederer.

Bratzel: Waymo weit vorn

Beim autonomen Fahren sieht Professor Bratzel die Google -Schwester Waymo weit vorn, die Roboter-Taxis in Phoenix in Arizona fahren lässt. Bei Serienautos sieht Audi-Chef Markus Duesmann ein anderes US-Unternehmen an der Spitze: „Beim Thema Rechner und Software-Architektur hat Tesla sicher zwei Jahre Vorsprung, beim automatisierten Fahren auch“, sagte Duesmann dem „Handelsblatt“.

Tesla habe eine Software entwickelt und anschließend ein Auto drumherum gebaut, erklärt Bratzel. Nun kann es automatisch die Spur wechseln, von der Autobahn abfahren und Stoppschilder erkennen. Nachbesserungen, Updates, neue Funktionen spielt Tesla per Funk auf. Außerdem „trauen sie sich ein bisschen mehr“, sagt Bratzel. Mitunter auch zu viel. Das wurde zum Beispiel bei einem Unfall deutlich, als ein Tesla vom „Autopiloten“ ungebremst in einen Lastwagen gesteuert wurde.

Eine Frage des Qualitätsanspruchs

Hier sieht Professor Mario Trapp, Leiter des Fraunhofer-Instituts für Kognitive Systeme (IKS), einen großen Unterschied zwischen den deutschen Autobauern und den High-Tech-Konzernen in Kalifornien. Die IT-Welt und ihre Nutzer seien weniger Qualität gewohnt. „Dass Apps abstürzen und Webdienste nicht immer reibungslos funktionieren, ist quasi selbstverständlich. Mit der Übernahme der Technologie hat letztlich auch deren Qualitätsmaßstab Einzug gehalten.“ Für die traditionellen Autobauer seien aber Qualität und Sicherheit wichtiger als die fortschrittlichen Features. Für sie sei entscheidend, „tödliche Unfälle durch Softwarefehler auszuschließen“.

Die deutschen Autobauer kommen vom Maschinenbau und beginnen gerade, bei der Software aufzuholen. Straßenmarkierungen, Schilder, Ampeln, andere Fahrzeuge, Radfahrer und Fußgänger ließen sich nur durch Künstliche Intelligenz erkennen, sagt Trapp. „Hier besteht noch ein großer Nachholbedarf für klassische Automobilbauer.“

Software als Basis der Geschäftsmodelle

Software sei die Basis für viele kommende Geschäftsmodelle. „Der Markt ist geprägt von Smartphones und Webdiensten und erwartet, dass sich auch ein Auto mindestens genauso flexibel aktualisieren und beispielsweise durch Apps erweitern lässt“, erklärt der Fraunhofer-Forscher. Die Frage sei nun, „ob es die Tech-Unternehmen schneller schaffen, ihrer hochflexiblen Software die nötige Qualität zu verleihen, oder ob es den traditionellen Unternehmen gelingt, ihrer sicheren Software schneller die nötige Flexibilität zu verleihen“.

Die große Unbekannte in diesem Wettbewerb seien die Kunden. „Sobald der Markt bereit ist, geringere, vielleicht sogar gefährliche Qualitätsmaßstäbe zugunsten toller Autopiloten zu akzeptieren, werden hier die Karten neu gemischt“, sagt Trapp. „Umgekehrt gilt dies in gleichem Maße, wenn der Markt erkennt, dass eine tolle Smartphone App etwas Anderes ist, als wenn Menschenleben auf dem Spiel stehen.“

Sicherheit geht vor

Die Vision iNext. Foto: BMW
In Szene gesetzt mit Lichteffekten: der BMW Vision iNext. Foto: BMW

Für VW, Daimler, BMW, Audi und sieben andere Autobauer, Zulieferer und Tech-Konzerne ist die Sache klar: „Safety first for Automated Driving“ heißt ihr Abkommen, mit dem sie sich auf Standards für Entwicklung, Test und Bewertung verständigt haben. Von den heutigen Fahrerassistenz-Systemen ausgehend schreiten sie voran, „Schritt für Schritt“, wie Ederer sagt.

Dabei haben sie immer im Blick, was die Konkurrenz macht und wofür der Kunde bereit ist zu zahlen. Assistenzsysteme gegen Aufpreis seien profitabel, heißt es bei den Autobauern. Das Interesse sei hoch, „in allen Baureihen“, sagt Mercedes-Sprecherin Sarah Widmann. Für Kunden nützlich und für Mercedes ein Geschäft könne zum Beispiel ein hochautomatisiertes Stausystem sein. Audi-Sprecher Udo Rügheimer sagt: „Wir wollen unseren Kunden beispielsweise eine stärkere Unterstützung im städtischen Umfeld anbieten“ und in Ländern, wo das erlaubt ist, „erweiterte Hands-off-Möglichkeiten“.

Trotz Spardruck durch Corona-Krise und Rezession gebe es bei Forschung und Entwicklung auf diesem Gebiet keine Abstriche. Jährlich zwei Milliarden Euro investiere die Branche in Deutschland dafür, hat die Unternehmensberatung PwC ausgerechnet. (dpa)

1 Kommentar

  1. „Für die traditionellen Autobauer seien aber Qualität und Sicherheit wichtiger als die fortschrittlichen Features. Für sie sei entscheidend, „tödliche Unfälle durch Softwarefehler auszuschließen“.“ Das klingt irgendwie so als könnte der Hersteller sich das aussuchen. Tatsache ist dass das Produkhaftungsrecht vorgibt das vom Produkt bei bestimmungsgemäßem Gebrauch und auch bei vorhersehbarer Fehlanwendung keine Gefahr für den Menschen ausgehen darf. In Deutschland, der EU und auch allen anderen westlichen Ländern hat der Hersteller gar keine andere Wahl als den Stand der Technik einzuhalten, wenn er nicht grob fahrlässig handeln will und somit die Verantwortlichen nicht persönlich haftbar sein sollen. Und das schließt auch die funktionale Sicherheit ein – da lässt sich der Stand der Technik mit dem was momentan gemacht wird und möglich ist schlicht und ergreifend nicht mal annähernd erreichen.

    Das Problem liegt noch mindestens eine Ebene über Sensorik, Rechnern und machine learning Algorithmen. Die können noch so leistungsstark sein, pfhd von 10^-7 oder geringer kann damit erstens weder erreicht, noch überhaupt nachgewiesen werden. Was langsam ja auch immer mehr offenbar wird. Auch der 100% selbstfahrende Level 5 Tesla, der ja im Jahr 2020 definitiv endgültig mit Sicherheit kommen wird stellt sich wieder als leeres Werbeversprechen raus.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein
Bitte geben Sie Ihren Namen ein