Vollautonome Fahrzeuge sind im öffentlichen Straßenverkehr immer noch selten anzutreffen, obwohl Autonomes Fahren schon lange nicht mehr bloße Zukunftsmusik ist. Der gesetzliche Rahmen für vollautonome Fahrzeuge steht: das “Gesetz zum automatisierten Fahren”, das bereits seit 2017 für Fahrzeuge der Stufe 3 in Kraft ist, wurde im Juli 2021 um autonome Fahrzeuge der Stufe 4 erweitert. Autonome Fahrzeuge werden in mehreren Stufen klassifiziert: Die Stufen 0-2 bezeichnen den klassischen Selbstfahrer, der teilweise schon (ab Stufe 2) automatisierte Unterstützung vom Fahrzeug erhält, beispielsweise durch einen Spurhalteassistent. Ab Stufe 3 beginnt das hochautomatisierte Fahren, bei dem das Fahrzeug bereits bestimmte Aufgaben (wie z.B. das Autobahn fahren) selbständig übernehmen kann. In Stufe 4 funktioniert das Fahren vollautomatisiert, ein aktiver Fahrer ist nicht mehr nötig. Vollautonom, mit voller Selbständigkeit, wird das Fahrzeug dann in Stufe 5.

Der schleppende Fortschritt beim Einzug der autonomen Fahrzeuge in den Straßenverkehr ist sowohl auf die Komplexität der in diesen Fahrzeugen zum Einsatz kommenden künstlichen Intelligenz, als auch auf die hohen Sicherheitsanforderungen, die sie erfüllen müssen, zurückzuführen. Für die Simulation und Testung der Softwaresysteme in autonomen Fahrzeugen, reichen herkömmliche Testmethoden wie Testfahrten nicht mehr aus: Sie dauern zu lange und sind zu unpräzise. 

Franz Wotawa vom Institut für Softwaretechnologie der TU Graz erklärt: 

„Autonome Fahrzeuge müssten rund 200 Millionen Kilometer gefahren werden, um ihre Zuverlässigkeit – speziell für Unfallszenarien – unter Beweis zu stellen. Das sind 10.000-mal mehr Testkilometer als sie bei herkömmlichen Autos notwendig sind.“ 

Das Forschungsteam um Wotawa, das sich den Herausforderungen der für autonome Fahrzeuge erforderlichen Sicherheitsgarantie annimmt, hat einen effizienteren Testansatz ergründet: die Simulation von Fahrumgebungen mithilfe von Ontologien. 

Ontologien zur automatischen Generierung von Testszenarien 

In der Künstlichen Intelligenz stellen Ontologien Wissensbanken dar, die intelligenten Informationssystemen relevante Informationen über einen bestimmten Anwendungsbereich bereitstellen, auf deren Basis sie Entscheidungen treffen. Dieses Wissen umfasst unter anderem Entitäten, also eindeutig bestimmbare und abgrenzbare Einheiten, deren Verhaltensweisen und Beziehungen zueinander. Auch Regeln und Einschränkungen können explizit definiert sein. Übertragen auf den Bereich des Autonomen Fahrens, ermöglichen Ontologien intelligenten Fahrzeugen somit, ihre Fahrumgebung zu verstehen, was essenziell für das vorausschauende und risikominimierende Verhalten der Fahrzeuge im Verkehr ist. Die Ontologien sind dazu zum Beispiel mit Informationen über den Aufbau von Straßen, über Verkehrsteilnehmer oder Verkehrssteuerelemente wie Ampeln gespeist. Auf Basis dieser Informationen können Algorithmen ein Vielfaches an Simulationen generieren, um das Verhalten autonomer Fahrzeuge in diesen Szenarien zu testen. 

Ontologie-basierte Tests sind schneller und zuverlässiger 

Mithilfe von Ontologien können nicht nur in kürzester Zeit unzählige Simulationsszenarien generiert und getestet werden, sondern auch solche, die nur sehr schwer zu reproduzieren sind oder an die der Mensch selbst gar nicht denkt. In einem simulativ generierten Testszenario um Wotawas Team wurde so zum Beispiel festgestellt, dass ein Bremsassistenzsystem Personen, die sich dem Fahrzeug aus verschiedenen Richtungen näherten, nicht gleichzeitig erkannt hatte und ein Bremsmanöver einleitete, bei dem eine Person zu Schaden gekommen wäre. 

„Wir haben in ersten experimentellen Versuchen gravierende Schwachstellen von automatisierten Fahrfunktionen aufgedeckt. Ohne diese automatisch generierten Simulationsszenarien wären die Schwachstellen nicht so schnell erkannt worden: 9 von 319 untersuchten Testfällen haben zu Unfällen geführt.“
(
Franz Wotawa, Forscher an der TU-Graz)

Mit einem auf Ontologien basierten Ansatz können Sicherheitslücken autonomer Fahrzeuge also schneller ausfindig gemacht und ausgebessert werden. 

Täuschung autonomer Fahrzeuge

Ein Beispiel aus den USA zeigt derweil ein ganz anderes Risiko autonomer Systeme: Forscher modifizierten ein Verkehrsschild für ein Tempolimit von 80km/h mithilfe eines Fleckenmusters so, dass ein intelligentes Zeichenerkennungssystem Schild als Stopp-Schild interpretieren würde. In einem Szenario im öffentlichen Straßenverkehr würde das autonome Fahrzeug abrupt stoppen und womöglich einen Auffahrunfall verursachen. Die Forscher testeten mehrere solcher Beispiele zunächst in einer Simulation und anschließend in echten Fahrumgebungen. In 90% der Testfälle wurden die Verkehrszeichen tatsächlich fehlgedeutet. Schon kleinste Veränderungen in der Umgebung können also zu Fehldeutungen seitens autonomer Systeme führen.

Überprüfbarkeit als weitere Voraussetzung für Sicherheit autonomer Fahrzeuge

Forscher sind sich einig, dass autonome Fahrzeuge auf solche „Manipulationen“, seien diese beabsichtigt oder nicht, dringend trainiert werden müssen. Schließlich werden autonome Fahrzeuge, auch nachdem sie sich im Straßenverkehr etabliert haben, weiterhin dazu lernen müssen. Ontologie-basierte Simulationen sollten auch solche riskanten Szenarien berücksichtigen und überprüfen, ob autonome Systeme trotz unbekannter Veränderungen in der Umgebung in der Lage sind, sich selbst zu korrigieren und die richtige Entscheidung zu treffen. Das Bundesamt für Sicherheit in der Informationstechnik will sich für harmonisierte Richtlinien einsetzen, die nicht nur Standards für die Entwicklung autonomer Fahrzeuge definieren, sondern auch für deren Überprüfbarkeit, um deren Verhalten nachvollziehen zu können. Doch wie sieht eigentlich die Rechtslage zum Einsatz von KI in der EU derzeit aus?

EU-Richtlinien streben nach Exzellenz und Vertrauen 

Die Europäische Kommission hat sich in ihrem Weißbuch zur KI vom 19. Februar 2020 dazu verpflichtet, die Einführung von KI zu fördern und einheitliche Richtlinien für KI-basierte Anwendungen unter Berücksichtigung sicherheitskritischer und ethischer Aspekte zu formulieren. Inzwischen hat die Kommission einen Vorschlag für den weltweit ersten Rechtsrahmen für Künstliche Intelligenz vorgelegt. Die Verordnung sieht vor, KI-Systeme in vier Risikogruppen einzustufen: minimal, gering, hoch und unannehmbar. 

Autonome Fahrzeuge, die in kritischen Fällen über das Leben von Menschen entscheiden, werden als Hochrisiko-KI-Systeme eingestuft. Diese Systeme unterliegen hinsichtlich ihrer Entwicklung und deren Dokumentation besonders strengen Anforderungen:

  • Eine hohe Qualität der Datensätze, die in das System eingespeist werden, ist erforderlich, um Risiken so gering wie möglich zu halten.
  • Die Vorgänge müssen protokolliert werden, um die Rückverfolgbarkeit von Ergebnissen zu ermöglichen.
  • Eine ausführliche Dokumentation ist Voraussetzung für die Beurteilung der Konformität des Systems.
  • Angemessene Risikobewertungs- und Risikominderungssysteme müssen eingerichtet werden.
  • Klare und angemessene Informationen müssen dem Nutzer bereitgestellt werden.
  • Das System sollte unter angemessener menschlicher Aufsicht stehen, um Risiken zu minimieren. 
  • Ein hohes Maß an Robustheit, Sicherheit und Genauigkeit muss gegeben sein. 

Wann die Verordnung tatsächlich in Kraft tritt, ist derzeit noch unklar. Die Verordnung wird aktuell im Europäischen Parlament und im Europäischen Rat diskutiert. 

Magility’s Sicht auf die Herausforderungen beim Einsatz autonomer Fahrzeugen und Ontologien

Ontologie-basierte Tests bieten aufgrund der Möglichkeit zur automatischen Generierung vielfältiger Verkehrsszenarien einen vielversprechenden Ansatz, der den sicheren Einsatz autonomer Fahrzeuge im Straßenverkehr endlich beschleunigen könnte. Doch solange keine harmonisierten Regularien gelten, werden Hersteller sich schwertun, die Konformität ihrer Fahrzeuge langfristig zu gewährleisten. Die Gesetzgeber hinken der schnell fortschreitenden Entwicklung und damit den ständig hinzukommenden neuen Möglichkeiten und Technologien innerhalb der KI weit hinterher. Richtlinien müssen nicht nur schnellstmöglich in Kraft gesetzt werden, sondern auch in angemessenem Zeitabstand auf ihre Aktualität hin evaluiert werden. Bei der bislang vorgelegten Verordnung sieht die Europäische Kommission die erste Überprüfung erst nach drei Jahren vor – die Notwendigkeit neuer dringlicher Sicherheitsstandards könnte sich schon in wesentlich kürzeren Zeitabständen ergeben.. 

Die Gesellschaft steht dem vollautonomen Fahren derweil noch skeptisch gegenüber. Im Rahmen einer Studie, die die grundlegenden Akzeptanzprobleme der Befragten beim Autonomen Fahren untersuchte, gaben 48% eine grundsätzliche Unsicherheit an, 40% haben Angst vor Hacker-Angriffen und 39% vor Unfällen.

„Jede technologische Innovation kann nur so erfolgreich sein, wie die gesellschaftliche Akzeptanz dahinter“.
(Nari Kahle, Young Global Leader und Head of Strategic Programs bei Volkswagens Software-Tochter Cariad)

Inwiefern auf Ontologien basierende Tests hinsichtlich ihres Potenzials für die garantierte Sicherheit autonomer Fahrzeuge oder der EU-Rechtsrahmen das mangelnde Vertrauen der Gesellschaft in autonome Fahrzeuge positiv beeinflussen können, bleibt spannend. Die Hersteller müssen letztendlich beweisen, dass autonomes Fahren sicherer als der Mensch am Steuer ist, und dass die Zahl der Verkehrsunfälle im Straßenverkehr durch autonomes Fahren zunehmend gesenkt werden kann. 

Wir von magility verfolgen den Fortschritt der autonomen Mobilität aufmerksam weiter und halten Sie über die jüngsten Entwicklungen auf dem Laufenden. Kontaktieren Sie gerne unsere Experten bei Magility für einen Austausch zu diesem Thema!

Das Wichtigste in Kürze

  • Ontologien bieten im Vergleich zu herkömmlichen Testmethoden einen innovativen Ansatz, um die Sicherheit autonomer Fahrzeuge zu testen. 
  • Auf Basis von Informationen wie Straßenzustand, Verkehrsteilnehmer und Ampeln können Ontologien die Fahrumgebungen autonomer Fahrzeuge beschreiben.
  • Mit Ontologien können mehr und schneller Testszenarien generiert werden. Auch seltene Unfallszenarien, die schwer reproduzierbar sind, können zuverlässiger durchgespielt werden. 
  • Die Europäische Kommission hat sich verpflichtet, die Einführung von KI zu fördern und ein exzellentes Maß an Sicherheit und Vertrauen beim Einsatz von KI zu gewährleisten. 
  • Ein Entwurf der Kommission für den weltweit ersten Rechtsrahmen für Künstliche Intelligenz liegt vor. Autonome Fahrzeuge gelten als Hochrisiko-Systeme und unterliegen besonderen Anforderungen hinsichtlich der Entwicklung und Dokumentation. 
  • Gesellschaftliches Vertrauen in autonome Fahrzeuge zu schaffen, wird zur zusätzlichen Herausforderung für Hersteller.