Autonomes Fahren gilt als eine maßgebliche Schlüsseltechnologie für die Zukunft des Individualverkehrs. Fahren alle Autos bald von selbst, können wahrscheinlich viele Unfälle verhindert werden. Berufspendler und Reisende könnten während der Fahrt schlafen, arbeiten oder Medien konsumieren. Aber welche Technologien stehen eigentlich hinter der großen Vision vom Autonomen Fahren?
Mehrere Technologien – ein Ziel
Um die angesprochene Vision Wirklichkeit werden zu lassen, werden Autos mit einer Vielzahl unterschiedlicher Sensoren und Systeme ausgerüstet. Schließlich müssen alle Aufgaben eines menschlichen Fahrers übernommen werden. Dazu müssen Sensoren eine umfangreiche und exakte Wahrnehmung 360 Grad um das Auto herum erzeugen, damit eine auf dem höchstmöglichen Standard trainierte Künstliche Intelligenz die Aufgaben des Menschen übernehmen kann und im Idealfall sogar die Kompetenz besitzt, in kritischen Situationen besser und schneller zu entscheiden. Um dies zu gewährleisten und um die höchste Stufe des Autonomen Fahrens zu erreichen, müssen gleich mehrere Technologien sowie deren Datenflüsse kombiniert, ins Fahrzeugsystem integriert und gemanagt werden. Die Ultraschallsensorik ist eine davon. Sie wird nach wie vor für die Nahfeld-Erkennung genutzt. Die sogenannten Parkpiepser sind solche Ultraschallsensoren, die sich schon heute in den Fahrzeugen als Standard durchgesetzt haben.
Autonomes Fahren und die Augen des Computers
Videokameras spielen bei der Entwicklung des Autonomen Fahrzeugs eine immer bedeutendere Rolle. Sie machen Bilder von der Straße und der Umgebung des Fahrzeugs und “blicken” in alle Richtungen. So kann das gesamte Umfeld 360 Grad um das Fahrzeug herum überwacht werden. Andere Verkehrsteilnehmer, auch im toten Winkel, werden erkannt und die Verkehrszeichen gelesen. Als sogenannte Stereokamera ist es solch einer Kamera auch möglich, Entfernungen zu messen. Je höher die Lichtstärke und Auflösung der Kamera ist, desto exakter kann die Umgebung wiedergeben werden. Aber auch für die Innenraumüberwachung kommen Kameras zum Einsatz. Die Fitness sowie der Gesundheitszustand des Fahrers kann überwacht und seine Eingabebefehle durch Gesten erkannt werden. Als Folge der Entwicklung könnten herkömmliche Rückspiegel bald der Vergangenheit angehören. Audi ist mit seinem neuen Elektro-SUV e-Tron mit windschnittigen Kameras der erste Hersteller, der die Rückspiegel komplett durch Kameras ersetzt.
Radar – bewährte Technik, ständig weiterentwickelt
Radarsensoren (radio direction and ranging) senden und empfangen Radiowellen, um die Umwelt abzutasten. Sie werden bereits seit 20 Jahren in der Autoindustrie eingesetzt, etwa für den Tempomat, der den Abstand zum vorausfahrenden Fahrzeug konstant hält. Radar kann Objekte erkennen, deren Entfernung, relative Geschwindigkeit und Bewegungsrichtung. Vorteile von Radarmessungen sind die hohe Reichweite und die Robustheit gegenüber Umwelteinflüssen. Ein Nachteil ist jedoch die geringe Auflösung, mit der Objekte erkannt werden. Andere Technologien bilden Objekte wesentlich exakter ab.
LiDAR – die Vermessung der Umwelt mit Licht
Sensoren auf LiDAR Basis (light detection and ranging) funktionieren grundsätzlich ähnlich wie Radar. Der Unterschied liegt in der gemessenen Strahlung. Denn LiDAR-Systeme senden für das menschliche Auge unsichtbare Laserimpulse aus, deren Reflektionen von den Sensoren gemessen werden. Diese Technologie ist exakter, kann also mit höherer Auflösung wahrnehmen. Allerdings ist die Reichweite bei LiDAR-Systemen ein wenig geringer, und die Messungen sind anfälliger für Umwelteinflüsse wie etwa Regen, Nebel oder Schnee. Dunkle Autos reflektieren LiDAR-Strahlen eher schlecht. Deshalb ändern Lackhersteller zur Zeit ihre Formeln, um auch schwarze Lacke besser reflektieren zu lassen. Die LiDAR-Sensoren führen 10.000 Messungen pro Sekunde durch und erstellen so ein aktuelles Abbild der Umgebung, was wiederum schnelle Reaktionszeiten des autonomen Systems ermöglicht.
Ohne High-Speed Datenverarbeitung kein Autonomes Fahren
Es gibt also unterschiedliche Arten von Sensoren, die ständig große Mengen von Daten produzieren. Erst durch deren Kombination, Anreicherung und blitzschnelle Verarbeitung wird Autonomes Fahren ermöglicht. Der Begriff hierfür ist die Sensorfusion. Um die Datenmengen der Sensoren verarbeiten zu können, müssen Autos mit immer schnelleren Prozessoren ausgestattet werden. Die Automobilhersteller und Zulieferer stehen bezüglich Rechenleistung mittlerweile in starkem Wettbewerb zueinander. Über die Daten von Sensoren und Kameras läuft eine Mustererkennung, welche die reale Umwelt strukturiert und so für das System verwendbar macht. Hinzu kommen noch hinterlegte Kartendaten sowie Positionsdaten aus dem GPS Signal. Um diese großen Mengen von Daten zu verarbeiten, werden Methoden aus den Bereichen Big Data und Künstliche Intelligenz implementiert. So kann ein System auch selbstlernend ausgelegt und erworbene Lerneffekte können an die Systeme anderer Autos übertragen werden.
Neben Sensoren, die das Autonome Fahren an sich unterstützen sollen, arbeiten verschiedene Unternehmen daran, aus den gewonnenen Daten weitere Informationen zu generieren, die auch schon bei niedrigeren Automatisierungsgraden von Fahrzeugen das Fahrerlebnis und die Sicherheit verbessern sollen. Die Software des israelischen Startups Tactile Mobility zum Beispiel nutzt Sensorfusion der im Fahrzeug bestehenden Sensoren, um u.a. den Grip Level (Haftungsgrad) der Straße zu bestimmen. Bei Veränderungen der Straßenverhältnisse wird der Fahrer bzw. das autonome Fahrzeug dabei in Echtzeit über Gefahren und Gegenmaßnahmen informiert.
- Um das autonome Fahren zu ermöglichen müssen mehrere Technologien sowie deren Datenflüsse kombiniert, ins Fahrzeugsystem integriert und gemanagt werden.
- Die Videokameras des Fahrzeugs spielen eine bedeutende Rolle: Das gesamte Umfeld 360 Grad um das Fahrzeug herum kann überwacht werden, zusätzlich kommt eine Innenraumüberwachung zum Einsatz.
- Radarsensoren (radio direction and ranging) senden und empfangen Radiowellen, um die Umwelt abzutasten.
- Sensoren auf LiDAR Basis (light detection and ranging) funktionieren ähnlich wie Radar, allerdings ist die Technologie exakter und die Reichweite geringer.
- Durch die Kombination, Anreicherung und schnelle Verarbeitung der Datenmenge der Sensoren wird das autonome Fahren ermöglicht – Man spricht von Sensorfusion.
- Die Grundvoraussetzung des autonomen Fahren ist die Konnektivität, doch mit wachsender Konnektivität steigt auch das Risiko für Cyber-Crime.
Welche Entwicklungen stehen noch an?
Konnektivität ist die Grundvoraussetzung für Autonomes Fahren. Ein autonom fahrendes Fahrzeug mit all seinen Sensoren wird auch mit einem Server des Herstellers verbunden sein. So können beispielsweise Verkehrs- und Wetterdaten in Echtzeit berücksichtigt und die Software des Fahrzeugs ständig aktualisiert und optimiert werden. Gerade für die Cyber-Security des Fahrzeugs ist diese Vehicle-to-Backend-Connectivity (V2B) ausschlaggebend. Um einen Cyber-Angriff schnellstmöglichst zu stoppen, sind Over-the-Air (OTA)-Updates unumgänglich. Desweiteren werden die autonomen Fahrzeuge mit der Infrastruktur vernetzt sein, die sogenannte Vehicle to Infrastructure-Connectivity (V2I) sowie untereinander, also Vehicle to Vehicle (V2V). Um die Positionen der autonomen Fahrzeuge zu überwachen und den Verkehr sicher zu steuern, wird in der Zukunft auch die Vehicle-to-Satellite-Connectivity (V2S) mehr und mehr in den Fokus rücken. Auch eine weitere Vernetzung, genannt Vehicle-to-Everything (V2X), ist möglich. Für die Datenmengen, die konnektiv über die verschiedenen Kanäle ausgetauscht werden, reicht der heutige Mobilfunkstandard nicht aus. Erst wenn der schnellere Mobilfunkstandard 5G eingeführt wird, können sich die Fahrzeuge auch untereinander vernetzen (V2V). Jedes Auto könnte dann ein Signal senden um von anderen Verkehrsteilnehmern bereits außerhalb der Sensorreichweite erkannt zu werden. Verkehrsflüsse ließen sich so optimieren und sicherer gestalten. Mit wachsender Konnektivität steigt aber auch das Risiko für Cyber-Crime. Ein autonomes Fahrzeug muss behandelt werden wie ein Computer auf Rädern und benötigt von Grund auf ein ausgereiftes end-to-end Cyber-Security Konzept.
Ausblick
Um das vollautonome Fahren (Level 5) zu ermöglichen, ist ein ganzes Paket an unterschiedlichen Technologien notwendig. Für die Automobilindustrie ist das Autonome Fahren momentan an Komplexität nicht zu übertreffen. Es geht nicht nur um die Technologien im Fahrzeug. Viele weitere Faktoren, wie das Management der Datenmengen, festgelegte Normen, datenschutzrechtliche Vorgaben, Cyber-Security-Themen, die momentan vorzufindenden Standards, wie der Mobilfunkstandard, sowie der Ausbau der Infrastruktur müssen gleichzeitig betrachtet oder ausgebaut und in optimaler Weise zueinander in Beziehung gesetzt werden. Warum es in den nächsten Jahren eher unrealistisch ist, dass wir im öffentlichen Straßenverkehr vollautonome PKW vorfinden werden und weshalb sich vollautonome Fahrzeuge voraussichtlich erst im Bereich der Nutzfahrzeuge etablieren werden, klären wir in einem unserer nächsten Artikel. Wir freuen uns auf einen regen Austausch zum Thema. Kontaktieren Sie gerne unsere Experten bei Magility!