Beiträge

Brain to Vehicle - Steuern mit Gedanken. Foto: Unsplash

Brain to Vehicle Technologie – Der Fahrer denkt, das Auto lenkt

Fahrerassistenzsysteme stehen aktuell hoch im Kurs. Länger schon existiert die Idee, Fahrzeuge per Gedanken zu steuern. Bei der Brain-to-Vehicle Technologie lässt sich das Fahrzeug durch das Gehirn des Fahrers steuern, statt physische Befehle zu erteilen. Es handelt sich dabei durchaus nicht um Zauberei sondern um angewandte Wissenschaft. Doch wie funktioniert die Gedankensteuerung und was bedeutet diese neue Technologie für das autonome Fahren?

Brain Driver – Steuerung via Gehirn

Bereits 2011 war der Wissenschaftler Henrik Matzke in den Schlagzeilen. Auf dem Tempelhofer Feld in Berlin wurde vorgeführt, wie er ein Auto steuert, ohne die Hände am Lenkrad oder die Füße am Pedal zu haben. „Projekt Brain Driver“ hieß das wissenschaftliche Projekt von Autonomos, mittlerweile ein Tochterunternehmen von Tomtom, dem Hersteller von Navigationsgeräten. Schon damals konnte bewiesen werden, dass ein Fahrzeug auch ohne aktiv lenkenden Fahrer navigiert werden kann. Möglich wird dies durch die Messung der Hirnströme sowie Radar- und Lasersensoren, die die Umgebung erfassen. Über das menschliche Gehirn, sozusagen einem ‘Human Computer’ im Auto, kann das Fahrzeug elektronisch gelenkt oder ein Pedal getreten werden. So konnte Henrik Matzke schon vor vielen Jahren ohne Berührung oder Sprachbefehle mit 60 km/h über die Teststrecke in Berlin fahren.

Doch wie funktioniert die Technik genau?

Es handelt sich bei der Technologie nicht um Gedankenübertragung. Der Fahrer trägt eine Kappe mit Sensoren, wie sie auch bei einem EEG (Elektroenzephalogramm) eingesetzt wird. Aus den Hirnströmen können dann Muster abgeleitet werden. Der Bordcomputer ermittelt daraus den Befehl des Fahrers und übermittelt ihn an die Fahrzeugmechatronik, welche durch die Aktuatorik reagiert. Um das Fahrzeug zu manövrieren, braucht es im Wesentlichen nur die Befehle schneller, langsamer, rechts, links, wie etwa bei einem Computerspiel.

Brain to Vehicle – Autobauer experimentieren

Aktuell stattet Nissan einige Autos mit der „Brain to Vehicle Technologie“ aus. Das Assistenzsystem verspricht, laut Nissan, das weltweit erste System zur Echtzeiterkennung und -analyse von Gehirnaktivitäten im Zusammenspiel mit dem Autofahren zu sein. Die Idee dahinter ist, dass das System Vorhersagen treffen und das Fahrzeug folglich auf Gefahren und Manöver schneller reagieren kann als der Fahrer selbst. Die Reaktionszeit wird optimiert, um menschlich langsamen Versagen zuvorgekommen. Durch diese Technologie  verspricht man sich eine Verbesserung der Safety. Auch bei dieser “Brain to Vehicle Technologie” muss der Fahrer noch eine mit Sensoren ausgestattete Kappe tragen, welche relevanten Gehirnströme misst.

Gehirn-Computer-Schnittstelle – Fraunhofer IAO forscht

Auch das Fraunhofer IAO forscht und entwickelt an einer neuro-adaptiven Gehirn-Computer-Schnittstelle (BCI), die auf menschliche Emotionen reagiert. Hier klingt das Ganze aber noch etwas zurückhaltender. Aktuell könne das System noch nicht angemessen auf menschliche Emotionen reagieren. Es wird weiterhin an zuverlässig nutzbaren Methoden geforscht, um Emotionen aus den Hirnströmen der Nutzer zu erkennen und entsprechende Handlungen abzuleiten. Algorithmen suchen in der Gehirnaktivität von Probanden nach Mustern, die sie ans System weitergeben können. Daraus ist ein erstes Produkt – eine App – entstanden, die die jeweilige aktuelle Emotion live anzeigt. „Wir sind auf dem Gebiet technologisch schon sehr weit, wie die Beispiele zeigen. Auch beim automatisierten Fahren spielen nicht-physische Befehle eine große Rolle und bringen neue Entwicklungen für die Automobilbranche. An den Algorithmen wird aber noch geforscht und KI ist hier natürlich auch ein wichtiges Thema“, schätzt der Geschäftsführer von Magility, Dr. Michael Müller den aktuellen Stand der Technologie ein.

Die Zukunft des BCI – Wie filtert der Computer die richtigen Gedanken?

In wissenschaftlichen Experimenten und Studien funktionieren die Experimente im Zusammenhang mit automatisiertem Fahren bereits, allerdings unter kontrollierten Bedingungen. Was aber, wenn wir gestresst sind, die Unterstützung des Systems gar nicht brauchen oder das System unsere Gedanken falsch interpretiert? Würden wir uns beim Fahren freiwillig eine Sensorkappe aufsetzen, die permanent unsere Hirnströme misst? Sicher ist bereits, dass Computer wiederkehrende Gedankenmuster auswerten und in Fahrbefehle übersetzen können. In der Vision vom autonomen Fahren ist die Gehirnsteuerung ein Experiment, die durch das fahrerlose Fahrzeug aber ohnehin überflüssig wird. Denn dann übernimmt die Maschine das Steuer und der Mensch kann sich entspannt zurücklehnen.

 

DSGVO - Wem gehören die Daten beim autonomen Fahren. Bild: Unsplash

DSGVO und autonomes Fahren – Wem gehören die Daten?

Durch den permanenten Umgang mit Smartphone, Computer, Smart Home oder Connected Car generieren wir stetig mehr Daten, die lokal oder in der Cloud gespeichert, an Dienste übermittelt oder mit anderen Anwendungen geteilt werden. Längst weiß niemand mehr, welche Daten für welchen Zweck verwendet werden. Erst kürzlich wurde in Deutschland die Datenschutz-Grundverordnung (DSGVO) auf den Weg gebracht, damit Nutzer Auskunft über ihre eigenen Daten einholen und wieder über sie verfügen können. Seit Mai 2018 ist sie nun rechtskräftig. Doch wie wirkt sich die DCGVO auf das vernetzte oder autonome Fahren aus? Welche Daten sind davon betroffen? Und was bedeutet das für die Vision des self-driving Cars?

Datengetriebene Geschäftsmodelle

Laut einer Studie des Digitalverbands Bitkom sind 69 Prozent der befragten Deutschen der Meinung, dass der Eigentümer des Autos darüber entscheiden sollte, wer die in ihrem Auto generierten Daten nutzen darf. Immerhin 42 Prozent sind aber bereit der Speicherung und Weiterverwendung der Daten zuzustimmen, sofern damit ein gesellschaftlicher Nutzen verbunden ist. 27 Prozent würden ihre Daten für einen individuellen Nutzen weitergeben. „Die Nutzer sind bereit, Daten weiterzugeben, wenn sie wissen, wer die Daten erfasst und wofür sie verwendet werden. Dabei werden Privatpersonen in Zukunft von der DSGVO direkt geschützt. Gleichzeitig ist die DSGVO aber eine große Herausforderung für Unternehmen, da sie einen  enormen prozessualen und organisatorischen Aufwand an vielen Stellen vorantreiben müssen, um den verbindlichen Anforderungen gerecht zu werden“, so Digitalisierungsexperte Dr. Michael Müller, Geschäftsführer der Magility GmbH.

Kunden möchten einen Nutzen sehen

Die Weitergabe der Daten ist zunehmend an die Bedingung geknüpft, dass ein konkreter Nutzen daraus entsteht. Längst ist es kein Geheimnis mehr, dass Daten ein wertvolles Gut sind. Entsprechend gehen viele Kunden immer sparsamer mit der Weitergabe ihrer Daten um. Gleichzeitig kam man bei vielen digitalen Diensten und Apps gar nicht mehr umhin der Datenverarbeitung zuzustimmen, sodass die gewünschte Autonomie über die Daten nicht mehr gewährt war. Hier kommt nun die neue DSGVO ins Spiel.

Personenbezogene Daten im autonomen Fahrzeug

Laut der neuen Datenschutzgrundverordnung gelten nahezu alle Daten als direkt oder indirekt personenbezogen. Einer Erklärung des Verbands der Automobilindustrie e.V (VDA) und der Datenschutzbehörde nach, zählen alle erhobenen Daten, die mit der Fahrzeugidentifikationsnummer (VIN) oder dem Kfz-Zeichen in Zusammenhang gebracht werden können, als indirekt personenbezogen. Dazu zählen unter anderem Durchschnittsgeschwindigkeit, Verbrauch, Füllstände oder andere durch Sensoren ermittelte Messwerte. Sie lassen auf das Verhalten des Fahrers schließen, geben Einblicke in dessen Alltag oder geben Auskunft über den Standort und sind deshalb besonders zu schützen.

Was genau ändert sich mit der DSGVO?

Die DSGVO regelt die Verarbeitung personenbezogener Daten von EU-Bürgern. Ziel ist es, den Verbraucherschutz zu stärken und Transparenz zu schaffen, sowie die Selbstbestimmung über die eigenen Daten zu gewährleisten. Durch Speicherung und Verknüpfung persönlicher Daten war es vielen Unternehmen bisher möglich, detaillierte Persönlichkeitsprofile zu erstellen, dauerhaft zu speichern und gegebenenfalls diese Profile zu nutzen oder auch zu veräußern. Gegen dieses aufkeimende Geschäft mit Nutzer- und Kundendaten, möchte die Verordnung nun vorgehen. Die drei wesentlichen Punkte sind:

  • Datenschutz
  • Recht des Kunden an den eigenen Daten
  • Recht auf Auskunft, Berichtigung und Löschung der Daten

DSGVO –  Transparenz, Datenminimierung und Information

Für den Verbraucher in der EU bedeutet die neue Grundverordnung mehr Information, Transparenz und Dokumentation. Im Falle des autonomen Fahrens geht es aber vor allem um die Speicherung der erhobenen Daten. Seit Mai 2018 genießt der Verbraucher noch mehr Schutz. Ihm wird im Umgang mit seinen Daten nun unter anderem folgendes gewährt:

  • Betroffene werden informiert, wofür ihre Daten genau verwendet werden (Transparenz)
  • Das Unternehmen darf nur Daten speichern, die es wirklich verwendet (Datenminimierung).
  • Daten dürfen nur für den Zweck verarbeitet werden, für den sie erhoben wurden (Nichtverkettbarkeit).
  • Die Rechte der Kunden (Information, Auskunft, Berichtigung, Einschränkung, Datenübertragbarkeit und Löschung) werden wirksam gewährt (Intervenierbarkeit).

Was bedeutet die DSGVO für das vernetzte Fahren?

Auch bei Diensten rund um das autonome und vernetzte Fahrzeug gilt die neue Datenschutzgrundverordnung. Aktuell ist aber noch nicht absehbar, wie sie im Einzelfall umgesetzt wird. Sicher ist, dass die Anbieter von entsprechenden Diensten deutlich kommunizieren müssen, zu welchem Zweck die erhobenen Daten verwendet werden und sich zuvor die Zustimmung zur Datenverarbeitung einholen müssen. Es bleibt spannend wie die DSGVO im Bereich des vernetzten Fahrens, in der Praxis umgesetzt, aussehen wird.

 

Neuromorphic Computing ist die nächste Generation der Künstlichen Intelligenz und bringt auch technologische Fortschritte in der Automotive-Industrie. Foto: CCO

Neuromorphic Computing – Neuronale Netze mit enormer Leistung

Die Zukunft der Künstlichen Intelligenz heißt Neuromorphic Computing. Dabei sind die Computer nach Vorbild des menschlichen Gehirns konstruiert, wobei die Funktionsweise von menschlichen Neuronen nachempfunden wird. Ziel der Neuromorphic Technologie ist es, Sinnesorgane nachzubilden oder zu simulieren, wie beispielsweise die Netzhaut des Auges, das Innenohr oder auch Teile des Gehirns. Langfristig sollen diese Computer Entscheidungen treffen oder sogar ins menschliche Nervensystem integriert werden können. Vor allem in der Industrie wird diese neue Technologie in Zukunft große Beachtung finden. Als autonome Roboter, im Bereich autonomem Fahren oder auch der Sensorik. Doch was bedeutet Neuromorphic Computing und was wird es uns in Zukunft bringen?

Die Zukunft heißt Neuromorphic Computing

Perspektivisch werden kognitive Computer entwickelt, die komplexe Daten analysieren können und anhand von erlerntem Wissen Vorhersagen treffen. Zentral dafür sind neuromorphe Chips, also Mikrochips, die nach Vorlage menschlicher Nervennetze gefertigt werden. Damit sollen diese Chips auch die Sensorik des Menschen abbilden. Unterstützt werden die Chips dafür mit spezifischer Hardware, die etwa Gerüche oder Geräusche aufnehmen kann. Die Chips unterscheiden sich von der gegenwärtigen Technik durch höhere Energieeffizienz und geringeren Platzbedarf.

Neuer Chip von Intel ist dem Gehirn nachempfunden

Neuromorphic Computing statt Deep Learning. Ein Beispiel dafür ist der Testchip Loihi von Intel. Insgesamt soll der Chip 130.000 Neuronen sowie 130 Millionen Synapsen haben. Dadurch ist Loihi leistungsfähiger als bisherige Modelle und kann stetig dazulernen. Laut Intel lässt sich der selbstlernende Chip in fast allen Bereichen anwenden. Im Bereich Automotive, in der Industrie, in autonomen Robotern, maschinellem Sehen oder maschinellem Hörverstehen. Entsprechende Algorithmen zur sparsamen Codierung, zur Wegfindung oder zum Wörterbuch lernen, haben Intel und andere Unternehmen in der Vergangenheit bereits umgesetzt. Der neue Chip wurde auf der CES 2018 in Las Vegas vorgestellt.

Gegenwärtige KIs

Aktuelle KIs wie Apple’s Siri oder Alexa senden Daten an ein Rechenzentrum, gleichen diese ab und bekommen eine Rückmeldung. Sie basieren auf Clouds, da die Rechenleistung der Elektronik gegenwärtig noch nicht ausreicht um die verarbeitungsintensiven Algorithmen auszuführen, die für maschinelles Lernen benötigt werden. Die typischen Prozessoren, die in den meisten Smartphones verbaut sind, könnten kein System wie Siri auf dem Gerät ausführen. Die Rechenleistung der Chips wird aber in den nächsten Jahren weiter steigen, bei weniger Energieverbrauch.

Forschungszentrum für Neuromorphic Computing in Baden-Württemberg

Eines der größten Forschungszentren für Neuromorphic Computing entsteht derzeit in Baden-Württemberg. In Heidelberg werden Millionen investiert um die Technologie und Forschung in den nächsten Jahren voranzutreiben. Ziel der Forschung ist der Aufbau eines großen neuromorphen Systems mit besonders ausgeprägten Lernfähigkeiten, die in interdisziplinärer Zusammenarbeit mit theoretischen Neurowissenschaftlern entwickelt werden.

Durch Neuromorphic Computing entstehen zahlreiche neue Geschäftsmodelle und Möglichkeiten von denen wir bisher nur träumen konnten. Wir von Magility, als ihr Partner für neue digitale Geschäftsmodelle, beraten Sie gerne.

CES Las Vegas – Volocopter, MBUX und Künstliche Intelligenz

Die Consumer Electronics Show (CES) in Las Vegas zeigte letzte Woche die aktuellen Tech-Trends, auch für Mobilität und Automotive. Vieles was vor wenigen Jahren noch als Science Fiction abgetan wurde ist auf der CES 2018 real geworden. Magility war vor Ort, um sich über die neusten Trends, Visionen und Start-ups zu informieren.

Fliegende Taxis bei der CES

Mobilität der Zukunft ist eines der heißen Themen der CES 2018. Das fahrerlose Elektroauto ist natürlich ein Dauerbrenner. Aber in diesem Jahr wurde auch die fliegende Variante in Las Vegas vorgestellt. Zu den Stars der Messe zählt das badische Start-up Volocopter. Das Unternehmen baut ein fliegendes E-Taxi made in Karlsruhe. „Der Raum in den Städten wird immer knapper, in Zukunft wird daher auch der Luftraum mehr genutzt werden. Volocopter ist ein zukunftsweisendes Start-up in Sachen E-Mobility“, unterstreicht Dr. Michael Müller, Geschäftsführer der magility GmbH die Innovationskraft des badischen Unternehmens.

Weltpremiere für Mercedes-Benz User Experience

Daimler feiert Weltpremiere auf der CES und stellt sein neues Multimediasystem MBUX (Mercedes-Benz User Experience) vor. Das intuitive und lernfähige Betriebssystem geht ab 2018 in der A-Klasse in Serie.

Besonders ist hierbei die Lernfähigkeit dank künstlicher Intelligenz. MBUX ist individualisierbar und stellt sich auf den Nutzer ein. Es schafft so eine emotionale Verbindung zwischen Fahrzeug, Fahrer und Passagieren. Zugleich sind Updates „over the air“ möglich. Außerdem läutet es eine neue Ära bei der Mercedes me Connectivity ein. Die Navigationsdarstellung mit Augmented-Reality-Technologie sowie die intelligente Sprachsteuerung mit natürlichem Sprachverstehen sind weitere Neuheiten. Statt „hey Alexa“ fühlt sich das System mit „hey Mercedes“ angesprochen.

Künstliche Intelligenz und UX

Schaut man sich die Automobilhersteller insgesamt an, zeigt sich, dass in Zukunft viel getouched, geswiped und kommuniziert wird. Große Displays im Auto (siehe MBUX) lassen sich wie Smartphones bedienen und sprechen vor allem eine junge Zielgruppe an, die ans touchen und swipen längst gewöhnt ist. Künstliche Intelligenzen wie Amazons Alexa verbreiten sich stetig und eröffnen eine riesigen Markt für Anwendungen, die das Leben smarter und einfacher machen.

Brain Machine Inferfaces (BMI´s)

Auch Gehirn-Computer Schnittstellen (BMI´s)  erhielten auf der CES Einzug in die Welt des autonomen Fahrens. Nissan stellte auf der Messe ein ins Fahrzeug integriertes  brain-to-vehicle Interface vor. Das Interface erkennt durch einen Helm der drahtlos mit dem Fahrzeug verbunden ist Gehirnaktivitäten, die im Zusammenhang mit der Bewegungsaktivität des Fahrers stehen. Diese werden simultan an das Fahrzeug übertragen. Das Fahrzeug übersetzt und nutzt die Signale um das Fahrverhalten an die Erwartungen des Fahrzeughalters anzupassen, bevor dieser körperlich in Aktion tritt. Hierdurch wird personalisiertes autonomes Fahren möglich und das Fahrerlebnis noch smarter. Der Helm wird von der Startup Firma Bitbrain aus Spanien überwiegend von Neurologen weiterentwickelt.

Smart Future

Bei der CES in Las Vegas wurde die ganze Bandbreite an neuen Technologien vorgestellt. Smartphones, Smartwatch, Smart Home – das Angebot ist unermesslich und so verliert man sich schon mal in der Masse. „Für mich ist es immer wieder spannend zu sehen, wo wir gerade stehen und wo der Weg hinführt. Im Zuge der digitalen Transformation brauchen wir natürlich immer einen Überblick über Technologien und Visionen“, fasst Müller die CES zusammen. Und so hat sich der Weg nach Las Vegas auch in diesem Jahr gelohnt.

 

E-Mobilität. Daimler hat Tesla den Kampf angesagt. Foto: magility

E-Mobilität: Mercedes wird zum größten Konkurrenten von Tesla

Tesla hat einen unvergleichbaren Aufstieg vom Underdog zum Pioneer hingelegt. Aber die kommenden fünf Jahre könnten zur größten Herausforderung für das US-Unternehmen werden. Denn Autobauer rund um die Welt warnen sich zur Aufholjagd in Sachen Elektromobilität.

Daimler investiert Milliarden in Elektromobilität

Allen voran Daimler – die Stuttgarter planen ihre Autoflotte nun bis 2020 zu elektrifizieren und investieren dafür 11 Milliarden Euro. Dies bedeutet vor allem die Aufholjagd zum Vorreiter und Kontrahenten Tesla.
Doch zu Tesla aufzuschließen ist keine leichte Aufgabe. Das Unternehmen genießt eine Markenloyalität vergleichbar mit Apple. Das Unternehmen um CEO Elon Musk hat mit Innovationen wie Over-the-Air Updates der Industrie gezeigt, was Innovation bedeutet und traditionelle Distributionswege infrage gestellt.

Daimler muss sich neu erfinden

Tesla schwächelt vor allem in der Produktion, immer wieder ist von Engpässen die Rede. Daimler hingegen macht keinen Hehl daraus, den Angriff auf die Elektroauto-Pioniere zu wagen. Aus Stuttgart hörte man bereits im September, dass sie eine Milliarde in ein Werk in den USA investieren, um einen elektrischen SUV zu bauen, der 2020 auf den Markt gehen soll.
Darüber hinaus will Daimler weitere 10 Milliarden in die nächste Generation von Elektrofahrzeugen investieren.

Die angekündigte Verbannung von Dieselfahrzeugen befeuert die Entwicklung

Allerdings geht es wohl nicht alleine darum, Tesla einzuholen. Chinas Ankündigung, Diesel- und Verbrennungsmotoren zu verbannen zu wollen, ist ein zentraler Grund, denn China ist der größte Absatzmarkt für Autos in der Welt.

Die Nachfrage bestimmt das Angebot

Der Wettstreit von Daimler mit Tesla könnte aber auch darin begründet sein, dass Daimler erkannt hat, dass sie ihre Kunden davon überzeugen kann, dass sie technologisch Schritt halten. Etwas das Tesla bereits geschafft hat. Alleine deshalb, kann der schwäbische Autobauer die Amerikaner nicht ignorieren. Gleichzeitig ist der Kern von Mercedes der Verbrennungsmotor. Noch immer gilt ein Mercedes mehr als schnelle Maschine auf der Autobahn als ein Hightech-Fahrzeug und Pioneer der E-Mobilität.

Vor allem in China wird investiert

In Sachen E-Mobilität gilt es vor allem den chinesischen Markt zu erobern. Tesla arbeitet deshalb an einem soliden Fundament und baut ein Werk in Shanghai, das 2020 mit der Produktion beginnt.
Daimler hat bereits ein Joint Venture mit dem chinesischen Autobauer BAIC. Gemeinsam kündigten sie im Juli eine Investition über 750 Millionen Euro in die Produktion von Elektrofahrzeugen an. Von Unternehmensseite hieß es, China wird der wichtigste Markt für E-Mobility.

Weitere Herausforderungen

Natürlich bleiben einige Herausforderungen trotz hoher Investitionen bestehen. Die Marke Tesla steht für Hightech, Innovation und Zukunft. Dahin muss Daimler noch kommen. Außerdem hängt der Durchbruch auch eng mit der Ladeinfrastruktur zusammen. Tesla ist hier bereits einen Schritt weiter und arbeitet an einer Solarinfrastruktur. Es bleiben viele Fragen, die noch beantwortet werden müssen.

Magility untersucht fortlaufend in Trendstudien aktuelle Entwicklungen innerhalb der Mobilitätsindustrien und steht Ihnen als Partner zur Seite. Kontaktieren Sie uns gerne – wir freuen uns auf Sie!

Auf dem Weg zur digitalen Mobilität: Disruptive Geschäftsmodelle. Grafik: Mercedes Benz

Disruptive Geschäftsmodelle – Wo sind die innovativsten Automärkte?

Wir sind dabei, digitale, auch disruptive Geschäftsmodelle für die Zukunft zu entwickeln. Denn ohne die Wertschöpfungskette um digitale Services zu erweitern werden wir in Zukunft nicht auskommen. Doch wo stehen wir auf dem Weg zum „Mobilitätsdienstleister der Zukunft“? Der „Automotive-Disruption-Radar“ dokumentiert einen aktuellen Stand. Ganz vorne platziert: die Niederlande. Deutschland landet nur auf Platz fünf.

Neue Mobilitätskonzepte und innovative Geschäftsmodelle

Die zentralen Stichworte der Studie sind: Shared Mobility, Digitalisierung, autonomes Fahren und Elektromobilität. Darüber hinaus die regulatorischen Rahmenbedingungen und die Infrastrukturen, die digitale Innovationen möglich machen und befeuern. Wenn es um die Anwendung von Mobilitätskonzepten zu den genannten Kriterien geht landen die Niederlande im weltweiten Vergleich auf Platz eins. Die Studie bescheinigt den Niederländern in Sachen zukunftsweisender Mobilität vorbildlich aufgestellt zu sein.

Autonomes Fahren wichtiges Kriterium

In den Kategorien Kundeninteresse, Technologie und regulatorischen Vorgaben führen die asiatischen Staaten China, Singapur und Südkorea das Ranking an. Gerade in Singapur wurden bürokratische Hürden für das autonome Fahren gesenkt und Experimente mit selbstfahrenden Bussen und LKWs gestartet. Solche Experimente sind ein wichtiger Schritt für den Durchbruch von neunen Mobilitätskonzepten.

Regulationen sind der zentrale Punkt

Asiatische Länder zeigen sich tatsächlich sehr viel aufgeschlossener als europäische Länder, was E-Mobility und autonomes Fahren angeht. „Aber auch in Deutschland wird sehr viel für einen digitalen Wandel getan. Auch wenn in Deutschland die Änderungen der Rahmenbedingungen in kleineren Schritten erfolgen und sehr streng abgewägt werden heißt das nicht, dass in Deutschland nicht auf Hochtouren entwickelt wird“, kommentiert Dr. Michael Müller, Geschäftsführer der Magility GmbH die Entwicklungen. „Allerdings kann der Kunde von deutschen Autobauern auch mit der Digitalisierung höchste Qualität erwarten und keine halbausgereiften Technologien“, so Müller weiter.

China auf dem Vormarsch, Deutschland braucht noch Zeit

Die Entwicklung hängt mit den gesetzlichen Rahmenbedingungen in den einzelnen Ländern zusammen. China, mit der geplanten Genehmigung von autonomen Automodellen und neuen Teststrecken, ist dabei auf dem Vormarsch.
Deutschland hingegen braucht noch etwas Zeit. Zwar hat die Ethikkommission des Bundesverkehrsministeriums nun die ersten Leitlinien für selbstfahrende Autos vorgestellt und für erste teilautonome Fahrzeuge kann es, ähnlich wie in anderen Ländern, Einzelgenehmigungen geben. Doch wie eine Typzulassung erfolgen könne, sei immer noch offen.
„Deutschland spielt auch was disruptive Geschäftsmodelle angeht in der ersten Liga, aber um Innovationen auf die Straße zu bringen müssen wir weiter an den Rahmenbedingungen feilen”, schätzt Müller die Lage ein. Nur so könne sich der Markt entsprechend weiterentwickeln.

Über die Studie

Der „Automotive-Disruption-Radar” wurde von der Strategieberatung Roland Berger veröffentlicht. Er soll Unternehmen der Automotive-Industrie dabei unterstützen, ihre Investitionsentscheidungen zu treffen und will regelmäßig „den Übergang der Automobilindustrie zum Mobilitätsdienstleister der Zukunft” dokumentieren.

 

Deep Learning verspricht neue Durchbrüche beim autonomen Fahren. Foto: CC0

State of the Art: Deep Learning und autonomes Fahren

Im Sinne von Moor’s Law hat sich die Digitalisierung in den letzten Jahrzehnten unglaublich beschleunigt. Was zunächst wie eine schier endlose Aufgabe schien war aufgrund der exponentiellen Steigerung von Speicherkapazität und Prozessorleistungen schneller Realität als von Kritikern geahnt. Ein aktuelles Thema bei dem die Prognosen auseinandergehen ist die Künstliche Intelligenz und das Deep Learning. Sind wir bereits im Zeitalter der intelligenten Maschinen angekommen oder sind wir erst auf dem Weg dahin. Wahrscheinlich ist es nur eine Frage des Perspektive. Deshalb lohnt es sich auf Praxisbeispiele zu schauen. Viele Unternehmen versuchen bereits jetzt ihre Daten zu nutzen und daraus Erkenntnisse und Geschäftsmodelle zu kreieren. Ein Start-up aus dem Bereich ist das Berliner KI-Unternehmens Merantix. Zusammen mit großen Unternehmen arbeitet das Unternehmen an großen KI-Projekten. Auch im Bereich Automotive.

 

Drei Gründe für den Durchbruch neuronaler Netzwerke

Als Hauptgründe für den Durchbruch von neuronalen Netzwerken gilt: die Verfügbarkeit großer Mengen an Trainingsdaten, leistungsfähige Computerinfrastruktur und Fortschritte in der Wissenschaft. Außerdem übertrifft Deep Learning nicht mehr nur in klassischen Methoden, sondern mittlerweile auch in der Klassifizierung von Bildern oder der Gesichtserkennung, was Maschinen bislang kaum möglich war. Daraus resultiert Potenzial für disruptive Geschäftsmodellen, die mithilfe von Deep Learning und Machine Intelligence reale Problem beheben.

KI-Pioniere aus Berlin

Merantix ist ein Forschungslabor und Unternehmen im Bereich Künstliche Intelligenz. Das Berliner Unternehmen sucht zusammen mit mittelständischen und großen Unternehmen deren Potenziale, Daten zu nutzen um neue Geschäftsmodelle zu finden. Das Stichwort dabei lautet: Deep Learning. Laut Merantix basiert die Entwicklung der künstlichen Intelligenz in den letzten Jahren auf dem Erfolg des Deep Learnings*.

Diagnose vom Computer – Röntgenbilder

Konkret eruiert das KI-Start-up riesige Datensätze. Große Mengen an Trainingsdaten werden ausgewertet sodass die Maschine lernt auf bestimmte Auffälligkeiten zu achten. Ein konkretes Beispiel stammt aus dem Bereich Health Care. Merantix baut einen Service, unterstützt durch künstliche Intelligenz, der automatisch Röntgenbilder diagnostiziert. Um die Deep Learning Systeme zu trainieren werden Standardmarken aus Sprachprotokollen extrahiert. Im Ergebnis soll die KI-Diagnostik Effizienz und Qualität sicherstellen.

Deep Learning und autonomes Fahren

In Kooperation mit BOSCH arbeitet das Unternehmen an der Evaluierung und Verbesserung von Deep Learning Tools beim autonomen Fahren. Es werden neuronale Netze geschaffen und trainiert, die Objekte wie Ampeln, Verkehrszeichen und andere Fahrzeuge erkennen. Die Trainingsdaten stammen aus Sensordaten (in der Regel Bilder und Videos) von Fahrassistenzsystemen. Das System visualisiert die Charakteristik von geschulten neuronalen Netzwerken basierend auf aktueller Forschung.

Quo vadis: Deep Learning

Konkrete Beispiele aus dem Beriech zeigen, dass mit neuronalen Netzen und verfügbaren Trainingsdaten bereits praktischer Nutzen erzielt werden kann. „Für das autonome Fahren wird Deep Learning und Künstliche Intelligenz unerlässlich sein“, unterstreicht Dr. Michael Müller, Geschäftsführer der magility GmbH die Aktualität des Themas.

 

*Deep Learning bezeichnet eine Klasse von Optimierungsmethoden künstlicher neuronaler Netze, die zahlreiche Zwischenlagen zwischen Eingabeschicht und Ausgabeschicht haben und dadurch eine umfangreiche innere Struktur aufweisen.

Robotik und Automatisierung steigern die Produktivität in der Industrie. Foto: CC0

Robotik – Produktionssteigerung durch Digitalisierung

Die Robotik erobert die Welt. Vor allem Automobilhersteller, Zulieferer und Systemintegratoren beschleunigen durch Innovationen diesen Trend. Deutschland ist dabei Rekordhalter von Industrierobotern in Europa. Auf 10.000 Mitarbeiter kommen über 300 Roboter. Nur asiatische Länder können das überbieten. Doch wo stehen wir im Bereich Robotik, was sind die Herausforderungen und wie sind die Prognosen?

Die Zukunft ist automatisiert

Roboter, Autonome Maschinen und Künstliche Intelligenz (KI). Das sind die Schlagworte im Zusammenhang mit Robotik. Während in der Produktion, Fertigung und anderen Industriebereichen Roboter nicht mehr wegzudenken sind, entwickelt sich die digitale Technik stetig weiter. Die Vision von der Verknüpfung von Robotik mit KI lautet, dass neben der Automatisierung von Arbeitsprozessen wie wir sie längt kennen, Maschinen Entscheidungen und Schlussfolgerungen aufgrund von Erfahrungen treffen können.

„Im Bereich Robotik wird sehr viel geforscht. Als Innovationsstandort Deutschland arbeiten wir vor allem an durchsetzungsfähigen Technologien. Dies geschieht hauptsächlich in Zusammenarbeit mit Universitäten und Unternehmen, die sehr viel Energie und Mittel investieren um die Forschung voranzutreiben und Fachkräfte auszubilden. Gerade hier liegt die Stärke“, so Dr. Michael Müller, Geschäftsführer der magility GmbH.

Mensch-Roboter-Kollaboration

Zwar lautet die Prophezeiung, dass intelligente Maschinen die Arbeit autonom übernehmen würden. Zunächst aber wird es viel häufiger der Fall sein, dass Menschen in Kombination mit Robotern arbeiten um Abläufe zu optimieren oder zu präzisieren. Ein Beispiel dafür sind Operationsroboter, die Chirurgen ermöglichen noch präziser und genauer zu arbeiten. Aber es werden auch beispielsweise LKWs auf der Autobahn autonom fahren und auf Landstraßen von einem Fahrer gelenkt. Das Maschinen den Menschen komplett verdrängen ist bis auf weiteres Science Fiction.

Wie wird sich die Arbeitswelt ändern?

60 Prozent aller bezahlten Tätigkeiten mit heute vorhandenen Technologien sind zu 30 Prozent automatisierbar, schätzt McKinsey. Das betrifft nicht nur die Industrie sondern viele Wirtschaftszweige. Gleichzeitig sind nur wenige Menschen besorgt um ihren Arbeitsplatz (Siehe Statista-Grafik). Die Arbeitswelt wird sich wandeln, das steht fest. Dennoch bringt Technik immer auch neue Arbeitsplätze und Arbeitsbereiche mit sich. Auch die nächste Generation von Robotern, von autonomen und selbstlernenden Maschinen und Künstlicher Intelligenz werden neue Arbeitsplatze in Entwicklung, Herstellung, Installation, Betrieb und Service hervorbringen. In Bereichen wie Big Data, Cloud-Services, App-Entwicklung und Verkauf, Internet-Dienste, Cyber Security und der Vernetzung im Internet of Things. 

Quo vadis Robotik

Big Data und Machine Learning, dass sind die entferntesten Visionen. Bis dahin werden sehr viele andere Herausforderungen zu bestehen sein. Denn am Ende erfüllt die Technik keinen Selbstzweck sondern soll Abläufe rationalisieren und wirtschaftlicher machen. Gerade was die Produktion angeht herrscht ein enormer Konkurrenzkampf vor allem mit dem fernen Osten. Dort werden mit High-Tech Maschinen zu Dumping-Preisen produziert. Am Ende geht es vor allem darum, dass der Wirtschaftsstandort Deutschland konkurrenzfähig, attraktiv und innovativ bleibt. Daran arbeiten wir auch als magility jeden Tag.

 

Nicht zuletzt müssen wir uns in Teilen sowohl als Gesellschaft als auch in unseren Arbeitsweisen teils neu erfinden. Hierfür brauchen wir Expertise und profunde Erfahrung in der Begleitung von Transformationsprozessen, mit professionellen Kommunikationsstrategien und Anpassung von unternehmensweiten Prozessen. Wir sind Ihre Digitalisierungsexperten auf diesem Weg der Transformation!

 

Expertenkommission veröffentlicht ethische Leitlinien für selbstfahrende Autos. Foto: Creative Commons

Autonome Systeme: Neue ethische Leitlinien für selbstfahrende Autos vorgestellt

Experten stellten diese Woche ethische Leitlinien für zeitweise selbstfahrende Autos und autonome Systeme auf deutschen Straßen vor. Dazu wurde vom Bundesverkehrsminister Alexander Dobrindt (CSU) eine Expertenkommission gebildet. Diese soll Empfehlungen zum Thema autonomes Fahren aussprechen und erarbeiten. Es geht vor allem darum festzulegen, was automatisierte Fahrsysteme künftig dürfen und was aus ethischen Gründen ausdrücklich nicht. Im Falle eines Unfalls etwa soll Sachschaden stets vor Personenschaden gehen.

20 Regeln für selbstfahrende Autos

Wie vorab berichtet wurde, hat das Gremium 20 Regeln aufgestellt, um autonome Systeme zu ermöglichen. Darin heiße es etwa: „Der Schutz von Menschen hat Vorrang vor allen anderen Nützlichkeitserwägungen.“ So müssten Sach- und Tierschäden bei Unfällen immer Vorrang vor dem Personenschaden haben. Und: „Bei unausweichlichen Unfallsituationen ist jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt. Eine Aufrechnung von Opfern ist untersagt.“

Zudem warnen die Experten vor einer Totalüberwachung der Verkehrsteilnehmer. Fahrzeughalter und -nutzer müssten „grundsätzlich über Weitergabe und Verwendung ihrer anfallenden Fahrzeugdaten“ entscheiden dürfen. Auch auf die Gefahr einer Manipulation der Fahrzeugsteuerung weist die Kommission hin.

Teilautomatisiertes Fahren ist möglich

Die Kommission um den früheren Verfassungsrichters Udo Di Fabio hatte im Herbst ihre Beratungen aufgenommen. Ihr gehören Wissenschaftler sowie unter anderem Vertreter von Autobranche, Verbraucherschützern und vom Autofahrerclub ADAC an. Computer dürfen in Autos in Deutschland künftig Fahrfunktionen übernehmen – der Mensch am Lenkrad muss aber immer wieder eingreifen können. Der Rechtsrahmen für die autonomen Systeme war im Mai verabschiedet worden.

Viele Fragen müssen noch geklärt werden

Die Richtlinien werfen noch viele Fragen auf. So muss noch geklärt werden, wie sich die Richtlinien in der Praxis umsetzen lassen. Zudem gibt es noch große Unklarheit was die Datenspeicherung anbelangt. Auf einen Gesetzesentwurf hin, der vorgeschlagen hat mit Datenschreiber festzuhalten, ob automatisierte Fahrfunktionen zu einem bestimmten Zeitpunkt aktiviert waren, gab es laute Kritik.

 

Hintergründe und Leitlinien:

 

 

Mit 3D-Karten das autonome Fahren voranbringen. Bild: Screenshot

Mit 3D-Karten das autonome Fahren voranbringen

Können 3D-Karten der besseren Orientierung von selbstfahrenden Autos dienen? Die Vision vom autonomen Fahren wird immer konkreter. Die Kapazität bei der Datenverarbeitung steigt stetig und ermöglicht immer komplexere Algorithmen und Auswertungen. Dennoch gibt es noch immer Herausforderungen die nicht gelöst sind. Zum Beispiel, wie das autonome Fahrzeug seine Umgebung so detailliert wie möglich wahrnehmen kann. Aktuell kursiert ein Video im Netz, in dem ein Künstler ein Fahrzeug mit Hilfe eines aufgemalten Kreises einsperrt.

Großes Potenzial in 3D-Karten

Um solche Fehler anzugehen, können Echtzeit 3D-Karten die Lösung sein. Kartendaten dienen als Informationsquelle über die Sensoren und Kameras am Auto hinaus. Das Auto kann so wesentlich mehr „sehen“. Das Einbeziehen von Daten aus 3D Karten steuert das Fahrzeug schneller und  sicherer ans Ziel. 3D-Karten sind die Grundlage von Mobilität, denn durch die Vermessung der Welt ist eine einfachere, digitale Navigation erst möglich. Hier werden nun alle für eine reibungslose Fahrt notwendige Daten, wie Staumeldungen, Gefahren und Wettermeldungen, zusammengeführt.

3D Daten verbessern das autonome Fahren

Das Potenzial liegt vor allem in der Erhöhung der Sicherheit. Hier können Autos etwa auf Gefahrenstellen reagieren, die die Karte aufgrund von statistisch erhöhter Wahrscheinlichkeit markiert. Viele solcher Szenarien sind möglich. Aber auch in der Erweiterung von Annehmlichkeiten (es können zusätzliche Services auf Basis der Informationen geschaffen werden) bieten Daten viele Möglichkeiten. Denkbar ist vor allem ein Assistent, der sich Gewohnheiten merkt und optimale Routen berechnet. Dieser kann beispielsweise bereits mit dem Kalender verknüpft sein und fährt direkt nach der Arbeit zum Sportkurs.

Nutzen in beide Richtungen

Der Nutzen geht nicht nur in eine Richtung. 3D-Karten liefern wichtige Daten für das autonome Fahren aber natürlich werden auch Informationen zurückgespielt. Die Informationen, die Fahrzeuge permanent erfassen führen auch zu einem permanenten Update des Kartenmaterials. Am Ende handelt es sich um ein intelligentes Netzwerk, dass aus möglichst vielen Quellen Daten speist, auswertet und verschiedenen Services ermöglicht auf die Daten zuzugreifen.

Mehr Effizienz

Die smarte Verknüpfung von autonomem Fahrzeug und 3D-Karte wird auch die Effizienz steigern. Durch die Karten, die in Echtzeit aktualisiert werden, weiß das vollständig autonome Auto wann die Straßen leer sind und kann diese Zeiten nutzen um etwa für Transporte oder Botenfahrten zur Verfügung zu stehen. Mit den technischen Möglichkeiten und der immer weiteren Vernetzung wird die Mobilität smarter und wachsen auch die Ideen. Magility freut sich darauf.

Lesen Sie auch unsere aktuellen Neuigkeiten: Magility wird Partner von DEKRA. Alles was Sie dazu wissen müssen finden Sie hier