Beiträge

Virtual und Augmented Reality in der Automobilindustrie_magility

Virtual Reality – zunehmende Bedrohung aus der Cloud?

Spätestens seit der Einführung der Eisenbahn im 19. Jahrhundert gibt es Skepsis beim Aufkommen technischer Neuerungen. So klar die Vorteile innovativer Technologien meist auf der Hand liegen, so groß sind auch teilweise die Befürchtungen, die mit der Verbreitung von Neuem und Unbekanntem einhergehen. Auch die aktuellen Entwicklungen im Bereich Virtual- und Augmented Reality sind davon nicht ausgenommen.

 

Augmented Reality vs. Virtual Reality

 

Mit dem Begriff Augmented Reality (AR) wird eine durch Computer erweiterte Realität beschrieben. Die Kamera eines Computer zeichnet die Realität auf, analysiert sie in Echtzeit, reichert sie mit zusätzlichen Daten an und gibt diese erweiterte Realität auf einem Display wieder. Dieses Prinzip ist bereits bekannt durch die Spiele-App Pokémon Go. Im Gegensatz zur AR wird die Virtual Reality (VR) komplett im Computer erschaffen. Will ein Nutzer daran teilhaben, so muss er sich über ein elektronisches Gerät, beispielsweise eine VR Brille oder einen Computer, in die virtuelle Realität einwählen.

 

Die virtuelle Welt Second Life ist eine der ersten Anwendungen von VR. Aber auch manche Videospiele wie World of Warcraft oder Grand Theft Auto erreichen inzwischen mit großem wirtschaftlichen Erfolg eine programmierte Komplexität, die der Realität nahe kommt. Anwendungen, die AR und VR vermischen werden auch Mixed Reality genannt.

 

Gefahren bei digitalen Realitäten

 

Nicht umsonst widmete sich die Mainzer Kunsthalle mit einer großen Ausstellung im Jahr 2018 diesem Thema und überschrieb die Schau mit einem vielsagenden Titel: Virtual Insanity.

Je mehr der virtuelle Raum sich an die echte Realität anpasst, wenn die Geschehnisse der Realität mehr und mehr in die virtuelle Realität übertragen werden, dann wandern auch die bekannten Probleme des Alltags in den Cyberspace: Mobbing, Belästigung, Stalking und die Auslebung anderer illegaler und unmoralischer Handlungen.

 

Wenn es zudem möglich wird, im digitalen Raum mit dem eigenen Avatar rechtsverbindliche Geschäfte abzuschließen, dieser Avatar dann gehackt oder kopiert wird, dann ergibt sich eine Vielzahl an Möglichkeiten für illegale Aktivitäten. Auch Geldwäsche ist ein Thema das sich in diesem Kontext zunehmend etabliert und in den Fokus von Behörden gerät.

 

Virtual Reality in der Automobilindustrie

 

In den Entwicklungsabteilungen der Automobilindustrie gehört die Anwendung von VR in einigen Bereichen bereits zum Standard. In einem VR-Studio lassen sich Bauteile digital dreidimensional betrachten und vor der eigentlichen Produktion testweise zusammensetzen. Diese Räume werden CAVE genannt (Cave Automatic Virtual Environment) und erlauben einen realitätsnahen Blick auf virtuelle Bauteile. Auch die Kunden profitieren von dieser Entwicklung. So bietet etwa Audi einen dreidimensionalen Konfigurator an, durch den sich ein individualisiertes Wunschfahrzeug schon vor der eigentlichen Produktion anschauen und bewundern lässt.  

 

Bald schon könnten Geräte ähnlich dem Google Glass in unterschiedlichsten Berufsanwendungen zum Standard gehören. Dabei trägt ein Polizist, Arzt oder ein Teilnehmer eines Meetings in einem Büro eine Brille, die ihm zusätzliche Informationen direkt in sein Sichtfeld einblendet. Dadurch können komplizierte Situationen vereinfacht, beschleunigt und effizienter gestaltet werden.

 

Virtual Reality auch bei der Verteidigung im EInsatz

 

Auch im militärischen Bereich sind Virtual Reality und Augmented Reality bereits bei modernen Armeen und Luftwaffen im Einsatz. Weitere potenzielle Anwendungsmöglichkeiten sind zahlreich, sie reichen über Zusatzinformationen im Einzelhandel bis hin zum virtuellen Einbau von Möbeln in das eigenen Zuhause. Grundsätzlich sind der Fantasie hier keine Grenzen gesetzt. Die dahinterstehenden erfolgreichen Geschäftsmodelle bestätigen die positive Entwicklung der Technologie.

 

Steigendes Marktvolumen für Virtual Reality Anwendungen

 

Die M&A Beratung Hampleton Partners erwartet für den globalen Markt von VR-Anwendungen für das Jahr 2022 ein Volumen von 17,8 Mrd. $.  Zum Vergleich: 2016 betrug die Marktgröße noch 2 Mrd. $. Nach einem Marktvolumen von 4 Mrd. $ im Jahr 2016, wird für den AR-Markt bereits im Jahr 2020 ein Anwachsen auf 161 Mrd. $ erwartet. Hohe Prognosen, die in aller Klarheit verdeutlichen, wohin die Reise geht.

 

Google und Microsoft sind von Anfang an und bis heute Treiber dieser Entwicklung. Auch zahlreiche Start-Ups wie Magic Leap und Vuforia aus den USA oder INDE aus Großbritannien mischen mit. Analysten nehmen an, dass europäische Unternehmen sogar bis 2020 die Marktführerschaft im Bereich Virtual Reality übernehmen werden. Von einem Anwachsen des Produktionswertes um 13-34 Mrd. € ist die Rede und bis zu 480.000 Arbeitsplätze könnten auf dem europäischen Kontinent dafür geschaffen werden. Die Einführung schnellerer mobiler Internetverbindungen wie 5G werden diesen Trend zudem noch beschleunigen.

 

Erweiterte Angriffsfläche für digitale Hacker

 

Bei zunehmender Digitalisierung des Straßenverkehrs ist das größte Risiko ein digitaler Hackerangriff. Jedoch verringert sich auch das Risiko von menschlichem Fehlverhalten stark durch die Unterstützung von digitaler Technik. Wird dieses System allerdings von Kriminellen, Terroristen und anderen Akteuren mit kriminellen Absichten beeinflusst, können durch Störsignale und digitale Falschinformationen schlimme Unfälle oder sogar der Zusammenbruch des Automobilverkehrs die Folge sein. Dabei müssen nicht einmal einzelne Fahrzeuge attackiert werden, ein einzelner Angriff über die Cloud kann genügen um ganze Flotten lahmzulegen.

 

Auch Virtual Reality Anwendungen müssen ganzheitlich und von Anfang an digital sicher (cyber secure) gedacht werden und die Security muss im gesamten End-to-End System integriert sein. Zunehmende Vernetzung ermöglicht weitere Einfallstore für Hacker Angriffe und böswillige Manipulationen. Mit jeder technologischen Entwicklung wächst diese Herausforderung beträchtlich weiter an. Magility berät Sie gerne bei der Umsetzung Ihrer individuellen Lösungen zum sicheren Einsatz virtueller Realitäten in Ihrem Geschäft.

 

Allseits sichere Fahrt in die Zukunft wünscht Ihnen das Team von Magility!

Die Technik lernt aus der Natur - neuronale Netze Bild: CC0

Neuronale Netze – Die Technik lernt aus der Natur

Der Begriff Bionik setzt sich zusammen aus den Begriffen Biologie und Technik. Bionik beschreibt das Lernen und die Nachahmung von natürlichen Vorgängen durch die Technik. Forscher schauen sich bewährte Methoden aus der Natur ab und nutzen diese für innovative Techniken. Nicht nur stoffliches Wissen und dessen Übertragung in die Technik ist Gegenstand der Bionik, auch Funktionsweisen und dahinterliegende Grundprinzipien finden sich in bionischen Anwendungen wieder.

Beispiele aus der Bionik, die wir im Alltag benutzen, gibt es etliche und sie erstrecken sich über Anwendungsbereiche wie Konstruktionstechnik, Oberflächen, Robotik, Fortbewegungsmöglichkeiten, Optimierungsverfahren, Materialien sowie Sensorik und Kommunikation.

Das menschliche Gehirn als Vorbild

Neuronale Netzwerke bestimmen unser menschliches Gehirn. Sie beinhalten eine riesige Anzahl an Nervenzellen (Neuronen), die sich im Verlauf der Gehirnentwicklung immer weiter vermehren und sich untereinander vernetzen. Dadurch entstehen intelligente Verbindungen, sogenannte neuronale Netzwerke. Die Funktionsweise der Vernetzung von Neuronen wird bei künstlichen neuronalen Netzen auf mathematische Rechenmodelle übertragen und die biologischen Netze dabei als informationsverarbeitende Systeme nachgeahmt.

Sowohl für natürliche als auch für künstliche neuronale Netze treffen ähnliche typischen Eigenschaften zu. Beide können komplexe Muster erlernen, ohne die dafür zugrunde liegenden Regeln und Gesetze zu kennen. Sie folgen in ihrer Funktionsweise einer Intelligenz, die keiner verifizierbaren Logik folgt. Der Nachteil ist, dass aus neuronalen Netzen auch im Nachhinein keine Logik identifiziert werden kann, die einen Lernerfolg erklären könnte. Erst nach jahrelangem Training sind neuronale Netzwerke fähig, logische und klare Regeln zu erlernen und anzuwenden. Sie lernen implizit – quasi learning by doing.

Künstliche Neuronale Netze

Künstliche neuronale Netze sind mathematische Strukturen, die den biologischen neuronalen Netzwerken ähneln. Sie bestehen aus sogenannten Modellneuronen und Kopplungsstellen, auch Synapsen genannt. Diese beiden Einheiten stehen miteinander in Wechselwirkung. Die Bestimmung der Synapsenstärke läuft über einen numerischen Wert. Dieser Wert stellt das Verbindungsgewicht dar. Im Bereich von Optimierungsverfahren werden heutzutage bereits künstliche neuronale Netze eingesetzt.

Künstliche Neuronale Netze in der Praxis

Heutzutage werden intelligente neuronale Netze beispielsweise beim Betrieb von Maschinen eingesetzt. Diese Maschinen übertragen Daten im Bedarfsfall selbständig an weitere vorher definierte Stellen. Sie können frühzeitige Verschleiß-Aktivitäten erkennen und helfen so, einem potenziellen Ausfall der Maschine vorzubeugen.

Auch in Fahrzeugen werden künstliche neuronale Netze eingesetzt. Autonomes Fahren kann nur durch künstliche Intelligenz (KI) sicher umgesetzt werden. Das Auto lernt über einen Szenarienkatalog zu manövrieren. Es lernt, was es bei der Fahrt als Hindernis einzuordnen hat und orientiert sich dabei über eingebaute Sensoren. Bilderkennungsverfahren ermöglichen den Transfer vom “Gesichteten” zur Verarbeitung im künstlichen neuronalen Netz des Fahrzeugs. Das gesichtete Hindernis wird abstrahiert und rechnerisch verbildlicht, dadurch kann das Fahrzeug die Gefahr anhand bereits erlernter Szenarien abschätzen und entsprechend manövrieren.

Cybersicherheit von Bionik Anwendungen

Künstliche neuronale Netze funktionieren gut, wenn man sie in Ruhe lässt. Was aber geschieht, wenn Angreifer sie von außen manipulieren oder mit krimineller Absicht lahmlegen?

Sowohl im Bereich des autonomen Fahrens als auch in der Medizintechnik ist Security eine elementare Schlüsselfunktion für die Zukunftschancen der eingesetzten innovativen Technologien. Automobilhersteller und -zulieferer haben die Dringlichkeit bereits erkannt und Cyber-Security Unternehmen an Bord geholt. Es braucht in der breiten Öffentlichkeit wohl aber noch weitere kriminelle Hacker-Angriffe um Automotive Cyber-Security generell als Schlüsselfunktion bei der Anwendung innovativer vernetzter technologischer Lösungen anzuerkennen. Eine Security Lösung sollte immer ganzheitlich für den kompletten Lebenszyklus gedacht und im Idealfall von Anfang an, also schon im Produktentwicklungsprozess, integriert werden. Technische Innovationen gibt es heute nur noch durch intelligente Vernetzung, Informationsfluss und Datentransfer. Sobald ein Produkt im Internet of Things vernetzt ist, ist es auch anfällig für Cyber-Angriffe. Vernetzte Produkte sollten daher immer mit Cyber Security “gedacht” werden.

Interessieren Sie sich für den technischen Fortschritt und die Entwicklung von KI, insbesondere im Bereich von Mobility-Themen, kontaktieren Sie unsere Experten. Wir von Magility beraten Sie gerne zum Thema Cyber Security und zeigen Ihnen, wie Sie Sicherheit zum entscheidenden Wettbewerbsvorteil machen.

 

Brain to Vehicle - Steuern mit Gedanken. Foto: Unsplash

Brain to Vehicle Technologie – Der Fahrer denkt, das Auto lenkt

Fahrerassistenzsysteme stehen aktuell hoch im Kurs. Länger schon existiert die Idee, Fahrzeuge per Gedanken zu steuern. Bei der Brain-to-Vehicle Technologie lässt sich das Fahrzeug durch das Gehirn des Fahrers steuern, statt physische Befehle zu erteilen. Es handelt sich dabei durchaus nicht um Zauberei sondern um angewandte Wissenschaft. Doch wie funktioniert die Gedankensteuerung und was bedeutet diese neue Technologie für das autonome Fahren?

Brain Driver – Steuerung via Gehirn

Bereits 2011 war der Wissenschaftler Henrik Matzke in den Schlagzeilen. Auf dem Tempelhofer Feld in Berlin wurde vorgeführt, wie er ein Auto steuert, ohne die Hände am Lenkrad oder die Füße am Pedal zu haben. „Projekt Brain Driver“ hieß das wissenschaftliche Projekt von Autonomos, mittlerweile ein Tochterunternehmen von Tomtom, dem Hersteller von Navigationsgeräten. Schon damals konnte bewiesen werden, dass ein Fahrzeug auch ohne aktiv lenkenden Fahrer navigiert werden kann. Möglich wird dies durch die Messung der Hirnströme sowie Radar- und Lasersensoren, die die Umgebung erfassen. Über das menschliche Gehirn, sozusagen einem ‘Human Computer’ im Auto, kann das Fahrzeug elektronisch gelenkt oder ein Pedal getreten werden. So konnte Henrik Matzke schon vor vielen Jahren ohne Berührung oder Sprachbefehle mit 60 km/h über die Teststrecke in Berlin fahren.

Doch wie funktioniert die Technik genau?

Es handelt sich bei der Technologie nicht um Gedankenübertragung. Der Fahrer trägt eine Kappe mit Sensoren, wie sie auch bei einem EEG (Elektroenzephalogramm) eingesetzt wird. Aus den Hirnströmen können dann Muster abgeleitet werden. Der Bordcomputer ermittelt daraus den Befehl des Fahrers und übermittelt ihn an die Fahrzeugmechatronik, welche durch die Aktuatorik reagiert. Um das Fahrzeug zu manövrieren, braucht es im Wesentlichen nur die Befehle schneller, langsamer, rechts, links, wie etwa bei einem Computerspiel.

Brain to Vehicle – Autobauer experimentieren

Aktuell stattet Nissan einige Autos mit der „Brain to Vehicle Technologie“ aus. Das Assistenzsystem verspricht, laut Nissan, das weltweit erste System zur Echtzeiterkennung und -analyse von Gehirnaktivitäten im Zusammenspiel mit dem Autofahren zu sein. Die Idee dahinter ist, dass das System Vorhersagen treffen und das Fahrzeug folglich auf Gefahren und Manöver schneller reagieren kann als der Fahrer selbst. Die Reaktionszeit wird optimiert, um menschlich langsamen Versagen zuvorgekommen. Durch diese Technologie  verspricht man sich eine Verbesserung der Safety. Auch bei dieser “Brain to Vehicle Technologie” muss der Fahrer noch eine mit Sensoren ausgestattete Kappe tragen, welche relevanten Gehirnströme misst.

Gehirn-Computer-Schnittstelle – Fraunhofer IAO forscht

Auch das Fraunhofer IAO forscht und entwickelt an einer neuro-adaptiven Gehirn-Computer-Schnittstelle (BCI), die auf menschliche Emotionen reagiert. Hier klingt das Ganze aber noch etwas zurückhaltender. Aktuell könne das System noch nicht angemessen auf menschliche Emotionen reagieren. Es wird weiterhin an zuverlässig nutzbaren Methoden geforscht, um Emotionen aus den Hirnströmen der Nutzer zu erkennen und entsprechende Handlungen abzuleiten. Algorithmen suchen in der Gehirnaktivität von Probanden nach Mustern, die sie ans System weitergeben können. Daraus ist ein erstes Produkt – eine App – entstanden, die die jeweilige aktuelle Emotion live anzeigt. „Wir sind auf dem Gebiet technologisch schon sehr weit, wie die Beispiele zeigen. Auch beim automatisierten Fahren spielen nicht-physische Befehle eine große Rolle und bringen neue Entwicklungen für die Automobilbranche. An den Algorithmen wird aber noch geforscht und KI ist hier natürlich auch ein wichtiges Thema“, schätzt der Geschäftsführer von Magility, Dr. Michael Müller den aktuellen Stand der Technologie ein.

Die Zukunft des BCI – Wie filtert der Computer die richtigen Gedanken?

In wissenschaftlichen Experimenten und Studien funktionieren die Experimente im Zusammenhang mit automatisiertem Fahren bereits, allerdings unter kontrollierten Bedingungen. Was aber, wenn wir gestresst sind, die Unterstützung des Systems gar nicht brauchen oder das System unsere Gedanken falsch interpretiert? Würden wir uns beim Fahren freiwillig eine Sensorkappe aufsetzen, die permanent unsere Hirnströme misst? Sicher ist bereits, dass Computer wiederkehrende Gedankenmuster auswerten und in Fahrbefehle übersetzen können. In der Vision vom autonomen Fahren ist die Gehirnsteuerung ein Experiment, die durch das fahrerlose Fahrzeug aber ohnehin überflüssig wird. Denn dann übernimmt die Maschine das Steuer und der Mensch kann sich entspannt zurücklehnen.

 

DSGVO - Wem gehören die Daten beim autonomen Fahren. Bild: Unsplash

DSGVO und autonomes Fahren – Wem gehören die Daten?

Durch den permanenten Umgang mit Smartphone, Computer, Smart Home oder Connected Car generieren wir stetig mehr Daten, die lokal oder in der Cloud gespeichert, an Dienste übermittelt oder mit anderen Anwendungen geteilt werden. Längst weiß niemand mehr, welche Daten für welchen Zweck verwendet werden. Erst kürzlich wurde in Deutschland die Datenschutz-Grundverordnung (DSGVO) auf den Weg gebracht, damit Nutzer Auskunft über ihre eigenen Daten einholen und wieder über sie verfügen können. Seit Mai 2018 ist sie nun rechtskräftig. Doch wie wirkt sich die DCGVO auf das vernetzte oder autonome Fahren aus? Welche Daten sind davon betroffen? Und was bedeutet das für die Vision des self-driving Cars?

Datengetriebene Geschäftsmodelle

Laut einer Studie des Digitalverbands Bitkom sind 69 Prozent der befragten Deutschen der Meinung, dass der Eigentümer des Autos darüber entscheiden sollte, wer die in ihrem Auto generierten Daten nutzen darf. Immerhin 42 Prozent sind aber bereit der Speicherung und Weiterverwendung der Daten zuzustimmen, sofern damit ein gesellschaftlicher Nutzen verbunden ist. 27 Prozent würden ihre Daten für einen individuellen Nutzen weitergeben. „Die Nutzer sind bereit, Daten weiterzugeben, wenn sie wissen, wer die Daten erfasst und wofür sie verwendet werden. Dabei werden Privatpersonen in Zukunft von der DSGVO direkt geschützt. Gleichzeitig ist die DSGVO aber eine große Herausforderung für Unternehmen, da sie einen  enormen prozessualen und organisatorischen Aufwand an vielen Stellen vorantreiben müssen, um den verbindlichen Anforderungen gerecht zu werden“, so Digitalisierungsexperte Dr. Michael Müller, Geschäftsführer der Magility GmbH.

Kunden möchten einen Nutzen sehen

Die Weitergabe der Daten ist zunehmend an die Bedingung geknüpft, dass ein konkreter Nutzen daraus entsteht. Längst ist es kein Geheimnis mehr, dass Daten ein wertvolles Gut sind. Entsprechend gehen viele Kunden immer sparsamer mit der Weitergabe ihrer Daten um. Gleichzeitig kam man bei vielen digitalen Diensten und Apps gar nicht mehr umhin der Datenverarbeitung zuzustimmen, sodass die gewünschte Autonomie über die Daten nicht mehr gewährt war. Hier kommt nun die neue DSGVO ins Spiel.

Personenbezogene Daten im autonomen Fahrzeug

Laut der neuen Datenschutzgrundverordnung gelten nahezu alle Daten als direkt oder indirekt personenbezogen. Einer Erklärung des Verbands der Automobilindustrie e.V (VDA) und der Datenschutzbehörde nach, zählen alle erhobenen Daten, die mit der Fahrzeugidentifikationsnummer (VIN) oder dem Kfz-Zeichen in Zusammenhang gebracht werden können, als indirekt personenbezogen. Dazu zählen unter anderem Durchschnittsgeschwindigkeit, Verbrauch, Füllstände oder andere durch Sensoren ermittelte Messwerte. Sie lassen auf das Verhalten des Fahrers schließen, geben Einblicke in dessen Alltag oder geben Auskunft über den Standort und sind deshalb besonders zu schützen.

Was genau ändert sich mit der DSGVO?

Die DSGVO regelt die Verarbeitung personenbezogener Daten von EU-Bürgern. Ziel ist es, den Verbraucherschutz zu stärken und Transparenz zu schaffen, sowie die Selbstbestimmung über die eigenen Daten zu gewährleisten. Durch Speicherung und Verknüpfung persönlicher Daten war es vielen Unternehmen bisher möglich, detaillierte Persönlichkeitsprofile zu erstellen, dauerhaft zu speichern und gegebenenfalls diese Profile zu nutzen oder auch zu veräußern. Gegen dieses aufkeimende Geschäft mit Nutzer- und Kundendaten, möchte die Verordnung nun vorgehen. Die drei wesentlichen Punkte sind:

  • Datenschutz
  • Recht des Kunden an den eigenen Daten
  • Recht auf Auskunft, Berichtigung und Löschung der Daten

DSGVO –  Transparenz, Datenminimierung und Information

Für den Verbraucher in der EU bedeutet die neue Grundverordnung mehr Information, Transparenz und Dokumentation. Im Falle des autonomen Fahrens geht es aber vor allem um die Speicherung der erhobenen Daten. Seit Mai 2018 genießt der Verbraucher noch mehr Schutz. Ihm wird im Umgang mit seinen Daten nun unter anderem folgendes gewährt:

  • Betroffene werden informiert, wofür ihre Daten genau verwendet werden (Transparenz)
  • Das Unternehmen darf nur Daten speichern, die es wirklich verwendet (Datenminimierung).
  • Daten dürfen nur für den Zweck verarbeitet werden, für den sie erhoben wurden (Nichtverkettbarkeit).
  • Die Rechte der Kunden (Information, Auskunft, Berichtigung, Einschränkung, Datenübertragbarkeit und Löschung) werden wirksam gewährt (Intervenierbarkeit).

Was bedeutet die DSGVO für das vernetzte Fahren?

Auch bei Diensten rund um das autonome und vernetzte Fahrzeug gilt die neue Datenschutzgrundverordnung. Aktuell ist aber noch nicht absehbar, wie sie im Einzelfall umgesetzt wird. Sicher ist, dass die Anbieter von entsprechenden Diensten deutlich kommunizieren müssen, zu welchem Zweck die erhobenen Daten verwendet werden und sich zuvor die Zustimmung zur Datenverarbeitung einholen müssen. Es bleibt spannend wie die DSGVO im Bereich des vernetzten Fahrens, in der Praxis umgesetzt, aussehen wird.

 

Neuromorphic Computing ist die nächste Generation der Künstlichen Intelligenz und bringt auch technologische Fortschritte in der Automotive-Industrie. Foto: CCO

Neuromorphic Computing – Neuronale Netze mit enormer Leistung

Die Zukunft der Künstlichen Intelligenz heißt Neuromorphic Computing. Dabei sind die Computer nach Vorbild des menschlichen Gehirns konstruiert, wobei die Funktionsweise von menschlichen Neuronen nachempfunden wird. Ziel der Neuromorphic Technologie ist es, Sinnesorgane nachzubilden oder zu simulieren, wie beispielsweise die Netzhaut des Auges, das Innenohr oder auch Teile des Gehirns. Langfristig sollen diese Computer Entscheidungen treffen oder sogar ins menschliche Nervensystem integriert werden können. Vor allem in der Industrie wird diese neue Technologie in Zukunft große Beachtung finden. Als autonome Roboter, im Bereich autonomem Fahren oder auch der Sensorik. Doch was bedeutet Neuromorphic Computing und was wird es uns in Zukunft bringen?

Die Zukunft heißt Neuromorphic Computing

Perspektivisch werden kognitive Computer entwickelt, die komplexe Daten analysieren können und anhand von erlerntem Wissen Vorhersagen treffen. Zentral dafür sind neuromorphe Chips, also Mikrochips, die nach Vorlage menschlicher Nervennetze gefertigt werden. Damit sollen diese Chips auch die Sensorik des Menschen abbilden. Unterstützt werden die Chips dafür mit spezifischer Hardware, die etwa Gerüche oder Geräusche aufnehmen kann. Die Chips unterscheiden sich von der gegenwärtigen Technik durch höhere Energieeffizienz und geringeren Platzbedarf.

Neuer Chip von Intel ist dem Gehirn nachempfunden

Neuromorphic Computing statt Deep Learning. Ein Beispiel dafür ist der Testchip Loihi von Intel. Insgesamt soll der Chip 130.000 Neuronen sowie 130 Millionen Synapsen haben. Dadurch ist Loihi leistungsfähiger als bisherige Modelle und kann stetig dazulernen. Laut Intel lässt sich der selbstlernende Chip in fast allen Bereichen anwenden. Im Bereich Automotive, in der Industrie, in autonomen Robotern, maschinellem Sehen oder maschinellem Hörverstehen. Entsprechende Algorithmen zur sparsamen Codierung, zur Wegfindung oder zum Wörterbuch lernen, haben Intel und andere Unternehmen in der Vergangenheit bereits umgesetzt. Der neue Chip wurde auf der CES 2018 in Las Vegas vorgestellt.

Gegenwärtige KIs

Aktuelle KIs wie Apple’s Siri oder Alexa senden Daten an ein Rechenzentrum, gleichen diese ab und bekommen eine Rückmeldung. Sie basieren auf Clouds, da die Rechenleistung der Elektronik gegenwärtig noch nicht ausreicht um die verarbeitungsintensiven Algorithmen auszuführen, die für maschinelles Lernen benötigt werden. Die typischen Prozessoren, die in den meisten Smartphones verbaut sind, könnten kein System wie Siri auf dem Gerät ausführen. Die Rechenleistung der Chips wird aber in den nächsten Jahren weiter steigen, bei weniger Energieverbrauch.

Forschungszentrum für Neuromorphic Computing in Baden-Württemberg

Eines der größten Forschungszentren für Neuromorphic Computing entsteht derzeit in Baden-Württemberg. In Heidelberg werden Millionen investiert um die Technologie und Forschung in den nächsten Jahren voranzutreiben. Ziel der Forschung ist der Aufbau eines großen neuromorphen Systems mit besonders ausgeprägten Lernfähigkeiten, die in interdisziplinärer Zusammenarbeit mit theoretischen Neurowissenschaftlern entwickelt werden.

Durch Neuromorphic Computing entstehen zahlreiche neue Geschäftsmodelle und Möglichkeiten von denen wir bisher nur träumen konnten. Wir von Magility, als ihr Partner für neue digitale Geschäftsmodelle, beraten Sie gerne.

CES Las Vegas – Volocopter, MBUX und Künstliche Intelligenz

Die Consumer Electronics Show (CES) in Las Vegas zeigte letzte Woche die aktuellen Tech-Trends, auch für Mobilität und Automotive. Vieles was vor wenigen Jahren noch als Science Fiction abgetan wurde ist auf der CES 2018 real geworden. Magility war vor Ort, um sich über die neusten Trends, Visionen und Start-ups zu informieren.

Fliegende Taxis bei der CES

Mobilität der Zukunft ist eines der heißen Themen der CES 2018. Das fahrerlose Elektroauto ist natürlich ein Dauerbrenner. Aber in diesem Jahr wurde auch die fliegende Variante in Las Vegas vorgestellt. Zu den Stars der Messe zählt das badische Start-up Volocopter. Das Unternehmen baut ein fliegendes E-Taxi made in Karlsruhe. „Der Raum in den Städten wird immer knapper, in Zukunft wird daher auch der Luftraum mehr genutzt werden. Volocopter ist ein zukunftsweisendes Start-up in Sachen E-Mobility“, unterstreicht Dr. Michael Müller, Geschäftsführer der magility GmbH die Innovationskraft des badischen Unternehmens.

Weltpremiere für Mercedes-Benz User Experience

Daimler feiert Weltpremiere auf der CES und stellt sein neues Multimediasystem MBUX (Mercedes-Benz User Experience) vor. Das intuitive und lernfähige Betriebssystem geht ab 2018 in der A-Klasse in Serie.

Besonders ist hierbei die Lernfähigkeit dank künstlicher Intelligenz. MBUX ist individualisierbar und stellt sich auf den Nutzer ein. Es schafft so eine emotionale Verbindung zwischen Fahrzeug, Fahrer und Passagieren. Zugleich sind Updates „over the air“ möglich. Außerdem läutet es eine neue Ära bei der Mercedes me Connectivity ein. Die Navigationsdarstellung mit Augmented-Reality-Technologie sowie die intelligente Sprachsteuerung mit natürlichem Sprachverstehen sind weitere Neuheiten. Statt „hey Alexa“ fühlt sich das System mit „hey Mercedes“ angesprochen.

Künstliche Intelligenz und UX

Schaut man sich die Automobilhersteller insgesamt an, zeigt sich, dass in Zukunft viel getouched, geswiped und kommuniziert wird. Große Displays im Auto (siehe MBUX) lassen sich wie Smartphones bedienen und sprechen vor allem eine junge Zielgruppe an, die ans touchen und swipen längst gewöhnt ist. Künstliche Intelligenzen wie Amazons Alexa verbreiten sich stetig und eröffnen eine riesigen Markt für Anwendungen, die das Leben smarter und einfacher machen.

Brain Machine Inferfaces (BMI´s)

Auch Gehirn-Computer Schnittstellen (BMI´s)  erhielten auf der CES Einzug in die Welt des autonomen Fahrens. Nissan stellte auf der Messe ein ins Fahrzeug integriertes  brain-to-vehicle Interface vor. Das Interface erkennt durch einen Helm der drahtlos mit dem Fahrzeug verbunden ist Gehirnaktivitäten, die im Zusammenhang mit der Bewegungsaktivität des Fahrers stehen. Diese werden simultan an das Fahrzeug übertragen. Das Fahrzeug übersetzt und nutzt die Signale um das Fahrverhalten an die Erwartungen des Fahrzeughalters anzupassen, bevor dieser körperlich in Aktion tritt. Hierdurch wird personalisiertes autonomes Fahren möglich und das Fahrerlebnis noch smarter. Der Helm wird von der Startup Firma Bitbrain aus Spanien überwiegend von Neurologen weiterentwickelt.

Smart Future

Bei der CES in Las Vegas wurde die ganze Bandbreite an neuen Technologien vorgestellt. Smartphones, Smartwatch, Smart Home – das Angebot ist unermesslich und so verliert man sich schon mal in der Masse. „Für mich ist es immer wieder spannend zu sehen, wo wir gerade stehen und wo der Weg hinführt. Im Zuge der digitalen Transformation brauchen wir natürlich immer einen Überblick über Technologien und Visionen“, fasst Müller die CES zusammen. Und so hat sich der Weg nach Las Vegas auch in diesem Jahr gelohnt.

 

E-Mobilität. Daimler hat Tesla den Kampf angesagt. Foto: magility

E-Mobilität: Mercedes wird zum größten Konkurrenten von Tesla

Tesla hat einen unvergleichbaren Aufstieg vom Underdog zum Pioneer hingelegt. Aber die kommenden fünf Jahre könnten zur größten Herausforderung für das US-Unternehmen werden. Denn Autobauer rund um die Welt warnen sich zur Aufholjagd in Sachen Elektromobilität.

Daimler investiert Milliarden in Elektromobilität

Allen voran Daimler – die Stuttgarter planen ihre Autoflotte nun bis 2020 zu elektrifizieren und investieren dafür 11 Milliarden Euro. Dies bedeutet vor allem die Aufholjagd zum Vorreiter und Kontrahenten Tesla.
Doch zu Tesla aufzuschließen ist keine leichte Aufgabe. Das Unternehmen genießt eine Markenloyalität vergleichbar mit Apple. Das Unternehmen um CEO Elon Musk hat mit Innovationen wie Over-the-Air Updates der Industrie gezeigt, was Innovation bedeutet und traditionelle Distributionswege infrage gestellt.

Daimler muss sich neu erfinden

Tesla schwächelt vor allem in der Produktion, immer wieder ist von Engpässen die Rede. Daimler hingegen macht keinen Hehl daraus, den Angriff auf die Elektroauto-Pioniere zu wagen. Aus Stuttgart hörte man bereits im September, dass sie eine Milliarde in ein Werk in den USA investieren, um einen elektrischen SUV zu bauen, der 2020 auf den Markt gehen soll.
Darüber hinaus will Daimler weitere 10 Milliarden in die nächste Generation von Elektrofahrzeugen investieren.

Die angekündigte Verbannung von Dieselfahrzeugen befeuert die Entwicklung

Allerdings geht es wohl nicht alleine darum, Tesla einzuholen. Chinas Ankündigung, Diesel- und Verbrennungsmotoren zu verbannen zu wollen, ist ein zentraler Grund, denn China ist der größte Absatzmarkt für Autos in der Welt.

Die Nachfrage bestimmt das Angebot

Der Wettstreit von Daimler mit Tesla könnte aber auch darin begründet sein, dass Daimler erkannt hat, dass sie ihre Kunden davon überzeugen kann, dass sie technologisch Schritt halten. Etwas das Tesla bereits geschafft hat. Alleine deshalb, kann der schwäbische Autobauer die Amerikaner nicht ignorieren. Gleichzeitig ist der Kern von Mercedes der Verbrennungsmotor. Noch immer gilt ein Mercedes mehr als schnelle Maschine auf der Autobahn als ein Hightech-Fahrzeug und Pioneer der E-Mobilität.

Vor allem in China wird investiert

In Sachen E-Mobilität gilt es vor allem den chinesischen Markt zu erobern. Tesla arbeitet deshalb an einem soliden Fundament und baut ein Werk in Shanghai, das 2020 mit der Produktion beginnt.
Daimler hat bereits ein Joint Venture mit dem chinesischen Autobauer BAIC. Gemeinsam kündigten sie im Juli eine Investition über 750 Millionen Euro in die Produktion von Elektrofahrzeugen an. Von Unternehmensseite hieß es, China wird der wichtigste Markt für E-Mobility.

Weitere Herausforderungen

Natürlich bleiben einige Herausforderungen trotz hoher Investitionen bestehen. Die Marke Tesla steht für Hightech, Innovation und Zukunft. Dahin muss Daimler noch kommen. Außerdem hängt der Durchbruch auch eng mit der Ladeinfrastruktur zusammen. Tesla ist hier bereits einen Schritt weiter und arbeitet an einer Solarinfrastruktur. Es bleiben viele Fragen, die noch beantwortet werden müssen.

Magility untersucht fortlaufend in Trendstudien aktuelle Entwicklungen innerhalb der Mobilitätsindustrien und steht Ihnen als Partner zur Seite. Kontaktieren Sie uns gerne – wir freuen uns auf Sie!

Auf dem Weg zur digitalen Mobilität: Disruptive Geschäftsmodelle. Grafik: Mercedes Benz

Disruptive Geschäftsmodelle – Wo sind die innovativsten Automärkte?

Wir sind dabei, digitale, auch disruptive Geschäftsmodelle für die Zukunft zu entwickeln. Denn ohne die Wertschöpfungskette um digitale Services zu erweitern werden wir in Zukunft nicht auskommen. Doch wo stehen wir auf dem Weg zum „Mobilitätsdienstleister der Zukunft“? Der „Automotive-Disruption-Radar“ dokumentiert einen aktuellen Stand. Ganz vorne platziert: die Niederlande. Deutschland landet nur auf Platz fünf.

Neue Mobilitätskonzepte und innovative Geschäftsmodelle

Die zentralen Stichworte der Studie sind: Shared Mobility, Digitalisierung, autonomes Fahren und Elektromobilität. Darüber hinaus die regulatorischen Rahmenbedingungen und die Infrastrukturen, die digitale Innovationen möglich machen und befeuern. Wenn es um die Anwendung von Mobilitätskonzepten zu den genannten Kriterien geht landen die Niederlande im weltweiten Vergleich auf Platz eins. Die Studie bescheinigt den Niederländern in Sachen zukunftsweisender Mobilität vorbildlich aufgestellt zu sein.

Autonomes Fahren wichtiges Kriterium

In den Kategorien Kundeninteresse, Technologie und regulatorischen Vorgaben führen die asiatischen Staaten China, Singapur und Südkorea das Ranking an. Gerade in Singapur wurden bürokratische Hürden für das autonome Fahren gesenkt und Experimente mit selbstfahrenden Bussen und LKWs gestartet. Solche Experimente sind ein wichtiger Schritt für den Durchbruch von neunen Mobilitätskonzepten.

Regulationen sind der zentrale Punkt

Asiatische Länder zeigen sich tatsächlich sehr viel aufgeschlossener als europäische Länder, was E-Mobility und autonomes Fahren angeht. „Aber auch in Deutschland wird sehr viel für einen digitalen Wandel getan. Auch wenn in Deutschland die Änderungen der Rahmenbedingungen in kleineren Schritten erfolgen und sehr streng abgewägt werden heißt das nicht, dass in Deutschland nicht auf Hochtouren entwickelt wird“, kommentiert Dr. Michael Müller, Geschäftsführer der Magility GmbH die Entwicklungen. „Allerdings kann der Kunde von deutschen Autobauern auch mit der Digitalisierung höchste Qualität erwarten und keine halbausgereiften Technologien“, so Müller weiter.

China auf dem Vormarsch, Deutschland braucht noch Zeit

Die Entwicklung hängt mit den gesetzlichen Rahmenbedingungen in den einzelnen Ländern zusammen. China, mit der geplanten Genehmigung von autonomen Automodellen und neuen Teststrecken, ist dabei auf dem Vormarsch.
Deutschland hingegen braucht noch etwas Zeit. Zwar hat die Ethikkommission des Bundesverkehrsministeriums nun die ersten Leitlinien für selbstfahrende Autos vorgestellt und für erste teilautonome Fahrzeuge kann es, ähnlich wie in anderen Ländern, Einzelgenehmigungen geben. Doch wie eine Typzulassung erfolgen könne, sei immer noch offen.
„Deutschland spielt auch was disruptive Geschäftsmodelle angeht in der ersten Liga, aber um Innovationen auf die Straße zu bringen müssen wir weiter an den Rahmenbedingungen feilen”, schätzt Müller die Lage ein. Nur so könne sich der Markt entsprechend weiterentwickeln.

Über die Studie

Der „Automotive-Disruption-Radar” wurde von der Strategieberatung Roland Berger veröffentlicht. Er soll Unternehmen der Automotive-Industrie dabei unterstützen, ihre Investitionsentscheidungen zu treffen und will regelmäßig „den Übergang der Automobilindustrie zum Mobilitätsdienstleister der Zukunft” dokumentieren.

 

Deep Learning verspricht neue Durchbrüche beim autonomen Fahren. Foto: CC0

State of the Art: Deep Learning und autonomes Fahren

Im Sinne von Moor’s Law hat sich die Digitalisierung in den letzten Jahrzehnten unglaublich beschleunigt. Was zunächst wie eine schier endlose Aufgabe schien war aufgrund der exponentiellen Steigerung von Speicherkapazität und Prozessorleistungen schneller Realität als von Kritikern geahnt. Ein aktuelles Thema bei dem die Prognosen auseinandergehen ist die Künstliche Intelligenz und das Deep Learning. Sind wir bereits im Zeitalter der intelligenten Maschinen angekommen oder sind wir erst auf dem Weg dahin. Wahrscheinlich ist es nur eine Frage des Perspektive. Deshalb lohnt es sich auf Praxisbeispiele zu schauen. Viele Unternehmen versuchen bereits jetzt ihre Daten zu nutzen und daraus Erkenntnisse und Geschäftsmodelle zu kreieren. Ein Start-up aus dem Bereich ist das Berliner KI-Unternehmens Merantix. Zusammen mit großen Unternehmen arbeitet das Unternehmen an großen KI-Projekten. Auch im Bereich Automotive.

 

Drei Gründe für den Durchbruch neuronaler Netzwerke

Als Hauptgründe für den Durchbruch von neuronalen Netzwerken gilt: die Verfügbarkeit großer Mengen an Trainingsdaten, leistungsfähige Computerinfrastruktur und Fortschritte in der Wissenschaft. Außerdem übertrifft Deep Learning nicht mehr nur in klassischen Methoden, sondern mittlerweile auch in der Klassifizierung von Bildern oder der Gesichtserkennung, was Maschinen bislang kaum möglich war. Daraus resultiert Potenzial für disruptive Geschäftsmodellen, die mithilfe von Deep Learning und Machine Intelligence reale Problem beheben.

KI-Pioniere aus Berlin

Merantix ist ein Forschungslabor und Unternehmen im Bereich Künstliche Intelligenz. Das Berliner Unternehmen sucht zusammen mit mittelständischen und großen Unternehmen deren Potenziale, Daten zu nutzen um neue Geschäftsmodelle zu finden. Das Stichwort dabei lautet: Deep Learning. Laut Merantix basiert die Entwicklung der künstlichen Intelligenz in den letzten Jahren auf dem Erfolg des Deep Learnings*.

Diagnose vom Computer – Röntgenbilder

Konkret eruiert das KI-Start-up riesige Datensätze. Große Mengen an Trainingsdaten werden ausgewertet sodass die Maschine lernt auf bestimmte Auffälligkeiten zu achten. Ein konkretes Beispiel stammt aus dem Bereich Health Care. Merantix baut einen Service, unterstützt durch künstliche Intelligenz, der automatisch Röntgenbilder diagnostiziert. Um die Deep Learning Systeme zu trainieren werden Standardmarken aus Sprachprotokollen extrahiert. Im Ergebnis soll die KI-Diagnostik Effizienz und Qualität sicherstellen.

Deep Learning und autonomes Fahren

In Kooperation mit BOSCH arbeitet das Unternehmen an der Evaluierung und Verbesserung von Deep Learning Tools beim autonomen Fahren. Es werden neuronale Netze geschaffen und trainiert, die Objekte wie Ampeln, Verkehrszeichen und andere Fahrzeuge erkennen. Die Trainingsdaten stammen aus Sensordaten (in der Regel Bilder und Videos) von Fahrassistenzsystemen. Das System visualisiert die Charakteristik von geschulten neuronalen Netzwerken basierend auf aktueller Forschung.

Quo vadis: Deep Learning

Konkrete Beispiele aus dem Beriech zeigen, dass mit neuronalen Netzen und verfügbaren Trainingsdaten bereits praktischer Nutzen erzielt werden kann. „Für das autonome Fahren wird Deep Learning und Künstliche Intelligenz unerlässlich sein“, unterstreicht Dr. Michael Müller, Geschäftsführer der magility GmbH die Aktualität des Themas.

 

*Deep Learning bezeichnet eine Klasse von Optimierungsmethoden künstlicher neuronaler Netze, die zahlreiche Zwischenlagen zwischen Eingabeschicht und Ausgabeschicht haben und dadurch eine umfangreiche innere Struktur aufweisen.

Robotik und Automatisierung steigern die Produktivität in der Industrie. Foto: CC0

Robotik – Produktionssteigerung durch Digitalisierung

Die Robotik erobert die Welt. Vor allem Automobilhersteller, Zulieferer und Systemintegratoren beschleunigen durch Innovationen diesen Trend. Deutschland ist dabei Rekordhalter von Industrierobotern in Europa. Auf 10.000 Mitarbeiter kommen über 300 Roboter. Nur asiatische Länder können das überbieten. Doch wo stehen wir im Bereich Robotik, was sind die Herausforderungen und wie sind die Prognosen?

Die Zukunft ist automatisiert

Roboter, Autonome Maschinen und Künstliche Intelligenz (KI). Das sind die Schlagworte im Zusammenhang mit Robotik. Während in der Produktion, Fertigung und anderen Industriebereichen Roboter nicht mehr wegzudenken sind, entwickelt sich die digitale Technik stetig weiter. Die Vision von der Verknüpfung von Robotik mit KI lautet, dass neben der Automatisierung von Arbeitsprozessen wie wir sie längt kennen, Maschinen Entscheidungen und Schlussfolgerungen aufgrund von Erfahrungen treffen können.

„Im Bereich Robotik wird sehr viel geforscht. Als Innovationsstandort Deutschland arbeiten wir vor allem an durchsetzungsfähigen Technologien. Dies geschieht hauptsächlich in Zusammenarbeit mit Universitäten und Unternehmen, die sehr viel Energie und Mittel investieren um die Forschung voranzutreiben und Fachkräfte auszubilden. Gerade hier liegt die Stärke“, so Dr. Michael Müller, Geschäftsführer der magility GmbH.

Mensch-Roboter-Kollaboration

Zwar lautet die Prophezeiung, dass intelligente Maschinen die Arbeit autonom übernehmen würden. Zunächst aber wird es viel häufiger der Fall sein, dass Menschen in Kombination mit Robotern arbeiten um Abläufe zu optimieren oder zu präzisieren. Ein Beispiel dafür sind Operationsroboter, die Chirurgen ermöglichen noch präziser und genauer zu arbeiten. Aber es werden auch beispielsweise LKWs auf der Autobahn autonom fahren und auf Landstraßen von einem Fahrer gelenkt. Das Maschinen den Menschen komplett verdrängen ist bis auf weiteres Science Fiction.

Wie wird sich die Arbeitswelt ändern?

60 Prozent aller bezahlten Tätigkeiten mit heute vorhandenen Technologien sind zu 30 Prozent automatisierbar, schätzt McKinsey. Das betrifft nicht nur die Industrie sondern viele Wirtschaftszweige. Gleichzeitig sind nur wenige Menschen besorgt um ihren Arbeitsplatz (Siehe Statista-Grafik). Die Arbeitswelt wird sich wandeln, das steht fest. Dennoch bringt Technik immer auch neue Arbeitsplätze und Arbeitsbereiche mit sich. Auch die nächste Generation von Robotern, von autonomen und selbstlernenden Maschinen und Künstlicher Intelligenz werden neue Arbeitsplatze in Entwicklung, Herstellung, Installation, Betrieb und Service hervorbringen. In Bereichen wie Big Data, Cloud-Services, App-Entwicklung und Verkauf, Internet-Dienste, Cyber Security und der Vernetzung im Internet of Things. 

Quo vadis Robotik

Big Data und Machine Learning, dass sind die entferntesten Visionen. Bis dahin werden sehr viele andere Herausforderungen zu bestehen sein. Denn am Ende erfüllt die Technik keinen Selbstzweck sondern soll Abläufe rationalisieren und wirtschaftlicher machen. Gerade was die Produktion angeht herrscht ein enormer Konkurrenzkampf vor allem mit dem fernen Osten. Dort werden mit High-Tech Maschinen zu Dumping-Preisen produziert. Am Ende geht es vor allem darum, dass der Wirtschaftsstandort Deutschland konkurrenzfähig, attraktiv und innovativ bleibt. Daran arbeiten wir auch als magility jeden Tag.

 

Nicht zuletzt müssen wir uns in Teilen sowohl als Gesellschaft als auch in unseren Arbeitsweisen teils neu erfinden. Hierfür brauchen wir Expertise und profunde Erfahrung in der Begleitung von Transformationsprozessen, mit professionellen Kommunikationsstrategien und Anpassung von unternehmensweiten Prozessen. Wir sind Ihre Digitalisierungsexperten auf diesem Weg der Transformation!