Beiträge

“Future Digital Business Networks – Innovationen im Zeitalter des IoT”

Wie reagiert ein Unternehmen auf aktuelle Innovationswellen und immer rasanter voranschreitende technologische Trends, um sich auch in Zukunft in einem dynamischen Marktumfeld mit schnellen Innovationszyklen erfolgreich zu positionieren?

Netzwerktreffen lokaler Führungskräfte

Führungskräfte lokaler mittelständischer Unternehmen trafen sich am Donnerstag, 4. April 2019 im futuristischen Ambiente der Carola Daimler Cars Eventlocation um genau dieser Fragestellung auf den Grund zu gehen. Dort fand die vierte, von magility und der Führungsriege der VP Bank gemeinsam organisierte Netzwerkveranstaltung “Future Digital Business Networks” statt. Diesmal stand das Thema “Innovationen im Zeitalter des Internet of Things” im Fokus. Durch den spannenden Abend führte, der aus TV- und Hörfunk bekannte Moderator, Andreas Groß.

Finanzwesen trifft auf Unternehmensberatung

Antony Lassanianos, CEO der VP Bank (Schweiz) AG, begrüßte die hochkarätigen Gäste aus Industrie und Wirtschaft. Im Anschluss bereicherten Dr. Michael Müller, CEO der magility GmbH, Jan Dietz, Partner der magility GmbH sowie Dr. Thomas Gitzel, Chefökonom der VP Bank und Dr. Urs Monstein, CEO a.i. und COO der VP Bank Gruppe, mit Ihren Vorträgen zu hochaktuellen Themen den Abend.

Dr. Thomas Gitzel ordnete digitale Innovationen aus volkswirtschaftlicher Sicht ein und veranschaulichte den Zuhörern, unter seinem Vortragstitel “Investing in Chance”, wie durch die richtigen Anlagen von dem globalen Megatrend profitiert werden kann. Den Zuhörern gab er sein Credo “Ohne Innovation droht der Stillstand” mit auf den Weg.

High-Tech Innovationen – Trends 2019

Im Anschluss zeigte Dr. Michael Müller die Technologie Trends 2019 auf und veranschaulichte, wie diese neuen Technologien als Basis für innovative Produkte und Dienstleistungen genutzt werden können. Artificial Intelligence, Big Data, DIY Biohacking, Quantum Computing, 5G und Robotik waren nur einige der Schlagworte, die er in seinem Beitrag erläuterte. IoT Investitionen werden sich laut Dr. Müller bis 2020 global auf circa 250 Milliarden Euro erhöhen. Elektrik und Elektronik sowie Cyber Security stehen dabei technologieübergreifend im Mittelpunkt. Jedes neue Gerät, das einem IoT Ecosystem hinzugefügt wird, schafft eine neue Angriffsfläche für Cyber-Attacken. Auch das Connected Car ist bereits heute ein essenzieller Teil des IoT. Für die Automobilbranche wird Software zum kritischen Erfolgsfaktor. Es gibt keine funktionale Sicherheit und keinen Datenschutz mehr ohne Cyber Security. Trotz riesiger Potentiale, die sich durch High-Tech-Innovationen ergeben, muss das Gesamtsystem mehrschichtig und nachhaltig geschützt werden. End-to-End Cyber-Security Lösungen müssen zum Fundament der neuen Technologien der Zukunft werden. Die Vertraulichkeit der Daten sowie der Schutz vor Cyber-Angriffen sind eine Grundvoraussetzung für die Massenakzeptanz von technologischen Neuerungen und High-Tech-Innovationen, so Müller.

Konnektivität – Die Basis technischer Innovationen im IoT Ecosystem

Die Konnektivität bildet die Grundvoraussetzung für technische Innovationen im IoT Ecosystem. Es wird immer wichtiger Produkte ineinandergreifen zu lassen. Die Produktzyklen sind kurz und auch die Prozesszyklen unterliegen heute einer ständigen Transformation. In Zukunft wird es durch die Möglichkeiten des IoT laut Müller nicht mehr nur einen Regelkreis geben der intern kommuniziert. Es wird viele Regelkreise geben, die miteinander vernetzt sind und die selbstständig untereinander kommunizieren. Es entstehen multiple Netzwerke von Echtzeitanwendungen, die ein Eigenleben entwickeln werden, also sich selbst verändernde Regelkreise in Echtzeit. Der Umgang mit diesen, sich selbst verändernden Netzwerken, wird die große Herausforderung für Unternehmen in der Zukunft, so Müller.

Digitale Geschäftsmodelle im IoT Umfeld

Jan Dietz ging anschließend näher auf die Anwendung der Technologietrends und Innovationen des IoT Umfelds ein. Er veranschaulichte, wie sich diese Trends auf Produkte, Prozesse und Geschäftsmodelle auswirken und wie sich Unternehmen bestenfalls den Herausforderungen in dieser disruptiven Zeit stellen. Digitale Geschäftsmodelle besitzen große Erfolgspotentiale, ganz vorne stehen Plattform-Ansätze wie sie beispielsweise Car-Sharing Anbieter wie car2Go, DriveNow oder Anbieter von multimodalen Mobilitätsdiensten wie moovel anwenden. Wachstumschancen ergeben sich für Unternehmen auch durch die Anwendung von KI, insbesondere von Machine Learning. Weiter stellte Jan Dietz Geschäftsmodelle aus dem Bereich digitalisierte Ökosysteme vor. Hierbei fielen Begriffe wie Blockchain und Digital Twin. Auch den Bereich DIY Biohacking betrachtete er kritisch und erläuterte, welche Geschäftsmodelle sich durch Biochips, Exoskelette und Smart Fabrics ergeben können. Selbstverständlich durften auch Anwendungsbeispiele die sich durch die Vernetzung ergeben nicht fehlen. So wird beispielsweise die Technologie der “Augmented Reality” schon in den verschiedensten Bereichen angewendet und auch durch Smart Homes und “IoT enabled Workplaces” ergeben sich interessante Möglichkeiten für neue Geschäftsmodelle. Nachdem dargestellt wurde, welche Möglichkeiten sich durch 5G und Quantencomputer in Zukunft ergeben, schloss Jan Dietz seinen Vortrag mit einer Einschätzung des Attraktivitätsgrades der vorgestellten Geschäftsmodelle bezüglich Investmentpotentialen – nicht ohne zu erwähnen, dass ein konsequentes Risiko- und Projektmanagement sowie ein professionelles Cyber Security Management die Basis des Erfolgspotentials bilden.

Future Banking – Innovationen und Digitalisierungstrends

Die Vortragsrunde schloss Dr. Urs Monstein. Er skizzierte das “Future Banking” und erlaubte den Teilnehmern einen Blick hinter die Kulissen der Bank, um aufzuzeigen, wie die VP Bank mit Innovationen und Digitalisierungstrends intern umgeht. Er ging dabei auch auf den Spagat zwischen Anpassungsfähigkeit und Standardisierung ein, den Banken bezüglich ihrer IT Strategie heute bewältigen müssen. Die VP Bank bedient sich aktuell schon verschiedenster State-of-the-art Lösungen und blickt den Veränderungen, die sich durch das IoT und den damit verbundenen Herausforderungen ergeben, positiv entgegen. High-Tech Lösungen und Innovationen sind wichtig und können auch den Banken und deren Kunden viele Prozesse erleichtern und vereinfachen. Im Mittelpunkt steht aber am Ende immer der Mensch. Deshalb ist es trotz neuer digitaler Angebote und Robo Advisors wichtig, den richtigen und zur eigenen Persönlichkeit passenden Vermögensverwalter an der Seite zu haben.

Podiumsdiskussion – Ein Blick hinter die Kulissen

Im Anschluss an die Vorträge folgte eine anregende Podiumsdiskussion mit Moderator Andreas Groß, in der die Inputs der Vorträge mit den Referenten und Veranstaltern vertieft diskutiert, sowie kritisch hinterfragt wurden. Andreas Groß sorgte mit seinen treffenden, teilweise auch mit Humor gespickten und stets herausfordernden Fragen für eine lockere Stimmung in der Podiumsrunde. So gaben die Referenten auch sehr persönlich gehaltene Stellungnahmen zu den diskutierten Themen des Abends ab. Damit regten sie die folgenden spannenden Netzwerkgespräche an, die sich beim anschließendem Flying Dinner zwischen Teilnehmern und Referenten ergaben.

Der kritische Erfolgsfaktor Mensch

Begleitend zur Veranstaltung „Future Digital Business Networks“ wurden Dr. Michael Müller und Jan Dietz von magility auf der Stuttgarter Börse zum Thema des Abends interviewt.

Wir danken unserem Partner VP Bank sowie unseren Gästen aus Wirtschaft und Industrie für ihr Kommen und ihren Input an diesem gelungenen und für alle Seiten inspirierenden Abend in der Carola Daimler Cars Eventlocation. Wir freuen uns schon jetzt auf die Fortsetzung der Netzwerkveranstaltung “Future Digital Business Networks” Im Frühjahr 2020.

Wenn Sie in der Unternehmensleitung tätig sind und Interesse haben, an der Netzwerkveranstaltung „Future Digital Business Networks“ im nächsten Jahr teilzunehmen, kontaktieren Sie uns. Wir merken Sie gerne für die Einladungsrunde zu Future Digital Business Networks vor.

Sie möchten sich schon vorher über neueste Innovationen, Trends, deren Chance und Risiken und Geschäftsmodelle der Zukunft informieren? Dann sprechen Sie uns von magility gerne an!

Sprachsteuerungssysteme – Künstliche Intelligenz verhilft zum Durchbruch

„Liebes Auto, bitte rufe Stefan Mayer an!“ „Tut mir leid, ich kann die Adresse Eierstraße leider nicht finden.“ Solche Dialoge mit Sprachsteuerungssystemen sind den meisten Menschen genauso bekannt wie leidig. Die Möglichkeiten von Spracheingabe waren immer so verlockend wie begrenzt. Nur ganz bestimmte Begriffe in festgelegter Reihenfolge, langsam und unnatürlich gesprochen wie von einem Roboter und ganz ohne Nebengeräusche führten zum Erfolg. Die neueste Generation dieser Sprachsteuerungssysteme ist ihren Vorgängern einen großen Schritt voraus. Erstmals sind so etwas ähnliches wie natürliche Gespräche mit diesen Systemen möglich und mehrere gesprochene Wege führen zum Ziel.

ASR und NLU – Begriffe die man kennen sollte

Bei der automatischen Spracherkennung “ASR” (Automatic Speech Recognition) werden Computerhardware und softwarebasierte Techniken zur Erkennung und Verarbeitung der menschlichen Stimme verwendet. ASR wird verwendet um die Wörter zu identifizieren, die eine Person gesprochen hat, oder um die Identität der in das System sprechenden Person zu authentifizieren. Natural Language Verständnis “NLU” (Natural Language Understanding) ist ein Zweig der künstlichen Intelligenz, der Computersoftware verwendet, um die Eingabe in Form von Sätzen im Text- oder Sprachformat zu verstehen. ASR verwandelt Sprache also zu Text – kann es folglich “lesen”. NLU versteht aber erst die Bedeutung dahinter.

Was brachte den Durchbruch?

Der große Beschleuniger der Technologie war die Verlagerung der Spracherkennungssoftware in die Cloud. Den Anfang machte damals Apple mit der Einführung des Spracherkennungsassistenten “Siri” auf den iPhones. Amazon zog mit „Alexa“ nach. Auch Google mit seinem „Google Assistant“, Samsung mit „Bixby“ und Microsoft mit „Cortona“ sind neben anderen kleineren Herstellern die Haupttreiber der Entwicklung. Wird der Sprachassistent mit einem Codewort aktiviert und eine Frage gestellt, dann wird diese Anfrage zu einem Server des Anbieters gesendet, wo nach Analyse durch eine künstliche Intelligenz eine wahrscheinlich passende Antwort generiert und zurück beim Fragesteller über einen Lautsprecher ausgegeben wird. Internet basiertes maschinelles Lernen ist die technische Voraussetzung für ein möglichst natürliches Erlebnis mit Sprachsteuerung. Ein Zusammenspiel von Deep Learning, Cloud Computing, Neuronalen Netzwerken und künstlicher Intelligenz führt hierbei zu immer besseren Ergebnissen.

Welche Anwendungsmöglichkeiten ergeben sich?

Grundsätzlich geht es bei der Nutzung von Spracherkennung schon lange nicht mehr um das bloße Diktieren von Text, sondern darum, einen Computer zu steuern und ihn mit bestimmten Services zu beauftragen. Die Sprache wird hierbei zu einer weiteren Schnittstelle, welche die Interaktion von Mensch und Gerät erleichtern und verbessern soll. Anstatt sich in einem Auto umständlich durch verschachtelte Menüs klicken zu müssen, genügt ein einziger gesprochener Satz, um z.B. die Navigation mit einer neuen Zielführung zu beauftragen. Das spart Zeit, Nerven und es lenkt den Fahrer im Zweifel deutlich weniger vom Verkehrsgeschehen ab. Auch bei Betrachtung der Angebote von Amazon oder Google steht eine vereinfachte Nutzung der eigenen Dienste im Mittelpunkt. So lassen sich Suchanfragen zu Sportereignissen, Nachrichten oder dem Wetter durchführen, Musiktitel abspielen, Bestellungen aller Art aufgeben sowie Anrufe und Textnachrichten versenden und empfangen. Vereinfacht zeichnet sich folgendes Szenario für Spracherkennungen ab: MBUX kann alles was ein Mercedes kann, Google Home kann alles was Google kann und Alexa kann alles was Amazon kann.

Potenzierte Nutzungsmöglichkeiten durch Integration von Drittanbietern

Besonders spannend wird es, wenn die Sprachsteuerungssysteme “offen” sind auch die Geräte von Drittanbietern zu steuern. Smart Home ist hier ein wichtiges Stichwort. Dabei geht es darum, möglichst alle Funktionen eines Haushalts per Sprachbefehl zu steuern: Heizung, Licht, Rollläden, Musik, Backöfen, die Kaffeemaschine, die Verriegelung der Türen, den Staubsaugroboter oder die Überwachungskameras. Wöchentlich werden weltweit neue Produkte lanciert, die sich durch die zentralen Sprachsteuerungssysteme der großen Hersteller im wahrsten Sinne des Wortes ansprechen lassen. Somit sind Sprachsteuerung und das Internet of Things zwei große Technologietrends, die sich gegenseitig verstärken.

Integrierte Sprachassistenten im Fahrzeug

Neben Assistenten für reines Infotainment, die über das Smartphone funktionieren, also ohne direkten Zugriff auf das Fahrzeug wie beispielsweise Apple CarPlay und der Sprachassistent Chris von German Autolabs, spielen integrierte Sprachassistenten, die Zugriff auf das Fahrzeug haben eine immer wichtiger werdende Rolle in der Automobilbranche. Zu diesen integriertem Sprachassistenten zählen z.B. MBUX “Hey, Mercedes!” von Daimler unter Mitwirkung der Firma Nuance, der Sprachassistent Casey von Bosch sowie Android Auto von Volvo.  Auch Amazons virtueller und sprachgesteuerter Assistent Alexa geht unter die Autofahrer. Alexa ist “offen” und steht auch anderen Hardwareherstellern zur Verfügung.

So hat zum Beispiel VW eine Partnerschaft mit dem Online-Händler Amazon angekündigt und Anfang des Jahres (2018) skizziert, wie man aus dem Auto heraus mit Hilfe von Alexa daheim die Jalousien öffnen oder die Vorräte im Kühlschrank überprüfen kann. Continental zeigte in Las Vegas ein neu entwickeltes Infotainmentsystem, das in Zukunft sowohl mit der On-Board-Diagnose des Autos verbunden als auch mit der Alexa Sprachsteuerung ausgestattet sein soll. Ford integriert Amazon Alexa per Software-Update in allen Autos mit Sync 3 Entertainment System – vorerst aber nur in den USA. Seat hat Alexa in den Ibiza, den Leon, den Ateca und Ende August auch in den Arona geholt. BMW und Mini haben Alexa seit Mitte 2018 in alle neuen Modelle integriert. Beispielsweise kann der Autofahrer das aktuelle Kinoprogramm oder das Wetter am Zielort erfragen, die Lieblings-Playlist abspielen oder shoppen – einfach per Sprachbefehl in die Cloud. Heute sind Sprachsteuerungssysteme schon in 55 Millionen Autos (Statista) sowie in der Headunit integriert. Auch im Aftersalesbereich spielt die Integration von Alexa eine immer größere Rolle. Laut einer Veröffentlichung der FAZ im Januar 2019 hat Amazon die Marke von 100 Millionen verkauften Geräten mit seiner Sprachassistentin Alexa an Bord geknackt. In der StudieAn outlook on INTELLIGENCE in 2024 finden sich weitere Informationen und Zahlen zum Thema Sprachassistenten.  

Welche Einschränkungen gibt es?

Neben den vielen bereichernden Möglichkeiten von Spracherkennungssoftware gibt es noch einige Hindernisse zu überwinden. So ist es für die Erkennung eindeutiger Befehle immer noch hinderlich, wenn Anweisungen kontextbasiert erfolgen, wenn undeutlich gesprochen wird oder der eigene lokale Akzent allzu dominant ausgeprägt ist. Sehr vereinzelt verbreiten sich ab und an Zeitungsmeldungen über fehlgeleitete Sprachbefehle, so wurde laut Businessinsider einmal angeblich das Gespräch eines Ehepaares aufgenommen und automatisch per Email versandt. Noch deutlicher werden die Risiken bei Betrachtung der Datensicherheit. Die Hersteller beteuern zwar, dass Daten erst nach Aktivierung durch das Codewort an die eigenen Server gesendet werden. Kritische Konsumenten werden dennoch hellhörig, wenn beispielsweise Google durch personalisierte zielgenaue Werbung seine Umsätze erzielt. Je mehr ein digitaler Assistent über seinen Nutzer weiß, desto besser funktioniert er. Es gibt hier also einen klassischen Zielkonflikt zwischen dem Sammeln von persönlichsten Daten und der reibungslosen Funktionalität eines Produktes welches den Alltag erleichtern soll.

Was erwartet uns noch in der Zukunft?

Die künstliche Intelligenz der digitalen Assistenten soll den Nutzer beobachten, von ihm lernen und sich ihm anpassen. Nur so kann das entstehen was wir von einer Menschlichen Stimme erwarten: Nähe. Nur so kann aber auch das entstehen was viele fürchten: der gläserne Mensch, vollkommene Überwachung und das Vorhersagen sowie die Beeinflussung unserer Gedanken und Handlungen. Gleichzeitig erhöht sich dadurch die Effizienz der Kommunikation zwischen Mensch und Maschine. Denn nur mit Intuition ist ein gegenseitiges menschliches Verstehen möglich. Wir alle versuchen die Gedanken unseres Gegenübers zwischen den gesprochenen Zeilen zu lesen. Warum sollten wir es also fürchten, wenn unser guter alter Gehilfe Computer dasselbe tut? Vielleicht darum, weil diese Dienste und Services jemandem gehören der mit unseren Daten sein Geld verdienen will. Die Angst vor der finanziellen Ausschlachtung des eigenen Lebens bleibt also. Vielleicht ist dies aber auch die angemessene nächste Stufe – hin zu neuer Lebensqualität mit digitalen Helfern.

Was sprechen die Zahlen?

Laut einer von Tracticta erhobenen und von Statista im August 2016 veröffentlichten Studie, steigen die weltweiten Nutzer virtueller digitaler Assistenten von 390 Millionen im Jahr 2015 auf 1831 Millionen Nutzer bis zum Jahr 2021 an. Für das Jahr 2019 wurde die Zahl der weltweiten Nutzer von virtuellen digitalen Assistenten dabei auf rund 1,4 Milliarden prognostiziert. Laut Handelsblatt wurden im Jahr 2018 weltweit bereits 7,5 Milliarden Dollar mit Spracherkennungssoftware umgesetzt. 2015 waren es laut einer von Horizont veröffentlichten Erhebung von Tracticta (Horizont Nr. 9, 02.03.2017, Seite 18) noch 17,7 Millionen US-Dollar. Laut des Artikels im Handelsblatt lassen weitere Studien von Canalys und IDC einen Anstieg auf 27,8 Milliarden Dollar im Jahr 2022 erwarten. Das entspräche einer durchschnittlichen jährlichen Wachstumsrate von über 20%.

Neben der Sprachsteuerung in Fahrzeugen und den Services von Google, Apple und Amazon zählt auch der Gesundheitsbereich zu einer Industrie, der bedeutend zum Wachstum beiträgt. Auch bei mobilen Bankgeschäften ist die Authentifizierung über die Stimme ein Trend. Viele Experten nehmen inzwischen an, dass der gesamte Customer Service Bereich branchenübergreifend vor einer Revolution durch sprechende künstliche Intelligenzen steht.

Was kommt auf Ihr Unternehmen zu und wie profitieren Sie von den neuen Entwicklungen und Technologien? Kontaktieren Sie uns gerne und wir erörtern gemeinsam neue Wachstumschancen für ihr Unternehmen.

 

Virtual und Augmented Reality in der Automobilindustrie_magility

Virtual Reality – zunehmende Bedrohung aus der Cloud?

Spätestens seit der Einführung der Eisenbahn im 19. Jahrhundert gibt es Skepsis beim Aufkommen technischer Neuerungen. So klar die Vorteile innovativer Technologien meist auf der Hand liegen, so groß sind auch teilweise die Befürchtungen, die mit der Verbreitung von Neuem und Unbekanntem einhergehen. Auch die aktuellen Entwicklungen im Bereich Virtual- und Augmented Reality sind davon nicht ausgenommen.

 

Augmented Reality vs. Virtual Reality

 

Mit dem Begriff Augmented Reality (AR) wird eine durch Computer erweiterte Realität beschrieben. Die Kamera eines Computer zeichnet die Realität auf, analysiert sie in Echtzeit, reichert sie mit zusätzlichen Daten an und gibt diese erweiterte Realität auf einem Display wieder. Dieses Prinzip ist bereits bekannt durch die Spiele-App Pokémon Go. Im Gegensatz zur AR wird die Virtual Reality (VR) komplett im Computer erschaffen. Will ein Nutzer daran teilhaben, so muss er sich über ein elektronisches Gerät, beispielsweise eine VR Brille oder einen Computer, in die virtuelle Realität einwählen.

 

Die virtuelle Welt Second Life ist eine der ersten Anwendungen von VR. Aber auch manche Videospiele wie World of Warcraft oder Grand Theft Auto erreichen inzwischen mit großem wirtschaftlichen Erfolg eine programmierte Komplexität, die der Realität nahe kommt. Anwendungen, die AR und VR vermischen werden auch Mixed Reality genannt.

 

Gefahren bei digitalen Realitäten

 

Nicht umsonst widmete sich die Mainzer Kunsthalle mit einer großen Ausstellung im Jahr 2018 diesem Thema und überschrieb die Schau mit einem vielsagenden Titel: Virtual Insanity.

Je mehr der virtuelle Raum sich an die echte Realität anpasst, wenn die Geschehnisse der Realität mehr und mehr in die virtuelle Realität übertragen werden, dann wandern auch die bekannten Probleme des Alltags in den Cyberspace: Mobbing, Belästigung, Stalking und die Auslebung anderer illegaler und unmoralischer Handlungen.

 

Wenn es zudem möglich wird, im digitalen Raum mit dem eigenen Avatar rechtsverbindliche Geschäfte abzuschließen, dieser Avatar dann gehackt oder kopiert wird, dann ergibt sich eine Vielzahl an Möglichkeiten für illegale Aktivitäten. Auch Geldwäsche ist ein Thema das sich in diesem Kontext zunehmend etabliert und in den Fokus von Behörden gerät.

 

Virtual Reality in der Automobilindustrie

 

In den Entwicklungsabteilungen der Automobilindustrie gehört die Anwendung von VR in einigen Bereichen bereits zum Standard. In einem VR-Studio lassen sich Bauteile digital dreidimensional betrachten und vor der eigentlichen Produktion testweise zusammensetzen. Diese Räume werden CAVE genannt (Cave Automatic Virtual Environment) und erlauben einen realitätsnahen Blick auf virtuelle Bauteile. Auch die Kunden profitieren von dieser Entwicklung. So bietet etwa Audi einen dreidimensionalen Konfigurator an, durch den sich ein individualisiertes Wunschfahrzeug schon vor der eigentlichen Produktion anschauen und bewundern lässt.  

 

Bald schon könnten Geräte ähnlich dem Google Glass in unterschiedlichsten Berufsanwendungen zum Standard gehören. Dabei trägt ein Polizist, Arzt oder ein Teilnehmer eines Meetings in einem Büro eine Brille, die ihm zusätzliche Informationen direkt in sein Sichtfeld einblendet. Dadurch können komplizierte Situationen vereinfacht, beschleunigt und effizienter gestaltet werden.

 

Virtual Reality auch bei der Verteidigung im EInsatz

 

Auch im militärischen Bereich sind Virtual Reality und Augmented Reality bereits bei modernen Armeen und Luftwaffen im Einsatz. Weitere potenzielle Anwendungsmöglichkeiten sind zahlreich, sie reichen über Zusatzinformationen im Einzelhandel bis hin zum virtuellen Einbau von Möbeln in das eigenen Zuhause. Grundsätzlich sind der Fantasie hier keine Grenzen gesetzt. Die dahinterstehenden erfolgreichen Geschäftsmodelle bestätigen die positive Entwicklung der Technologie.

 

Steigendes Marktvolumen für Virtual Reality Anwendungen

 

Die M&A Beratung Hampleton Partners erwartet für den globalen Markt von VR-Anwendungen für das Jahr 2022 ein Volumen von 17,8 Mrd. $.  Zum Vergleich: 2016 betrug die Marktgröße noch 2 Mrd. $. Nach einem Marktvolumen von 4 Mrd. $ im Jahr 2016, wird für den AR-Markt bereits im Jahr 2020 ein Anwachsen auf 161 Mrd. $ erwartet. Hohe Prognosen, die in aller Klarheit verdeutlichen, wohin die Reise geht.

 

Google und Microsoft sind von Anfang an und bis heute Treiber dieser Entwicklung. Auch zahlreiche Start-Ups wie Magic Leap und Vuforia aus den USA oder INDE aus Großbritannien mischen mit. Analysten nehmen an, dass europäische Unternehmen sogar bis 2020 die Marktführerschaft im Bereich Virtual Reality übernehmen werden. Von einem Anwachsen des Produktionswertes um 13-34 Mrd. € ist die Rede und bis zu 480.000 Arbeitsplätze könnten auf dem europäischen Kontinent dafür geschaffen werden. Die Einführung schnellerer mobiler Internetverbindungen wie 5G werden diesen Trend zudem noch beschleunigen.

 

Erweiterte Angriffsfläche für digitale Hacker

 

Bei zunehmender Digitalisierung des Straßenverkehrs ist das größte Risiko ein digitaler Hackerangriff. Jedoch verringert sich auch das Risiko von menschlichem Fehlverhalten stark durch die Unterstützung von digitaler Technik. Wird dieses System allerdings von Kriminellen, Terroristen und anderen Akteuren mit kriminellen Absichten beeinflusst, können durch Störsignale und digitale Falschinformationen schlimme Unfälle oder sogar der Zusammenbruch des Automobilverkehrs die Folge sein. Dabei müssen nicht einmal einzelne Fahrzeuge attackiert werden, ein einzelner Angriff über die Cloud kann genügen um ganze Flotten lahmzulegen.

 

Auch Virtual Reality Anwendungen müssen ganzheitlich und von Anfang an digital sicher (cyber secure) gedacht werden und die Security muss im gesamten End-to-End System integriert sein. Zunehmende Vernetzung ermöglicht weitere Einfallstore für Hacker Angriffe und böswillige Manipulationen. Mit jeder technologischen Entwicklung wächst diese Herausforderung beträchtlich weiter an. Magility berät Sie gerne bei der Umsetzung Ihrer individuellen Lösungen zum sicheren Einsatz virtueller Realitäten in Ihrem Geschäft.

 

Allseits sichere Fahrt in die Zukunft wünscht Ihnen das Team von Magility!

Die Technik lernt aus der Natur - neuronale Netze Bild: CC0

Neuronale Netze – Die Technik lernt aus der Natur

Der Begriff Bionik setzt sich zusammen aus den Begriffen Biologie und Technik. Bionik beschreibt das Lernen und die Nachahmung von natürlichen Vorgängen durch die Technik. Forscher schauen sich bewährte Methoden aus der Natur ab und nutzen diese für innovative Techniken. Nicht nur stoffliches Wissen und dessen Übertragung in die Technik ist Gegenstand der Bionik, auch Funktionsweisen und dahinterliegende Grundprinzipien finden sich in bionischen Anwendungen wieder.

Beispiele aus der Bionik, die wir im Alltag benutzen, gibt es etliche und sie erstrecken sich über Anwendungsbereiche wie Konstruktionstechnik, Oberflächen, Robotik, Fortbewegungsmöglichkeiten, Optimierungsverfahren, Materialien sowie Sensorik und Kommunikation.

Das menschliche Gehirn als Vorbild

Neuronale Netzwerke bestimmen unser menschliches Gehirn. Sie beinhalten eine riesige Anzahl an Nervenzellen (Neuronen), die sich im Verlauf der Gehirnentwicklung immer weiter vermehren und sich untereinander vernetzen. Dadurch entstehen intelligente Verbindungen, sogenannte neuronale Netzwerke. Die Funktionsweise der Vernetzung von Neuronen wird bei künstlichen neuronalen Netzen auf mathematische Rechenmodelle übertragen und die biologischen Netze dabei als informationsverarbeitende Systeme nachgeahmt.

Sowohl für natürliche als auch für künstliche neuronale Netze treffen ähnliche typischen Eigenschaften zu. Beide können komplexe Muster erlernen, ohne die dafür zugrunde liegenden Regeln und Gesetze zu kennen. Sie folgen in ihrer Funktionsweise einer Intelligenz, die keiner verifizierbaren Logik folgt. Der Nachteil ist, dass aus neuronalen Netzen auch im Nachhinein keine Logik identifiziert werden kann, die einen Lernerfolg erklären könnte. Erst nach jahrelangem Training sind neuronale Netzwerke fähig, logische und klare Regeln zu erlernen und anzuwenden. Sie lernen implizit – quasi learning by doing.

Künstliche Neuronale Netze

Künstliche neuronale Netze sind mathematische Strukturen, die den biologischen neuronalen Netzwerken ähneln. Sie bestehen aus sogenannten Modellneuronen und Kopplungsstellen, auch Synapsen genannt. Diese beiden Einheiten stehen miteinander in Wechselwirkung. Die Bestimmung der Synapsenstärke läuft über einen numerischen Wert. Dieser Wert stellt das Verbindungsgewicht dar. Im Bereich von Optimierungsverfahren werden heutzutage bereits künstliche neuronale Netze eingesetzt.

Künstliche Neuronale Netze in der Praxis

Heutzutage werden intelligente neuronale Netze beispielsweise beim Betrieb von Maschinen eingesetzt. Diese Maschinen übertragen Daten im Bedarfsfall selbständig an weitere vorher definierte Stellen. Sie können frühzeitige Verschleiß-Aktivitäten erkennen und helfen so, einem potenziellen Ausfall der Maschine vorzubeugen.

Auch in Fahrzeugen werden künstliche neuronale Netze eingesetzt. Autonomes Fahren kann nur durch künstliche Intelligenz (KI) sicher umgesetzt werden. Das Auto lernt über einen Szenarienkatalog zu manövrieren. Es lernt, was es bei der Fahrt als Hindernis einzuordnen hat und orientiert sich dabei über eingebaute Sensoren. Bilderkennungsverfahren ermöglichen den Transfer vom “Gesichteten” zur Verarbeitung im künstlichen neuronalen Netz des Fahrzeugs. Das gesichtete Hindernis wird abstrahiert und rechnerisch verbildlicht, dadurch kann das Fahrzeug die Gefahr anhand bereits erlernter Szenarien abschätzen und entsprechend manövrieren.

Cybersicherheit von Bionik Anwendungen

Künstliche neuronale Netze funktionieren gut, wenn man sie in Ruhe lässt. Was aber geschieht, wenn Angreifer sie von außen manipulieren oder mit krimineller Absicht lahmlegen?

Sowohl im Bereich des autonomen Fahrens als auch in der Medizintechnik ist Security eine elementare Schlüsselfunktion für die Zukunftschancen der eingesetzten innovativen Technologien. Automobilhersteller und -zulieferer haben die Dringlichkeit bereits erkannt und Cyber-Security Unternehmen an Bord geholt. Es braucht in der breiten Öffentlichkeit wohl aber noch weitere kriminelle Hacker-Angriffe um Automotive Cyber-Security generell als Schlüsselfunktion bei der Anwendung innovativer vernetzter technologischer Lösungen anzuerkennen. Eine Security Lösung sollte immer ganzheitlich für den kompletten Lebenszyklus gedacht und im Idealfall von Anfang an, also schon im Produktentwicklungsprozess, integriert werden. Technische Innovationen gibt es heute nur noch durch intelligente Vernetzung, Informationsfluss und Datentransfer. Sobald ein Produkt im Internet of Things vernetzt ist, ist es auch anfällig für Cyber-Angriffe. Vernetzte Produkte sollten daher immer mit Cyber Security “gedacht” werden.

Interessieren Sie sich für den technischen Fortschritt und die Entwicklung von KI, insbesondere im Bereich von Mobility-Themen, kontaktieren Sie unsere Experten. Wir von Magility beraten Sie gerne zum Thema Cyber Security und zeigen Ihnen, wie Sie Sicherheit zum entscheidenden Wettbewerbsvorteil machen.

 

Brain-Computer-Interfaces, KI und Androiden

Brain-Computer-Interfaces – Behalten wir die Oberhand?

Die Art und Weise wie der Nutzer in Zukunft mit Computern kommunizieren wird, steht vor einem großen Umbruch. Nach Tastaturen, Mäusen, Touchscreens, Gesten- und Stimmerkennung, setzt die Avantgarde der Computer Forschung auf sogenannte Brain-Computer-Interfaces (BCI’s). Die neuartigen Schnittstellen sollen es dem Nutzer erlauben, komplexer werdende Anwendungen direkt mit der Kraft der Gedanken zu steuern. Hintergrund der Entwicklung ist die Erfindung immer leistungsfähigerer künstlicher Intelligenzen (KI).

Was sind Brain-Computer-Interfaces?

Brain-Computer-Interfaces (BCI’s) sind Schnittstellen zwischen Gehirn und Computer. Die Gedankenkraft wird dabei übersetzt in digitale Eingabebefehle. Die Messung der Hirnströme kann auf zwei Arten stattfinden: nichtinvasiv und invasiv. Bei der ersten Methode wird über Elektroden die Hirnaktivität auf der Kopfhaut gemessen. Ein Nachteil liegt dabei in der Ungenauigkeit der Messergebnisse. Bei der zweiten, der invasiven Methode, wird mit einer kleinen Elektrode direkt im Gehirn gemessen. Diese Methode ermöglicht weitaus präzisere Messungen unserer Hirnaktivität und Elon Musk scheut nicht davor zurück, einen minimalinvasiven Eingriff zu präferieren. Das von ihm erst 2016 mitbegründete Unternehmen Neuralink will hierzu schon bald ein revolutionäres Produkt vorstellen.

Cyborg oder Android – Welches Konzept gewinnt die Zukunft?

Unter einem Cyborg versteht man einen Menschen, der durch technologische Erweiterungen seine Möglichkeiten erhöht. Bereits heute gibt es Prothesen oder Hör- und Sehhilfen, die erste Schritte in diese Richtung beweisen. Es muss dabei aber nicht lediglich darum gehen, körperlich eingeschränkten Personen Hilfe zu verschaffen. Die technologische Entwicklung wird auch dazu genutzt werden einen unbeeinträchtigten Menschen zu verbessern. Ein Exoskelett lässt einen Querschnittsgelähmten wieder gehen oder verleiht einem ‚Gesunden‘ übermenschliche Kraft und Ausdauer. Auch die Verwendung eines Implantats, das ein Gehirn mit einem Computer kommunizieren lässt, macht einen Menschen zu einem Cyborg. Unter einem Androiden hingegen versteht man eine möglichst menschenähnliche Maschine, wie etwa der aus dem Film Terminator bekannte Roboter und die Figur Data aus der Serie Star Trek. Wirft man einen Blick auf die Roboter des Unternehmens Boston Dynamics, wird leicht erkennbar wie nah sich Science-Fiction und aktuelle Realität bereits sind.

Menschmaschine vs. Maschinenmensch

Zwei Entwicklungen stehen sich gegenüber: die technologische Erweiterung des Biomenschen auf der einen Seite, und die Vermenschlichung von Robotern. Welcher Entwicklungsstrang die Bedeutungshoheit in Zukunft erlangen wird, kann noch nicht vorhergesehen werden. Aber Pioniere dieser Entwicklung, wie etwa Elon Musk, sehen die Herausforderung darin, dass künstliche Intelligenzen zukünftig die Intelligenz der Menschheit überragen werden. Damit aus dieser Entwicklung keine substanzielle Gefahr für unsere Spezies entsteht, empfiehlt Musk die Verbindung von menschlichem Gehirn und Künstlicher Intelligenz. Nur wenn wir mit der technologischen Entwicklung integrativ mit wachsen und selbst den digitalen Raum betreten, können wir dieser Ansicht nach künftige KIs unter Kontrolle halten.

Sind wir in Gefahr?

Was würde passieren wenn BCIs oder die Server auf denen die Interaktionen stattfinden Ziel eines Cyber-Angriffs und gehackt werden? Nicht nur von Menschen erstellte Informationen könnten zum Vorteil des Angreifers entwendet werden, im schlimmsten Fall würde eine digitalisierte Seele komplett gelöscht oder so verändert, dass ihre ursprüngliche Identität verloren ginge. Viele Fragen bleiben hier noch unbeantwortet. Wenn es etwa einem Bürger, welcher interaktiv mit einem BMI vernetzt ist, immer noch erlaubt wäre im Demokratieprozess zu wählen, wie stellt man dann sicher, dass seine Stimme nicht durch Hackerangriffe manipuliert wurde und wie bewertet man diese Stimme? Bei allen technologischen Herausforderungen werden die damit verbundenen ethischen Fragen und deren soziale Umsetzung uns noch lange mindestens genauso beschäftigen.

Was bedeutet das für die Mobilität der Zukunft?

Die oben angeführten Entwicklungen werden vielfältige Einflüsse auf unser Verständnis von Mobilität ausüben. Durch weiterentwickelte Brain-Computer-Interfaces könnten wir uns in einen Androiden einklinken und ihn steuern, als wäre er unser eigener Körper. Statt tatsächlich physisch an einen weit entfernten Ort zu reisen, könnten wir so z.B. die Steuerung eines Arbeitsroboters von unserem momentanen Standort aus übernehmen und Aufgaben an jedem Ort der Welt erledigen lassen.

Sind Sie am technologischen Fortschritt interessiert und möchten ihr Unternehmen daran profitieren lassen? Wir beraten Sie gerne, wie Sie neue Technologien sicher für sich nutzen.  Nehmen Sie Kontakt zu einem unserer Berater auf und wir gestalten gemeinsam mit Ihnen eine “cyber-sichere” und gleichzeitig innovative Zukunft.

Israels Startup Ecosystem – Innovationsschmiede für die Welt

Die Startup Szene ist Israel ist im weltweiten Vergleich einmalig, die pulsierende Stadt Tel Aviv ist deren Mittelpunkt. Was macht die dortige Startup Kultur so besonders?

Es geht den Firmengründern dort hauptsächlich um das Ausprobieren von Ideen und um das kreative Lösen von zukünftigen gesellschaftlichen Herausforderungen. Es geht vorrangig nicht um den Aufbau großer Konzerne, sondern um das Gründen von innovativen Unternehmungen und das Umsetzen einer Vision. Das macht Tel Aviv heute zu einer attraktiven dynamischen Gründer-Metropole mit frischem Wind für innovative Gedanken und Vorhaben, voll von kreativen Persönlichkeiten und deren ‘pushy’ Unternehmertum.

Höchste Startup Dichte weltweit

Nirgendwo anders auf der Welt gibt es ein derartig florierendes Ecosystem für innovative Neugründungen. In Israel werden jährlich etwa 1400 neue Startups gegründet. Zwar scheitern etwa 80 Prozent davon, es bleibt aber immer noch eine beträchtliche erfolgreicher Startups bestehen von denen einige zu größeren Unternehmen heranwachsen. Viele der dort gegründeten Startup-Erfolgsunternehmen konnten in der Vergangenheit hohe Verkaufspreise durch Exits an ausländische Technologieunternehmen verzeichnen.

Wem Tel Aviv bisher noch nicht als Innovationsmotor der Startup Szene bekannt war, der muss sich spätestens jetzt mit der pulsierenden Mittelmeerstadt auseinandersetzen.

Rahmenbedingungen für den Erfolg

Warum gerade Israel? Welche Rahmenbedingungen begünstigen die zahlreichen Gründungen?

Fragt man Startup-Gründer aus Israel, erhält man häufig die Antwort, dass Israel selbst erst ein junger Staat sei und man als Israeli daher von Anbeginn an das Gründen an sich aktiv lernt. Außerdem müssten die Menschen dort stetig improvisieren, was auch der Natur des Gründens entspricht. Saul Singer, Buchautor des Werkes “Start-Up Nation Israel” fasst zusammen:

Wir sind ein kleines Land. Wir haben keine natürlichen Ressourcen. Und wir leben inmitten in einer uns feindlich gesinnten Nachbarschaft. Damit mussten wir immer klarkommen. Wir mussten diese Herausforderungen stets bewältigen – auch mit Innovationen. Lange Jahre ging es dabei vor allem um unsere Verteidigung. Erst später wurden wir zur Start-Up-Nation. Es ist ganz einfach: Wir mussten erfinderisch sein, um zu überleben.“

Lösungsorientierter Erfindergeist, das ist es, was Israel bis heute ausmacht. Der große Traum vieler junger Israelis ist es heute, ein eigenes Unternehmen zu gründen.

Die Welt verändernde Technologien kommen aus Israel

Singer fasst zusammen, dass Israel in seiner gesamten Geschichte, seit Gründung des Staates bis heute nur von drei Generationen geprägt wurde. Die erste Gründergeneration des Staates Israel machte die Natur bewohnbar und gründete Kibbuze. Die zweite Generation kämpfte in mehreren Kriegen gegen die arabischen Nachbarländer und die jetzige Generation führt das Land durch den Innovationsmotor der Startups. Diese Innovationen sind jedoch nicht nur für Israel wichtig, sie könnten sogar die ganze Welt verändern. Der USB Stick stammt aus Tel Aviv, genauso wie die neueste Gesichtserkennungssoftware von Apple und auch die Sicherheitssysteme gegen Cyberangriffe bei vernetzten Autos, die heute auf den Straßen rollen.

Wichtige Technologien entwickeln und sie weltweit einsetzbar machen – das ist die Vision vieler israelischer Startups. Visionär sind diese Unternehmen und deren Bescheidenheit zählt zur Erfolgsformel. Und damit sind sie wirklich sehr erfolgreich.

Markteintritt und Vertrieb entscheidende Kompetenz

magility begleitete bereits Startups aus Israel beim Wachstum der eigenen Firma. Den Markteintritt schaffen und sich erfolgreich im europäischen Markt positionieren – das steht im Mittelpunkt der Arbeit von magility für israelische Technologie Startups. Zwar bringt Israel sehr viele Startups hervor, die Märkte für die dort entwickelten Produkte liegen jedoch ausschließlich außerhalb des Landes. Daher waren die USA und die EU, im Schwerpunkt Deutschland die größten Zielmärkte.

Europäische Unternehmen erkennen Chancen

Immer mehr deutsche und europäische Unternehmen erkennen die Chancen und Möglichkeiten durch die Zusammenarbeit mit israelischen Startups. Deutschland wird mehr und mehr Absatzmarkt und Zielmarkt für Firmenverkäufe. Doch sowohl Europa als auch die USA sind geografisch weit entfernt und unterscheiden sich auch im kulturellen Geschäftsgebaren von Israel. Deswegen brauchen israelische Startups sogenannte ‘Mittler’. Mittler kennen den Zielmarkt und haben gute Kontakte zu relevanten Entscheidungsträgern.

magility begleitete bereits israelische Startups aus dem Automotive Bereich, dem Maschinenbau sowie im Anwendungsfeld von Künstlicher Intelligenz. Internationaler Footprint, Agilität im Handeln und konsequente Markterschließung sind heute mehr denn je die Schlüsselerfolgsfaktoren für Startup Unternehmen. Durch die fortwährende Begleitung und Beratung der Startups durch magility konnten einige davon bereits hohe Verkaufspreise bei europäischen Konzernen erzielen und sich als wichtige Marktteilnehmer in den europäischen Zielmärkten etablieren.

Kontaktieren Sie uns gerne für weitere Informationen bezüglich der Begleitung von Startups und B2B Markterschließung – gerne auch außerhalb von Israel!

 

Brain to Vehicle - Steuern mit Gedanken. Foto: Unsplash

Brain to Vehicle Technologie – Der Fahrer denkt, das Auto lenkt

Fahrerassistenzsysteme stehen aktuell hoch im Kurs. Länger schon existiert die Idee, Fahrzeuge per Gedanken zu steuern. Bei der Brain-to-Vehicle Technologie lässt sich das Fahrzeug durch das Gehirn des Fahrers steuern, statt physische Befehle zu erteilen. Es handelt sich dabei durchaus nicht um Zauberei sondern um angewandte Wissenschaft. Doch wie funktioniert die Gedankensteuerung und was bedeutet diese neue Technologie für das autonome Fahren?

Brain Driver – Steuerung via Gehirn

Bereits 2011 war der Wissenschaftler Henrik Matzke in den Schlagzeilen. Auf dem Tempelhofer Feld in Berlin wurde vorgeführt, wie er ein Auto steuert, ohne die Hände am Lenkrad oder die Füße am Pedal zu haben. „Projekt Brain Driver“ hieß das wissenschaftliche Projekt von Autonomos, mittlerweile ein Tochterunternehmen von Tomtom, dem Hersteller von Navigationsgeräten. Schon damals konnte bewiesen werden, dass ein Fahrzeug auch ohne aktiv lenkenden Fahrer navigiert werden kann. Möglich wird dies durch die Messung der Hirnströme sowie Radar- und Lasersensoren, die die Umgebung erfassen. Über das menschliche Gehirn, sozusagen einem ‘Human Computer’ im Auto, kann das Fahrzeug elektronisch gelenkt oder ein Pedal getreten werden. So konnte Henrik Matzke schon vor vielen Jahren ohne Berührung oder Sprachbefehle mit 60 km/h über die Teststrecke in Berlin fahren.

Doch wie funktioniert die Technik genau?

Es handelt sich bei der Technologie nicht um Gedankenübertragung. Der Fahrer trägt eine Kappe mit Sensoren, wie sie auch bei einem EEG (Elektroenzephalogramm) eingesetzt wird. Aus den Hirnströmen können dann Muster abgeleitet werden. Der Bordcomputer ermittelt daraus den Befehl des Fahrers und übermittelt ihn an die Fahrzeugmechatronik, welche durch die Aktuatorik reagiert. Um das Fahrzeug zu manövrieren, braucht es im Wesentlichen nur die Befehle schneller, langsamer, rechts, links, wie etwa bei einem Computerspiel.

Brain to Vehicle – Autobauer experimentieren

Aktuell stattet Nissan einige Autos mit der „Brain to Vehicle Technologie“ aus. Das Assistenzsystem verspricht, laut Nissan, das weltweit erste System zur Echtzeiterkennung und -analyse von Gehirnaktivitäten im Zusammenspiel mit dem Autofahren zu sein. Die Idee dahinter ist, dass das System Vorhersagen treffen und das Fahrzeug folglich auf Gefahren und Manöver schneller reagieren kann als der Fahrer selbst. Die Reaktionszeit wird optimiert, um menschlich langsamen Versagen zuvorgekommen. Durch diese Technologie  verspricht man sich eine Verbesserung der Safety. Auch bei dieser “Brain to Vehicle Technologie” muss der Fahrer noch eine mit Sensoren ausgestattete Kappe tragen, welche relevanten Gehirnströme misst.

Gehirn-Computer-Schnittstelle – Fraunhofer IAO forscht

Auch das Fraunhofer IAO forscht und entwickelt an einer neuro-adaptiven Gehirn-Computer-Schnittstelle (BCI), die auf menschliche Emotionen reagiert. Hier klingt das Ganze aber noch etwas zurückhaltender. Aktuell könne das System noch nicht angemessen auf menschliche Emotionen reagieren. Es wird weiterhin an zuverlässig nutzbaren Methoden geforscht, um Emotionen aus den Hirnströmen der Nutzer zu erkennen und entsprechende Handlungen abzuleiten. Algorithmen suchen in der Gehirnaktivität von Probanden nach Mustern, die sie ans System weitergeben können. Daraus ist ein erstes Produkt – eine App – entstanden, die die jeweilige aktuelle Emotion live anzeigt. „Wir sind auf dem Gebiet technologisch schon sehr weit, wie die Beispiele zeigen. Auch beim automatisierten Fahren spielen nicht-physische Befehle eine große Rolle und bringen neue Entwicklungen für die Automobilbranche. An den Algorithmen wird aber noch geforscht und KI ist hier natürlich auch ein wichtiges Thema“, schätzt der Geschäftsführer von Magility, Dr. Michael Müller den aktuellen Stand der Technologie ein.

Die Zukunft des BCI – Wie filtert der Computer die richtigen Gedanken?

In wissenschaftlichen Experimenten und Studien funktionieren die Experimente im Zusammenhang mit automatisiertem Fahren bereits, allerdings unter kontrollierten Bedingungen. Was aber, wenn wir gestresst sind, die Unterstützung des Systems gar nicht brauchen oder das System unsere Gedanken falsch interpretiert? Würden wir uns beim Fahren freiwillig eine Sensorkappe aufsetzen, die permanent unsere Hirnströme misst? Sicher ist bereits, dass Computer wiederkehrende Gedankenmuster auswerten und in Fahrbefehle übersetzen können. In der Vision vom autonomen Fahren ist die Gehirnsteuerung ein Experiment, die durch das fahrerlose Fahrzeug aber ohnehin überflüssig wird. Denn dann übernimmt die Maschine das Steuer und der Mensch kann sich entspannt zurücklehnen.

 

Biometrische Authentifizierung - Was bringt das für die Automotive-Branche? Bild: CC0

Biometrische Authentifizierung – Wie bringen sie uns in der Automobilindustrie weiter?

Biometrische Authentifizierungsverfahren versprechen mehr Sicherheit als Zahlenkombinationen, PINs oder Passwörter. Anhand biologischer Merkmale können wir in Zukunft zweifelsfrei unsere persönlichen Daten schützen, Autos starten oder unsere Identität beweisen. Computer werden die Merkmale eindeutig und zuverlässig entschlüsseln können. Welche Vorteile entstehen durch die biometrische Authentifizierung für die Automobilindustrie und welche Risiken birgt die neue Technologie?

Was bedeutet Biometrie

Anhand von biologischen Charakteristika, wie Fingerabdruck, Augeniris oder Stimme können schon heute Benutzer identifiziert werden. Ein Scanner liest die biologischen Merkmale aus und wandelt sie in digitale Information um, so dass ein Computer sie entschlüsseln und verifizieren kann. Biometrie ist also die digitale Auswertung von biometrischen Merkmalen zur eindeutigen Identifizierung einer Person.

Was hat das mit Fahrzeugen zu tun?

Die biometrische Authentifizierung wird bereits an verschiedenen Stellen angewendet. Am Flughafen oder um Smartphones und Computer zu entsperren. Jedes Premium-Smartphone hat mittlerweile einen Fingerabdrucksensor, der es ermöglicht das Telefon anhand des Fingerabdrucks zu entsperren. Doch wo wird das Verfahren der biometrischen Authentifizierung noch angewendet?

Fahrzeug startet durch den Fingerabdruck

Vor einigen Jahren nutzte die Filmindustrie es noch als perfektes Science Fiction Szenario, durch Fingerabdrücke und Gesichtscans Türen zu öffnen, hinter denen geheime Treffen stattfanden. Die Anwendung ist weniger spektakulär, dafür aber höchst nützlich und naheliegend. Im Connected Car zum Beispiel, spielt die biometrische Authentifizierung eine stetig wachsende Rolle. Autos können mittels Irisscanner gestartet und der Carsharing-Wagen durch einen Fingerabdruckscan ausgeliehen werden. Biometrische Authentifizierung ersetzt an dieser Stelle den Schlüssel. Das kann im Alltag nützlich sein, da kein physischer Schlüssel mehr mitgenommen oder übergeben werden muss. Eine große Rolle werden die Verfahren aber vor Allem für Künstliche Intelligenzen spielen, wie die von Amazon, Apple oder Mercedes. Etwa dadurch, dass sie nur auf eine individuelle Stimme reagieren oder sich nur von ausgewählten Nutzern bedienen lassen. Momentan funktionieren die meisten Stimmerkennungs-Systeme, die auf dem Massenmarkt vertrieben werden, zwar schon recht gut, allerdings erkennen sie noch nicht wer spricht. Diese Tatsache ist eine beträchtliche Sicherheitslücke. Erst durch ein biometrisches Authentifizierungsverfahren können die Potenziale der digitalen Assistenten richtig genutzt werden.

Bequemes Verfahren aber heikel bezüglich des Datenschutz

Aktuell ist das Verfahren vor allem bequem. Unter dem Aspekt der Cyber Security, bei sicherheitskritischen Anwendungen, allerdings noch nicht zu empfehlen. Biometrische Daten gehören zu den personenbezogenen Daten. Die Erhebung und Speicherung muss also den strengen Datenschutzrichtlinien entsprechen.

Fazit: Die Technologie muss reifen

„Die Technologie wird sich vor allem durchsetzen, wenn sie sich durch bessere Sicherheit beweisen kann, als die bekannten Verfahren sie derzeit bieten“, kommentiert Dr. Michael Müller, Geschäftsführer der magility GmbH die biometrische Authentifizierung. Solange werden wir noch mit PINs, Passwörtern und Schlüsseln arbeiten. Das ist aber nur noch eine Frage der Zeit. Durch Firmen wie beispielsweise VocalZoom wird sich das schon bald ändern. Die HMC-Sensoren von VocalZoom ermöglichen die Verwendung von Sprache als Authentifizierungsfaktor für eine wachsende Palette von personalisierten Online- und mobilen Finanz-, Gesundheits-, Hausautomations- und anderen sicheren Cloud-basierten Diensten.

 

Neuromorphic Computing ist die nächste Generation der Künstlichen Intelligenz und bringt auch technologische Fortschritte in der Automotive-Industrie. Foto: CCO

Neuromorphic Computing – Neuronale Netze mit enormer Leistung

Die Zukunft der Künstlichen Intelligenz heißt Neuromorphic Computing. Dabei sind die Computer nach Vorbild des menschlichen Gehirns konstruiert, wobei die Funktionsweise von menschlichen Neuronen nachempfunden wird. Ziel der Neuromorphic Technologie ist es, Sinnesorgane nachzubilden oder zu simulieren, wie beispielsweise die Netzhaut des Auges, das Innenohr oder auch Teile des Gehirns. Langfristig sollen diese Computer Entscheidungen treffen oder sogar ins menschliche Nervensystem integriert werden können. Vor allem in der Industrie wird diese neue Technologie in Zukunft große Beachtung finden. Als autonome Roboter, im Bereich autonomem Fahren oder auch der Sensorik. Doch was bedeutet Neuromorphic Computing und was wird es uns in Zukunft bringen?

Die Zukunft heißt Neuromorphic Computing

Perspektivisch werden kognitive Computer entwickelt, die komplexe Daten analysieren können und anhand von erlerntem Wissen Vorhersagen treffen. Zentral dafür sind neuromorphe Chips, also Mikrochips, die nach Vorlage menschlicher Nervennetze gefertigt werden. Damit sollen diese Chips auch die Sensorik des Menschen abbilden. Unterstützt werden die Chips dafür mit spezifischer Hardware, die etwa Gerüche oder Geräusche aufnehmen kann. Die Chips unterscheiden sich von der gegenwärtigen Technik durch höhere Energieeffizienz und geringeren Platzbedarf.

Neuer Chip von Intel ist dem Gehirn nachempfunden

Neuromorphic Computing statt Deep Learning. Ein Beispiel dafür ist der Testchip Loihi von Intel. Insgesamt soll der Chip 130.000 Neuronen sowie 130 Millionen Synapsen haben. Dadurch ist Loihi leistungsfähiger als bisherige Modelle und kann stetig dazulernen. Laut Intel lässt sich der selbstlernende Chip in fast allen Bereichen anwenden. Im Bereich Automotive, in der Industrie, in autonomen Robotern, maschinellem Sehen oder maschinellem Hörverstehen. Entsprechende Algorithmen zur sparsamen Codierung, zur Wegfindung oder zum Wörterbuch lernen, haben Intel und andere Unternehmen in der Vergangenheit bereits umgesetzt. Der neue Chip wurde auf der CES 2018 in Las Vegas vorgestellt.

Gegenwärtige KIs

Aktuelle KIs wie Apple’s Siri oder Alexa senden Daten an ein Rechenzentrum, gleichen diese ab und bekommen eine Rückmeldung. Sie basieren auf Clouds, da die Rechenleistung der Elektronik gegenwärtig noch nicht ausreicht um die verarbeitungsintensiven Algorithmen auszuführen, die für maschinelles Lernen benötigt werden. Die typischen Prozessoren, die in den meisten Smartphones verbaut sind, könnten kein System wie Siri auf dem Gerät ausführen. Die Rechenleistung der Chips wird aber in den nächsten Jahren weiter steigen, bei weniger Energieverbrauch.

Forschungszentrum für Neuromorphic Computing in Baden-Württemberg

Eines der größten Forschungszentren für Neuromorphic Computing entsteht derzeit in Baden-Württemberg. In Heidelberg werden Millionen investiert um die Technologie und Forschung in den nächsten Jahren voranzutreiben. Ziel der Forschung ist der Aufbau eines großen neuromorphen Systems mit besonders ausgeprägten Lernfähigkeiten, die in interdisziplinärer Zusammenarbeit mit theoretischen Neurowissenschaftlern entwickelt werden.

Durch Neuromorphic Computing entstehen zahlreiche neue Geschäftsmodelle und Möglichkeiten von denen wir bisher nur träumen konnten. Wir von Magility, als ihr Partner für neue digitale Geschäftsmodelle, beraten Sie gerne.

CES Las Vegas – Volocopter, MBUX und Künstliche Intelligenz

Die Consumer Electronics Show (CES) in Las Vegas zeigte letzte Woche die aktuellen Tech-Trends, auch für Mobilität und Automotive. Vieles was vor wenigen Jahren noch als Science Fiction abgetan wurde ist auf der CES 2018 real geworden. Magility war vor Ort, um sich über die neusten Trends, Visionen und Start-ups zu informieren.

Fliegende Taxis bei der CES

Mobilität der Zukunft ist eines der heißen Themen der CES 2018. Das fahrerlose Elektroauto ist natürlich ein Dauerbrenner. Aber in diesem Jahr wurde auch die fliegende Variante in Las Vegas vorgestellt. Zu den Stars der Messe zählt das badische Start-up Volocopter. Das Unternehmen baut ein fliegendes E-Taxi made in Karlsruhe. „Der Raum in den Städten wird immer knapper, in Zukunft wird daher auch der Luftraum mehr genutzt werden. Volocopter ist ein zukunftsweisendes Start-up in Sachen E-Mobility“, unterstreicht Dr. Michael Müller, Geschäftsführer der magility GmbH die Innovationskraft des badischen Unternehmens.

Weltpremiere für Mercedes-Benz User Experience

Daimler feiert Weltpremiere auf der CES und stellt sein neues Multimediasystem MBUX (Mercedes-Benz User Experience) vor. Das intuitive und lernfähige Betriebssystem geht ab 2018 in der A-Klasse in Serie.

Besonders ist hierbei die Lernfähigkeit dank künstlicher Intelligenz. MBUX ist individualisierbar und stellt sich auf den Nutzer ein. Es schafft so eine emotionale Verbindung zwischen Fahrzeug, Fahrer und Passagieren. Zugleich sind Updates „over the air“ möglich. Außerdem läutet es eine neue Ära bei der Mercedes me Connectivity ein. Die Navigationsdarstellung mit Augmented-Reality-Technologie sowie die intelligente Sprachsteuerung mit natürlichem Sprachverstehen sind weitere Neuheiten. Statt „hey Alexa“ fühlt sich das System mit „hey Mercedes“ angesprochen.

Künstliche Intelligenz und UX

Schaut man sich die Automobilhersteller insgesamt an, zeigt sich, dass in Zukunft viel getouched, geswiped und kommuniziert wird. Große Displays im Auto (siehe MBUX) lassen sich wie Smartphones bedienen und sprechen vor allem eine junge Zielgruppe an, die ans touchen und swipen längst gewöhnt ist. Künstliche Intelligenzen wie Amazons Alexa verbreiten sich stetig und eröffnen eine riesigen Markt für Anwendungen, die das Leben smarter und einfacher machen.

Brain Machine Inferfaces (BMI´s)

Auch Gehirn-Computer Schnittstellen (BMI´s)  erhielten auf der CES Einzug in die Welt des autonomen Fahrens. Nissan stellte auf der Messe ein ins Fahrzeug integriertes  brain-to-vehicle Interface vor. Das Interface erkennt durch einen Helm der drahtlos mit dem Fahrzeug verbunden ist Gehirnaktivitäten, die im Zusammenhang mit der Bewegungsaktivität des Fahrers stehen. Diese werden simultan an das Fahrzeug übertragen. Das Fahrzeug übersetzt und nutzt die Signale um das Fahrverhalten an die Erwartungen des Fahrzeughalters anzupassen, bevor dieser körperlich in Aktion tritt. Hierdurch wird personalisiertes autonomes Fahren möglich und das Fahrerlebnis noch smarter. Der Helm wird von der Startup Firma Bitbrain aus Spanien überwiegend von Neurologen weiterentwickelt.

Smart Future

Bei der CES in Las Vegas wurde die ganze Bandbreite an neuen Technologien vorgestellt. Smartphones, Smartwatch, Smart Home – das Angebot ist unermesslich und so verliert man sich schon mal in der Masse. „Für mich ist es immer wieder spannend zu sehen, wo wir gerade stehen und wo der Weg hinführt. Im Zuge der digitalen Transformation brauchen wir natürlich immer einen Überblick über Technologien und Visionen“, fasst Müller die CES zusammen. Und so hat sich der Weg nach Las Vegas auch in diesem Jahr gelohnt.