Beiträge

Virtual und Augmented Reality in der Automobilindustrie_magility

Virtual Reality – zunehmende Bedrohung aus der Cloud?

Spätestens seit der Einführung der Eisenbahn im 19. Jahrhundert gibt es Skepsis beim Aufkommen technischer Neuerungen. So klar die Vorteile innovativer Technologien meist auf der Hand liegen, so groß sind auch teilweise die Befürchtungen, die mit der Verbreitung von Neuem und Unbekanntem einhergehen. Auch die aktuellen Entwicklungen im Bereich Virtual- und Augmented Reality sind davon nicht ausgenommen.

 

Augmented Reality vs. Virtual Reality

 

Mit dem Begriff Augmented Reality (AR) wird eine durch Computer erweiterte Realität beschrieben. Die Kamera eines Computer zeichnet die Realität auf, analysiert sie in Echtzeit, reichert sie mit zusätzlichen Daten an und gibt diese erweiterte Realität auf einem Display wieder. Dieses Prinzip ist bereits bekannt durch die Spiele-App Pokémon Go. Im Gegensatz zur AR wird die Virtual Reality (VR) komplett im Computer erschaffen. Will ein Nutzer daran teilhaben, so muss er sich über ein elektronisches Gerät, beispielsweise eine VR Brille oder einen Computer, in die virtuelle Realität einwählen.

 

Die virtuelle Welt Second Life ist eine der ersten Anwendungen von VR. Aber auch manche Videospiele wie World of Warcraft oder Grand Theft Auto erreichen inzwischen mit großem wirtschaftlichen Erfolg eine programmierte Komplexität, die der Realität nahe kommt. Anwendungen, die AR und VR vermischen werden auch Mixed Reality genannt.

 

Gefahren bei digitalen Realitäten

 

Nicht umsonst widmete sich die Mainzer Kunsthalle mit einer großen Ausstellung im Jahr 2018 diesem Thema und überschrieb die Schau mit einem vielsagenden Titel: Virtual Insanity.

Je mehr der virtuelle Raum sich an die echte Realität anpasst, wenn die Geschehnisse der Realität mehr und mehr in die virtuelle Realität übertragen werden, dann wandern auch die bekannten Probleme des Alltags in den Cyberspace: Mobbing, Belästigung, Stalking und die Auslebung anderer illegaler und unmoralischer Handlungen.

 

Wenn es zudem möglich wird, im digitalen Raum mit dem eigenen Avatar rechtsverbindliche Geschäfte abzuschließen, dieser Avatar dann gehackt oder kopiert wird, dann ergibt sich eine Vielzahl an Möglichkeiten für illegale Aktivitäten. Auch Geldwäsche ist ein Thema das sich in diesem Kontext zunehmend etabliert und in den Fokus von Behörden gerät.

 

Virtual Reality in der Automobilindustrie

 

In den Entwicklungsabteilungen der Automobilindustrie gehört die Anwendung von VR in einigen Bereichen bereits zum Standard. In einem VR-Studio lassen sich Bauteile digital dreidimensional betrachten und vor der eigentlichen Produktion testweise zusammensetzen. Diese Räume werden CAVE genannt (Cave Automatic Virtual Environment) und erlauben einen realitätsnahen Blick auf virtuelle Bauteile. Auch die Kunden profitieren von dieser Entwicklung. So bietet etwa Audi einen dreidimensionalen Konfigurator an, durch den sich ein individualisiertes Wunschfahrzeug schon vor der eigentlichen Produktion anschauen und bewundern lässt.  

 

Bald schon könnten Geräte ähnlich dem Google Glass in unterschiedlichsten Berufsanwendungen zum Standard gehören. Dabei trägt ein Polizist, Arzt oder ein Teilnehmer eines Meetings in einem Büro eine Brille, die ihm zusätzliche Informationen direkt in sein Sichtfeld einblendet. Dadurch können komplizierte Situationen vereinfacht, beschleunigt und effizienter gestaltet werden.

 

Virtual Reality auch bei der Verteidigung im EInsatz

 

Auch im militärischen Bereich sind Virtual Reality und Augmented Reality bereits bei modernen Armeen und Luftwaffen im Einsatz. Weitere potenzielle Anwendungsmöglichkeiten sind zahlreich, sie reichen über Zusatzinformationen im Einzelhandel bis hin zum virtuellen Einbau von Möbeln in das eigenen Zuhause. Grundsätzlich sind der Fantasie hier keine Grenzen gesetzt. Die dahinterstehenden erfolgreichen Geschäftsmodelle bestätigen die positive Entwicklung der Technologie.

 

Steigendes Marktvolumen für Virtual Reality Anwendungen

 

Die M&A Beratung Hampleton Partners erwartet für den globalen Markt von VR-Anwendungen für das Jahr 2022 ein Volumen von 17,8 Mrd. $.  Zum Vergleich: 2016 betrug die Marktgröße noch 2 Mrd. $. Nach einem Marktvolumen von 4 Mrd. $ im Jahr 2016, wird für den AR-Markt bereits im Jahr 2020 ein Anwachsen auf 161 Mrd. $ erwartet. Hohe Prognosen, die in aller Klarheit verdeutlichen, wohin die Reise geht.

 

Google und Microsoft sind von Anfang an und bis heute Treiber dieser Entwicklung. Auch zahlreiche Start-Ups wie Magic Leap und Vuforia aus den USA oder INDE aus Großbritannien mischen mit. Analysten nehmen an, dass europäische Unternehmen sogar bis 2020 die Marktführerschaft im Bereich Virtual Reality übernehmen werden. Von einem Anwachsen des Produktionswertes um 13-34 Mrd. € ist die Rede und bis zu 480.000 Arbeitsplätze könnten auf dem europäischen Kontinent dafür geschaffen werden. Die Einführung schnellerer mobiler Internetverbindungen wie 5G werden diesen Trend zudem noch beschleunigen.

 

Erweiterte Angriffsfläche für digitale Hacker

 

Bei zunehmender Digitalisierung des Straßenverkehrs ist das größte Risiko ein digitaler Hackerangriff. Jedoch verringert sich auch das Risiko von menschlichem Fehlverhalten stark durch die Unterstützung von digitaler Technik. Wird dieses System allerdings von Kriminellen, Terroristen und anderen Akteuren mit kriminellen Absichten beeinflusst, können durch Störsignale und digitale Falschinformationen schlimme Unfälle oder sogar der Zusammenbruch des Automobilverkehrs die Folge sein. Dabei müssen nicht einmal einzelne Fahrzeuge attackiert werden, ein einzelner Angriff über die Cloud kann genügen um ganze Flotten lahmzulegen.

 

Auch Virtual Reality Anwendungen müssen ganzheitlich und von Anfang an digital sicher (cyber secure) gedacht werden und die Security muss im gesamten End-to-End System integriert sein. Zunehmende Vernetzung ermöglicht weitere Einfallstore für Hacker Angriffe und böswillige Manipulationen. Mit jeder technologischen Entwicklung wächst diese Herausforderung beträchtlich weiter an. Magility berät Sie gerne bei der Umsetzung Ihrer individuellen Lösungen zum sicheren Einsatz virtueller Realitäten in Ihrem Geschäft.

 

Allseits sichere Fahrt in die Zukunft wünscht Ihnen das Team von Magility!

Die Technik lernt aus der Natur - neuronale Netze Bild: CC0

Neuronale Netze – Die Technik lernt aus der Natur

Der Begriff Bionik setzt sich zusammen aus den Begriffen Biologie und Technik. Bionik beschreibt das Lernen und die Nachahmung von natürlichen Vorgängen durch die Technik. Forscher schauen sich bewährte Methoden aus der Natur ab und nutzen diese für innovative Techniken. Nicht nur stoffliches Wissen und dessen Übertragung in die Technik ist Gegenstand der Bionik, auch Funktionsweisen und dahinterliegende Grundprinzipien finden sich in bionischen Anwendungen wieder.

Beispiele aus der Bionik, die wir im Alltag benutzen, gibt es etliche und sie erstrecken sich über Anwendungsbereiche wie Konstruktionstechnik, Oberflächen, Robotik, Fortbewegungsmöglichkeiten, Optimierungsverfahren, Materialien sowie Sensorik und Kommunikation.

Das menschliche Gehirn als Vorbild

Neuronale Netzwerke bestimmen unser menschliches Gehirn. Sie beinhalten eine riesige Anzahl an Nervenzellen (Neuronen), die sich im Verlauf der Gehirnentwicklung immer weiter vermehren und sich untereinander vernetzen. Dadurch entstehen intelligente Verbindungen, sogenannte neuronale Netzwerke. Die Funktionsweise der Vernetzung von Neuronen wird bei künstlichen neuronalen Netzen auf mathematische Rechenmodelle übertragen und die biologischen Netze dabei als informationsverarbeitende Systeme nachgeahmt.

Sowohl für natürliche als auch für künstliche neuronale Netze treffen ähnliche typischen Eigenschaften zu. Beide können komplexe Muster erlernen, ohne die dafür zugrunde liegenden Regeln und Gesetze zu kennen. Sie folgen in ihrer Funktionsweise einer Intelligenz, die keiner verifizierbaren Logik folgt. Der Nachteil ist, dass aus neuronalen Netzen auch im Nachhinein keine Logik identifiziert werden kann, die einen Lernerfolg erklären könnte. Erst nach jahrelangem Training sind neuronale Netzwerke fähig, logische und klare Regeln zu erlernen und anzuwenden. Sie lernen implizit – quasi learning by doing.

Künstliche Neuronale Netze

Künstliche neuronale Netze sind mathematische Strukturen, die den biologischen neuronalen Netzwerken ähneln. Sie bestehen aus sogenannten Modellneuronen und Kopplungsstellen, auch Synapsen genannt. Diese beiden Einheiten stehen miteinander in Wechselwirkung. Die Bestimmung der Synapsenstärke läuft über einen numerischen Wert. Dieser Wert stellt das Verbindungsgewicht dar. Im Bereich von Optimierungsverfahren werden heutzutage bereits künstliche neuronale Netze eingesetzt.

Künstliche Neuronale Netze in der Praxis

Heutzutage werden intelligente neuronale Netze beispielsweise beim Betrieb von Maschinen eingesetzt. Diese Maschinen übertragen Daten im Bedarfsfall selbständig an weitere vorher definierte Stellen. Sie können frühzeitige Verschleiß-Aktivitäten erkennen und helfen so, einem potenziellen Ausfall der Maschine vorzubeugen.

Auch in Fahrzeugen werden künstliche neuronale Netze eingesetzt. Autonomes Fahren kann nur durch künstliche Intelligenz (KI) sicher umgesetzt werden. Das Auto lernt über einen Szenarienkatalog zu manövrieren. Es lernt, was es bei der Fahrt als Hindernis einzuordnen hat und orientiert sich dabei über eingebaute Sensoren. Bilderkennungsverfahren ermöglichen den Transfer vom “Gesichteten” zur Verarbeitung im künstlichen neuronalen Netz des Fahrzeugs. Das gesichtete Hindernis wird abstrahiert und rechnerisch verbildlicht, dadurch kann das Fahrzeug die Gefahr anhand bereits erlernter Szenarien abschätzen und entsprechend manövrieren.

Cybersicherheit von Bionik Anwendungen

Künstliche neuronale Netze funktionieren gut, wenn man sie in Ruhe lässt. Was aber geschieht, wenn Angreifer sie von außen manipulieren oder mit krimineller Absicht lahmlegen?

Sowohl im Bereich des autonomen Fahrens als auch in der Medizintechnik ist Security eine elementare Schlüsselfunktion für die Zukunftschancen der eingesetzten innovativen Technologien. Automobilhersteller und -zulieferer haben die Dringlichkeit bereits erkannt und Cyber-Security Unternehmen an Bord geholt. Es braucht in der breiten Öffentlichkeit wohl aber noch weitere kriminelle Hacker-Angriffe um Automotive Cyber-Security generell als Schlüsselfunktion bei der Anwendung innovativer vernetzter technologischer Lösungen anzuerkennen. Eine Security Lösung sollte immer ganzheitlich für den kompletten Lebenszyklus gedacht und im Idealfall von Anfang an, also schon im Produktentwicklungsprozess, integriert werden. Technische Innovationen gibt es heute nur noch durch intelligente Vernetzung, Informationsfluss und Datentransfer. Sobald ein Produkt im Internet of Things vernetzt ist, ist es auch anfällig für Cyber-Angriffe. Vernetzte Produkte sollten daher immer mit Cyber Security “gedacht” werden.

Interessieren Sie sich für den technischen Fortschritt und die Entwicklung von KI, insbesondere im Bereich von Mobility-Themen, kontaktieren Sie unsere Experten. Wir von Magility beraten Sie gerne zum Thema Cyber Security und zeigen Ihnen, wie Sie Sicherheit zum entscheidenden Wettbewerbsvorteil machen.

 

Brain-Computer-Interfaces, KI und Androiden

Brain-Computer-Interfaces – Behalten wir die Oberhand?

Die Art und Weise wie der Nutzer in Zukunft mit Computern kommunizieren wird, steht vor einem großen Umbruch. Nach Tastaturen, Mäusen, Touchscreens, Gesten- und Stimmerkennung, setzt die Avantgarde der Computer Forschung auf sogenannte Brain-Computer-Interfaces (BCI’s). Die neuartigen Schnittstellen sollen es dem Nutzer erlauben, komplexer werdende Anwendungen direkt mit der Kraft der Gedanken zu steuern. Hintergrund der Entwicklung ist die Erfindung immer leistungsfähigerer künstlicher Intelligenzen (KI).

Was sind Brain-Computer-Interfaces?

Brain-Computer-Interfaces (BCI’s) sind Schnittstellen zwischen Gehirn und Computer. Die Gedankenkraft wird dabei übersetzt in digitale Eingabebefehle. Die Messung der Hirnströme kann auf zwei Arten stattfinden: nichtinvasiv und invasiv. Bei der ersten Methode wird über Elektroden die Hirnaktivität auf der Kopfhaut gemessen. Ein Nachteil liegt dabei in der Ungenauigkeit der Messergebnisse. Bei der zweiten, der invasiven Methode, wird mit einer kleinen Elektrode direkt im Gehirn gemessen. Diese Methode ermöglicht weitaus präzisere Messungen unserer Hirnaktivität und Elon Musk scheut nicht davor zurück, einen minimalinvasiven Eingriff zu präferieren. Das von ihm erst 2016 mitbegründete Unternehmen Neuralink will hierzu schon bald ein revolutionäres Produkt vorstellen.

Cyborg oder Android – Welches Konzept gewinnt die Zukunft?

Unter einem Cyborg versteht man einen Menschen, der durch technologische Erweiterungen seine Möglichkeiten erhöht. Bereits heute gibt es Prothesen oder Hör- und Sehhilfen, die erste Schritte in diese Richtung beweisen. Es muss dabei aber nicht lediglich darum gehen, körperlich eingeschränkten Personen Hilfe zu verschaffen. Die technologische Entwicklung wird auch dazu genutzt werden einen unbeeinträchtigten Menschen zu verbessern. Ein Exoskelett lässt einen Querschnittsgelähmten wieder gehen oder verleiht einem ‚Gesunden‘ übermenschliche Kraft und Ausdauer. Auch die Verwendung eines Implantats, das ein Gehirn mit einem Computer kommunizieren lässt, macht einen Menschen zu einem Cyborg. Unter einem Androiden hingegen versteht man eine möglichst menschenähnliche Maschine, wie etwa der aus dem Film Terminator bekannte Roboter und die Figur Data aus der Serie Star Trek. Wirft man einen Blick auf die Roboter des Unternehmens Boston Dynamics, wird leicht erkennbar wie nah sich Science-Fiction und aktuelle Realität bereits sind.

Menschmaschine vs. Maschinenmensch

Zwei Entwicklungen stehen sich gegenüber: die technologische Erweiterung des Biomenschen auf der einen Seite, und die Vermenschlichung von Robotern. Welcher Entwicklungsstrang die Bedeutungshoheit in Zukunft erlangen wird, kann noch nicht vorhergesehen werden. Aber Pioniere dieser Entwicklung, wie etwa Elon Musk, sehen die Herausforderung darin, dass künstliche Intelligenzen zukünftig die Intelligenz der Menschheit überragen werden. Damit aus dieser Entwicklung keine substanzielle Gefahr für unsere Spezies entsteht, empfiehlt Musk die Verbindung von menschlichem Gehirn und Künstlicher Intelligenz. Nur wenn wir mit der technologischen Entwicklung integrativ mit wachsen und selbst den digitalen Raum betreten, können wir dieser Ansicht nach künftige KIs unter Kontrolle halten.

Sind wir in Gefahr?

Was würde passieren wenn BCIs oder die Server auf denen die Interaktionen stattfinden Ziel eines Cyber-Angriffs und gehackt werden? Nicht nur von Menschen erstellte Informationen könnten zum Vorteil des Angreifers entwendet werden, im schlimmsten Fall würde eine digitalisierte Seele komplett gelöscht oder so verändert, dass ihre ursprüngliche Identität verloren ginge. Viele Fragen bleiben hier noch unbeantwortet. Wenn es etwa einem Bürger, welcher interaktiv mit einem BMI vernetzt ist, immer noch erlaubt wäre im Demokratieprozess zu wählen, wie stellt man dann sicher, dass seine Stimme nicht durch Hackerangriffe manipuliert wurde und wie bewertet man diese Stimme? Bei allen technologischen Herausforderungen werden die damit verbundenen ethischen Fragen und deren soziale Umsetzung uns noch lange mindestens genauso beschäftigen.

Was bedeutet das für die Mobilität der Zukunft?

Die oben angeführten Entwicklungen werden vielfältige Einflüsse auf unser Verständnis von Mobilität ausüben. Durch weiterentwickelte Brain-Computer-Interfaces könnten wir uns in einen Androiden einklinken und ihn steuern, als wäre er unser eigener Körper. Statt tatsächlich physisch an einen weit entfernten Ort zu reisen, könnten wir so z.B. die Steuerung eines Arbeitsroboters von unserem momentanen Standort aus übernehmen und Aufgaben an jedem Ort der Welt erledigen lassen.

Sind Sie am technologischen Fortschritt interessiert und möchten ihr Unternehmen daran profitieren lassen? Wir beraten Sie gerne, wie Sie neue Technologien sicher für sich nutzen.  Nehmen Sie Kontakt zu einem unserer Berater auf und wir gestalten gemeinsam mit Ihnen eine “cyber-sichere” und gleichzeitig innovative Zukunft.

Israels Startup Ecosystem – Innovationsschmiede für die Welt

Die Startup Szene ist Israel ist im weltweiten Vergleich einmalig, die pulsierende Stadt Tel Aviv ist deren Mittelpunkt. Was macht die dortige Startup Kultur so besonders?

Es geht den Firmengründern dort hauptsächlich um das Ausprobieren von Ideen und um das kreative Lösen von zukünftigen gesellschaftlichen Herausforderungen. Es geht vorrangig nicht um den Aufbau großer Konzerne, sondern um das Gründen von innovativen Unternehmungen und das Umsetzen einer Vision. Das macht Tel Aviv heute zu einer attraktiven dynamischen Gründer-Metropole mit frischem Wind für innovative Gedanken und Vorhaben, voll von kreativen Persönlichkeiten und deren ‘pushy’ Unternehmertum.

Höchste Startup Dichte weltweit

Nirgendwo anders auf der Welt gibt es ein derartig florierendes Ecosystem für innovative Neugründungen. In Israel werden jährlich etwa 1400 neue Startups gegründet. Zwar scheitern etwa 80 Prozent davon, es bleibt aber immer noch eine beträchtliche erfolgreicher Startups bestehen von denen einige zu größeren Unternehmen heranwachsen. Viele der dort gegründeten Startup-Erfolgsunternehmen konnten in der Vergangenheit hohe Verkaufspreise durch Exits an ausländische Technologieunternehmen verzeichnen.

Wem Tel Aviv bisher noch nicht als Innovationsmotor der Startup Szene bekannt war, der muss sich spätestens jetzt mit der pulsierenden Mittelmeerstadt auseinandersetzen.

Rahmenbedingungen für den Erfolg

Warum gerade Israel? Welche Rahmenbedingungen begünstigen die zahlreichen Gründungen?

Fragt man Startup-Gründer aus Israel, erhält man häufig die Antwort, dass Israel selbst erst ein junger Staat sei und man als Israeli daher von Anbeginn an das Gründen an sich aktiv lernt. Außerdem müssten die Menschen dort stetig improvisieren, was auch der Natur des Gründens entspricht. Saul Singer, Buchautor des Werkes “Start-Up Nation Israel” fasst zusammen:

Wir sind ein kleines Land. Wir haben keine natürlichen Ressourcen. Und wir leben inmitten in einer uns feindlich gesinnten Nachbarschaft. Damit mussten wir immer klarkommen. Wir mussten diese Herausforderungen stets bewältigen – auch mit Innovationen. Lange Jahre ging es dabei vor allem um unsere Verteidigung. Erst später wurden wir zur Start-Up-Nation. Es ist ganz einfach: Wir mussten erfinderisch sein, um zu überleben.“

Lösungsorientierter Erfindergeist, das ist es, was Israel bis heute ausmacht. Der große Traum vieler junger Israelis ist es heute, ein eigenes Unternehmen zu gründen.

Die Welt verändernde Technologien kommen aus Israel

Singer fasst zusammen, dass Israel in seiner gesamten Geschichte, seit Gründung des Staates bis heute nur von drei Generationen geprägt wurde. Die erste Gründergeneration des Staates Israel machte die Natur bewohnbar und gründete Kibbuze. Die zweite Generation kämpfte in mehreren Kriegen gegen die arabischen Nachbarländer und die jetzige Generation führt das Land durch den Innovationsmotor der Startups. Diese Innovationen sind jedoch nicht nur für Israel wichtig, sie könnten sogar die ganze Welt verändern. Der USB Stick stammt aus Tel Aviv, genauso wie die neueste Gesichtserkennungssoftware von Apple und auch die Sicherheitssysteme gegen Cyberangriffe bei vernetzten Autos, die heute auf den Straßen rollen.

Wichtige Technologien entwickeln und sie weltweit einsetzbar machen – das ist die Vision vieler israelischer Startups. Visionär sind diese Unternehmen und deren Bescheidenheit zählt zur Erfolgsformel. Und damit sind sie wirklich sehr erfolgreich.

Markteintritt und Vertrieb entscheidende Kompetenz

magility begleitete bereits Startups aus Israel beim Wachstum der eigenen Firma. Den Markteintritt schaffen und sich erfolgreich im europäischen Markt positionieren – das steht im Mittelpunkt der Arbeit von magility für israelische Technologie Startups. Zwar bringt Israel sehr viele Startups hervor, die Märkte für die dort entwickelten Produkte liegen jedoch ausschließlich außerhalb des Landes. Daher waren die USA und die EU, im Schwerpunkt Deutschland die größten Zielmärkte.

Europäische Unternehmen erkennen Chancen

Immer mehr deutsche und europäische Unternehmen erkennen die Chancen und Möglichkeiten durch die Zusammenarbeit mit israelischen Startups. Deutschland wird mehr und mehr Absatzmarkt und Zielmarkt für Firmenverkäufe. Doch sowohl Europa als auch die USA sind geografisch weit entfernt und unterscheiden sich auch im kulturellen Geschäftsgebaren von Israel. Deswegen brauchen israelische Startups sogenannte ‘Mittler’. Mittler kennen den Zielmarkt und haben gute Kontakte zu relevanten Entscheidungsträgern.

magility begleitete bereits israelische Startups aus dem Automotive Bereich, dem Maschinenbau sowie im Anwendungsfeld von Künstlicher Intelligenz. Internationaler Footprint, Agilität im Handeln und konsequente Markterschließung sind heute mehr denn je die Schlüsselerfolgsfaktoren für Startup Unternehmen. Durch die fortwährende Begleitung und Beratung der Startups durch magility konnten einige davon bereits hohe Verkaufspreise bei europäischen Konzernen erzielen und sich als wichtige Marktteilnehmer in den europäischen Zielmärkten etablieren.

Kontaktieren Sie uns gerne für weitere Informationen bezüglich der Begleitung von Startups und B2B Markterschließung – gerne auch außerhalb von Israel!

 

Brain to Vehicle - Steuern mit Gedanken. Foto: Unsplash

Brain to Vehicle Technologie – Der Fahrer denkt, das Auto lenkt

Fahrerassistenzsysteme stehen aktuell hoch im Kurs. Länger schon existiert die Idee, Fahrzeuge per Gedanken zu steuern. Bei der Brain-to-Vehicle Technologie lässt sich das Fahrzeug durch das Gehirn des Fahrers steuern, statt physische Befehle zu erteilen. Es handelt sich dabei durchaus nicht um Zauberei sondern um angewandte Wissenschaft. Doch wie funktioniert die Gedankensteuerung und was bedeutet diese neue Technologie für das autonome Fahren?

Brain Driver – Steuerung via Gehirn

Bereits 2011 war der Wissenschaftler Henrik Matzke in den Schlagzeilen. Auf dem Tempelhofer Feld in Berlin wurde vorgeführt, wie er ein Auto steuert, ohne die Hände am Lenkrad oder die Füße am Pedal zu haben. „Projekt Brain Driver“ hieß das wissenschaftliche Projekt von Autonomos, mittlerweile ein Tochterunternehmen von Tomtom, dem Hersteller von Navigationsgeräten. Schon damals konnte bewiesen werden, dass ein Fahrzeug auch ohne aktiv lenkenden Fahrer navigiert werden kann. Möglich wird dies durch die Messung der Hirnströme sowie Radar- und Lasersensoren, die die Umgebung erfassen. Über das menschliche Gehirn, sozusagen einem ‘Human Computer’ im Auto, kann das Fahrzeug elektronisch gelenkt oder ein Pedal getreten werden. So konnte Henrik Matzke schon vor vielen Jahren ohne Berührung oder Sprachbefehle mit 60 km/h über die Teststrecke in Berlin fahren.

Doch wie funktioniert die Technik genau?

Es handelt sich bei der Technologie nicht um Gedankenübertragung. Der Fahrer trägt eine Kappe mit Sensoren, wie sie auch bei einem EEG (Elektroenzephalogramm) eingesetzt wird. Aus den Hirnströmen können dann Muster abgeleitet werden. Der Bordcomputer ermittelt daraus den Befehl des Fahrers und übermittelt ihn an die Fahrzeugmechatronik, welche durch die Aktuatorik reagiert. Um das Fahrzeug zu manövrieren, braucht es im Wesentlichen nur die Befehle schneller, langsamer, rechts, links, wie etwa bei einem Computerspiel.

Brain to Vehicle – Autobauer experimentieren

Aktuell stattet Nissan einige Autos mit der „Brain to Vehicle Technologie“ aus. Das Assistenzsystem verspricht, laut Nissan, das weltweit erste System zur Echtzeiterkennung und -analyse von Gehirnaktivitäten im Zusammenspiel mit dem Autofahren zu sein. Die Idee dahinter ist, dass das System Vorhersagen treffen und das Fahrzeug folglich auf Gefahren und Manöver schneller reagieren kann als der Fahrer selbst. Die Reaktionszeit wird optimiert, um menschlich langsamen Versagen zuvorgekommen. Durch diese Technologie  verspricht man sich eine Verbesserung der Safety. Auch bei dieser “Brain to Vehicle Technologie” muss der Fahrer noch eine mit Sensoren ausgestattete Kappe tragen, welche relevanten Gehirnströme misst.

Gehirn-Computer-Schnittstelle – Fraunhofer IAO forscht

Auch das Fraunhofer IAO forscht und entwickelt an einer neuro-adaptiven Gehirn-Computer-Schnittstelle (BCI), die auf menschliche Emotionen reagiert. Hier klingt das Ganze aber noch etwas zurückhaltender. Aktuell könne das System noch nicht angemessen auf menschliche Emotionen reagieren. Es wird weiterhin an zuverlässig nutzbaren Methoden geforscht, um Emotionen aus den Hirnströmen der Nutzer zu erkennen und entsprechende Handlungen abzuleiten. Algorithmen suchen in der Gehirnaktivität von Probanden nach Mustern, die sie ans System weitergeben können. Daraus ist ein erstes Produkt – eine App – entstanden, die die jeweilige aktuelle Emotion live anzeigt. „Wir sind auf dem Gebiet technologisch schon sehr weit, wie die Beispiele zeigen. Auch beim automatisierten Fahren spielen nicht-physische Befehle eine große Rolle und bringen neue Entwicklungen für die Automobilbranche. An den Algorithmen wird aber noch geforscht und KI ist hier natürlich auch ein wichtiges Thema“, schätzt der Geschäftsführer von Magility, Dr. Michael Müller den aktuellen Stand der Technologie ein.

Die Zukunft des BCI – Wie filtert der Computer die richtigen Gedanken?

In wissenschaftlichen Experimenten und Studien funktionieren die Experimente im Zusammenhang mit automatisiertem Fahren bereits, allerdings unter kontrollierten Bedingungen. Was aber, wenn wir gestresst sind, die Unterstützung des Systems gar nicht brauchen oder das System unsere Gedanken falsch interpretiert? Würden wir uns beim Fahren freiwillig eine Sensorkappe aufsetzen, die permanent unsere Hirnströme misst? Sicher ist bereits, dass Computer wiederkehrende Gedankenmuster auswerten und in Fahrbefehle übersetzen können. In der Vision vom autonomen Fahren ist die Gehirnsteuerung ein Experiment, die durch das fahrerlose Fahrzeug aber ohnehin überflüssig wird. Denn dann übernimmt die Maschine das Steuer und der Mensch kann sich entspannt zurücklehnen.

 

Biometrische Authentifizierung - Was bringt das für die Automotive-Branche? Bild: CC0

Biometrische Authentifizierung – Wie bringen sie uns in der Automobilindustrie weiter?

Biometrische Authentifizierungsverfahren versprechen mehr Sicherheit als Zahlenkombinationen, PINs oder Passwörter. Anhand biologischer Merkmale können wir in Zukunft zweifelsfrei unsere persönlichen Daten schützen, Autos starten oder unsere Identität beweisen. Computer werden die Merkmale eindeutig und zuverlässig entschlüsseln können. Welche Vorteile entstehen durch die biometrische Authentifizierung für die Automobilindustrie und welche Risiken birgt die neue Technologie?

Was bedeutet Biometrie

Anhand von biologischen Charakteristika, wie Fingerabdruck, Augeniris oder Stimme können schon heute Benutzer identifiziert werden. Ein Scanner liest die biologischen Merkmale aus und wandelt sie in digitale Information um, so dass ein Computer sie entschlüsseln und verifizieren kann. Biometrie ist also die digitale Auswertung von biometrischen Merkmalen zur eindeutigen Identifizierung einer Person.

Was hat das mit Fahrzeugen zu tun?

Die biometrische Authentifizierung wird bereits an verschiedenen Stellen angewendet. Am Flughafen oder um Smartphones und Computer zu entsperren. Jedes Premium-Smartphone hat mittlerweile einen Fingerabdrucksensor, der es ermöglicht das Telefon anhand des Fingerabdrucks zu entsperren. Doch wo wird das Verfahren der biometrischen Authentifizierung noch angewendet?

Fahrzeug startet durch den Fingerabdruck

Vor einigen Jahren nutzte die Filmindustrie es noch als perfektes Science Fiction Szenario, durch Fingerabdrücke und Gesichtscans Türen zu öffnen, hinter denen geheime Treffen stattfanden. Die Anwendung ist weniger spektakulär, dafür aber höchst nützlich und naheliegend. Im Connected Car zum Beispiel, spielt die biometrische Authentifizierung eine stetig wachsende Rolle. Autos können mittels Irisscanner gestartet und der Carsharing-Wagen durch einen Fingerabdruckscan ausgeliehen werden. Biometrische Authentifizierung ersetzt an dieser Stelle den Schlüssel. Das kann im Alltag nützlich sein, da kein physischer Schlüssel mehr mitgenommen oder übergeben werden muss. Eine große Rolle werden die Verfahren aber vor Allem für Künstliche Intelligenzen spielen, wie die von Amazon, Apple oder Mercedes. Etwa dadurch, dass sie nur auf eine individuelle Stimme reagieren oder sich nur von ausgewählten Nutzern bedienen lassen. Momentan funktionieren die meisten Stimmerkennungs-Systeme, die auf dem Massenmarkt vertrieben werden, zwar schon recht gut, allerdings erkennen sie noch nicht wer spricht. Diese Tatsache ist eine beträchtliche Sicherheitslücke. Erst durch ein biometrisches Authentifizierungsverfahren können die Potenziale der digitalen Assistenten richtig genutzt werden.

Bequemes Verfahren aber heikel bezüglich des Datenschutz

Aktuell ist das Verfahren vor allem bequem. Unter dem Aspekt der Cyber Security, bei sicherheitskritischen Anwendungen, allerdings noch nicht zu empfehlen. Biometrische Daten gehören zu den personenbezogenen Daten. Die Erhebung und Speicherung muss also den strengen Datenschutzrichtlinien entsprechen.

Fazit: Die Technologie muss reifen

„Die Technologie wird sich vor allem durchsetzen, wenn sie sich durch bessere Sicherheit beweisen kann, als die bekannten Verfahren sie derzeit bieten“, kommentiert Dr. Michael Müller, Geschäftsführer der magility GmbH die biometrische Authentifizierung. Solange werden wir noch mit PINs, Passwörtern und Schlüsseln arbeiten. Das ist aber nur noch eine Frage der Zeit. Durch Firmen wie beispielsweise VocalZoom wird sich das schon bald ändern. Die HMC-Sensoren von VocalZoom ermöglichen die Verwendung von Sprache als Authentifizierungsfaktor für eine wachsende Palette von personalisierten Online- und mobilen Finanz-, Gesundheits-, Hausautomations- und anderen sicheren Cloud-basierten Diensten.

 

Neuromorphic Computing ist die nächste Generation der Künstlichen Intelligenz und bringt auch technologische Fortschritte in der Automotive-Industrie. Foto: CCO

Neuromorphic Computing – Neuronale Netze mit enormer Leistung

Die Zukunft der Künstlichen Intelligenz heißt Neuromorphic Computing. Dabei sind die Computer nach Vorbild des menschlichen Gehirns konstruiert, wobei die Funktionsweise von menschlichen Neuronen nachempfunden wird. Ziel der Neuromorphic Technologie ist es, Sinnesorgane nachzubilden oder zu simulieren, wie beispielsweise die Netzhaut des Auges, das Innenohr oder auch Teile des Gehirns. Langfristig sollen diese Computer Entscheidungen treffen oder sogar ins menschliche Nervensystem integriert werden können. Vor allem in der Industrie wird diese neue Technologie in Zukunft große Beachtung finden. Als autonome Roboter, im Bereich autonomem Fahren oder auch der Sensorik. Doch was bedeutet Neuromorphic Computing und was wird es uns in Zukunft bringen?

Die Zukunft heißt Neuromorphic Computing

Perspektivisch werden kognitive Computer entwickelt, die komplexe Daten analysieren können und anhand von erlerntem Wissen Vorhersagen treffen. Zentral dafür sind neuromorphe Chips, also Mikrochips, die nach Vorlage menschlicher Nervennetze gefertigt werden. Damit sollen diese Chips auch die Sensorik des Menschen abbilden. Unterstützt werden die Chips dafür mit spezifischer Hardware, die etwa Gerüche oder Geräusche aufnehmen kann. Die Chips unterscheiden sich von der gegenwärtigen Technik durch höhere Energieeffizienz und geringeren Platzbedarf.

Neuer Chip von Intel ist dem Gehirn nachempfunden

Neuromorphic Computing statt Deep Learning. Ein Beispiel dafür ist der Testchip Loihi von Intel. Insgesamt soll der Chip 130.000 Neuronen sowie 130 Millionen Synapsen haben. Dadurch ist Loihi leistungsfähiger als bisherige Modelle und kann stetig dazulernen. Laut Intel lässt sich der selbstlernende Chip in fast allen Bereichen anwenden. Im Bereich Automotive, in der Industrie, in autonomen Robotern, maschinellem Sehen oder maschinellem Hörverstehen. Entsprechende Algorithmen zur sparsamen Codierung, zur Wegfindung oder zum Wörterbuch lernen, haben Intel und andere Unternehmen in der Vergangenheit bereits umgesetzt. Der neue Chip wurde auf der CES 2018 in Las Vegas vorgestellt.

Gegenwärtige KIs

Aktuelle KIs wie Apple’s Siri oder Alexa senden Daten an ein Rechenzentrum, gleichen diese ab und bekommen eine Rückmeldung. Sie basieren auf Clouds, da die Rechenleistung der Elektronik gegenwärtig noch nicht ausreicht um die verarbeitungsintensiven Algorithmen auszuführen, die für maschinelles Lernen benötigt werden. Die typischen Prozessoren, die in den meisten Smartphones verbaut sind, könnten kein System wie Siri auf dem Gerät ausführen. Die Rechenleistung der Chips wird aber in den nächsten Jahren weiter steigen, bei weniger Energieverbrauch.

Forschungszentrum für Neuromorphic Computing in Baden-Württemberg

Eines der größten Forschungszentren für Neuromorphic Computing entsteht derzeit in Baden-Württemberg. In Heidelberg werden Millionen investiert um die Technologie und Forschung in den nächsten Jahren voranzutreiben. Ziel der Forschung ist der Aufbau eines großen neuromorphen Systems mit besonders ausgeprägten Lernfähigkeiten, die in interdisziplinärer Zusammenarbeit mit theoretischen Neurowissenschaftlern entwickelt werden.

Durch Neuromorphic Computing entstehen zahlreiche neue Geschäftsmodelle und Möglichkeiten von denen wir bisher nur träumen konnten. Wir von Magility, als ihr Partner für neue digitale Geschäftsmodelle, beraten Sie gerne.

CES Las Vegas – Volocopter, MBUX und Künstliche Intelligenz

Die Consumer Electronics Show (CES) in Las Vegas zeigte letzte Woche die aktuellen Tech-Trends, auch für Mobilität und Automotive. Vieles was vor wenigen Jahren noch als Science Fiction abgetan wurde ist auf der CES 2018 real geworden. Magility war vor Ort, um sich über die neusten Trends, Visionen und Start-ups zu informieren.

Fliegende Taxis bei der CES

Mobilität der Zukunft ist eines der heißen Themen der CES 2018. Das fahrerlose Elektroauto ist natürlich ein Dauerbrenner. Aber in diesem Jahr wurde auch die fliegende Variante in Las Vegas vorgestellt. Zu den Stars der Messe zählt das badische Start-up Volocopter. Das Unternehmen baut ein fliegendes E-Taxi made in Karlsruhe. „Der Raum in den Städten wird immer knapper, in Zukunft wird daher auch der Luftraum mehr genutzt werden. Volocopter ist ein zukunftsweisendes Start-up in Sachen E-Mobility“, unterstreicht Dr. Michael Müller, Geschäftsführer der magility GmbH die Innovationskraft des badischen Unternehmens.

Weltpremiere für Mercedes-Benz User Experience

Daimler feiert Weltpremiere auf der CES und stellt sein neues Multimediasystem MBUX (Mercedes-Benz User Experience) vor. Das intuitive und lernfähige Betriebssystem geht ab 2018 in der A-Klasse in Serie.

Besonders ist hierbei die Lernfähigkeit dank künstlicher Intelligenz. MBUX ist individualisierbar und stellt sich auf den Nutzer ein. Es schafft so eine emotionale Verbindung zwischen Fahrzeug, Fahrer und Passagieren. Zugleich sind Updates „over the air“ möglich. Außerdem läutet es eine neue Ära bei der Mercedes me Connectivity ein. Die Navigationsdarstellung mit Augmented-Reality-Technologie sowie die intelligente Sprachsteuerung mit natürlichem Sprachverstehen sind weitere Neuheiten. Statt „hey Alexa“ fühlt sich das System mit „hey Mercedes“ angesprochen.

Künstliche Intelligenz und UX

Schaut man sich die Automobilhersteller insgesamt an, zeigt sich, dass in Zukunft viel getouched, geswiped und kommuniziert wird. Große Displays im Auto (siehe MBUX) lassen sich wie Smartphones bedienen und sprechen vor allem eine junge Zielgruppe an, die ans touchen und swipen längst gewöhnt ist. Künstliche Intelligenzen wie Amazons Alexa verbreiten sich stetig und eröffnen eine riesigen Markt für Anwendungen, die das Leben smarter und einfacher machen.

Brain Machine Inferfaces (BMI´s)

Auch Gehirn-Computer Schnittstellen (BMI´s)  erhielten auf der CES Einzug in die Welt des autonomen Fahrens. Nissan stellte auf der Messe ein ins Fahrzeug integriertes  brain-to-vehicle Interface vor. Das Interface erkennt durch einen Helm der drahtlos mit dem Fahrzeug verbunden ist Gehirnaktivitäten, die im Zusammenhang mit der Bewegungsaktivität des Fahrers stehen. Diese werden simultan an das Fahrzeug übertragen. Das Fahrzeug übersetzt und nutzt die Signale um das Fahrverhalten an die Erwartungen des Fahrzeughalters anzupassen, bevor dieser körperlich in Aktion tritt. Hierdurch wird personalisiertes autonomes Fahren möglich und das Fahrerlebnis noch smarter. Der Helm wird von der Startup Firma Bitbrain aus Spanien überwiegend von Neurologen weiterentwickelt.

Smart Future

Bei der CES in Las Vegas wurde die ganze Bandbreite an neuen Technologien vorgestellt. Smartphones, Smartwatch, Smart Home – das Angebot ist unermesslich und so verliert man sich schon mal in der Masse. „Für mich ist es immer wieder spannend zu sehen, wo wir gerade stehen und wo der Weg hinführt. Im Zuge der digitalen Transformation brauchen wir natürlich immer einen Überblick über Technologien und Visionen“, fasst Müller die CES zusammen. Und so hat sich der Weg nach Las Vegas auch in diesem Jahr gelohnt.

 

Deep Learning verspricht neue Durchbrüche beim autonomen Fahren. Foto: CC0

State of the Art: Deep Learning und autonomes Fahren

Im Sinne von Moor’s Law hat sich die Digitalisierung in den letzten Jahrzehnten unglaublich beschleunigt. Was zunächst wie eine schier endlose Aufgabe schien war aufgrund der exponentiellen Steigerung von Speicherkapazität und Prozessorleistungen schneller Realität als von Kritikern geahnt. Ein aktuelles Thema bei dem die Prognosen auseinandergehen ist die Künstliche Intelligenz und das Deep Learning. Sind wir bereits im Zeitalter der intelligenten Maschinen angekommen oder sind wir erst auf dem Weg dahin. Wahrscheinlich ist es nur eine Frage des Perspektive. Deshalb lohnt es sich auf Praxisbeispiele zu schauen. Viele Unternehmen versuchen bereits jetzt ihre Daten zu nutzen und daraus Erkenntnisse und Geschäftsmodelle zu kreieren. Ein Start-up aus dem Bereich ist das Berliner KI-Unternehmens Merantix. Zusammen mit großen Unternehmen arbeitet das Unternehmen an großen KI-Projekten. Auch im Bereich Automotive.

 

Drei Gründe für den Durchbruch neuronaler Netzwerke

Als Hauptgründe für den Durchbruch von neuronalen Netzwerken gilt: die Verfügbarkeit großer Mengen an Trainingsdaten, leistungsfähige Computerinfrastruktur und Fortschritte in der Wissenschaft. Außerdem übertrifft Deep Learning nicht mehr nur in klassischen Methoden, sondern mittlerweile auch in der Klassifizierung von Bildern oder der Gesichtserkennung, was Maschinen bislang kaum möglich war. Daraus resultiert Potenzial für disruptive Geschäftsmodellen, die mithilfe von Deep Learning und Machine Intelligence reale Problem beheben.

KI-Pioniere aus Berlin

Merantix ist ein Forschungslabor und Unternehmen im Bereich Künstliche Intelligenz. Das Berliner Unternehmen sucht zusammen mit mittelständischen und großen Unternehmen deren Potenziale, Daten zu nutzen um neue Geschäftsmodelle zu finden. Das Stichwort dabei lautet: Deep Learning. Laut Merantix basiert die Entwicklung der künstlichen Intelligenz in den letzten Jahren auf dem Erfolg des Deep Learnings*.

Diagnose vom Computer – Röntgenbilder

Konkret eruiert das KI-Start-up riesige Datensätze. Große Mengen an Trainingsdaten werden ausgewertet sodass die Maschine lernt auf bestimmte Auffälligkeiten zu achten. Ein konkretes Beispiel stammt aus dem Bereich Health Care. Merantix baut einen Service, unterstützt durch künstliche Intelligenz, der automatisch Röntgenbilder diagnostiziert. Um die Deep Learning Systeme zu trainieren werden Standardmarken aus Sprachprotokollen extrahiert. Im Ergebnis soll die KI-Diagnostik Effizienz und Qualität sicherstellen.

Deep Learning und autonomes Fahren

In Kooperation mit BOSCH arbeitet das Unternehmen an der Evaluierung und Verbesserung von Deep Learning Tools beim autonomen Fahren. Es werden neuronale Netze geschaffen und trainiert, die Objekte wie Ampeln, Verkehrszeichen und andere Fahrzeuge erkennen. Die Trainingsdaten stammen aus Sensordaten (in der Regel Bilder und Videos) von Fahrassistenzsystemen. Das System visualisiert die Charakteristik von geschulten neuronalen Netzwerken basierend auf aktueller Forschung.

Quo vadis: Deep Learning

Konkrete Beispiele aus dem Beriech zeigen, dass mit neuronalen Netzen und verfügbaren Trainingsdaten bereits praktischer Nutzen erzielt werden kann. „Für das autonome Fahren wird Deep Learning und Künstliche Intelligenz unerlässlich sein“, unterstreicht Dr. Michael Müller, Geschäftsführer der magility GmbH die Aktualität des Themas.

 

*Deep Learning bezeichnet eine Klasse von Optimierungsmethoden künstlicher neuronaler Netze, die zahlreiche Zwischenlagen zwischen Eingabeschicht und Ausgabeschicht haben und dadurch eine umfangreiche innere Struktur aufweisen.

Robotik und Automatisierung steigern die Produktivität in der Industrie. Foto: CC0

Robotik – Produktionssteigerung durch Digitalisierung

Die Robotik erobert die Welt. Vor allem Automobilhersteller, Zulieferer und Systemintegratoren beschleunigen durch Innovationen diesen Trend. Deutschland ist dabei Rekordhalter von Industrierobotern in Europa. Auf 10.000 Mitarbeiter kommen über 300 Roboter. Nur asiatische Länder können das überbieten. Doch wo stehen wir im Bereich Robotik, was sind die Herausforderungen und wie sind die Prognosen?

Die Zukunft ist automatisiert

Roboter, Autonome Maschinen und Künstliche Intelligenz (KI). Das sind die Schlagworte im Zusammenhang mit Robotik. Während in der Produktion, Fertigung und anderen Industriebereichen Roboter nicht mehr wegzudenken sind, entwickelt sich die digitale Technik stetig weiter. Die Vision von der Verknüpfung von Robotik mit KI lautet, dass neben der Automatisierung von Arbeitsprozessen wie wir sie längt kennen, Maschinen Entscheidungen und Schlussfolgerungen aufgrund von Erfahrungen treffen können.

„Im Bereich Robotik wird sehr viel geforscht. Als Innovationsstandort Deutschland arbeiten wir vor allem an durchsetzungsfähigen Technologien. Dies geschieht hauptsächlich in Zusammenarbeit mit Universitäten und Unternehmen, die sehr viel Energie und Mittel investieren um die Forschung voranzutreiben und Fachkräfte auszubilden. Gerade hier liegt die Stärke“, so Dr. Michael Müller, Geschäftsführer der magility GmbH.

Mensch-Roboter-Kollaboration

Zwar lautet die Prophezeiung, dass intelligente Maschinen die Arbeit autonom übernehmen würden. Zunächst aber wird es viel häufiger der Fall sein, dass Menschen in Kombination mit Robotern arbeiten um Abläufe zu optimieren oder zu präzisieren. Ein Beispiel dafür sind Operationsroboter, die Chirurgen ermöglichen noch präziser und genauer zu arbeiten. Aber es werden auch beispielsweise LKWs auf der Autobahn autonom fahren und auf Landstraßen von einem Fahrer gelenkt. Das Maschinen den Menschen komplett verdrängen ist bis auf weiteres Science Fiction.

Wie wird sich die Arbeitswelt ändern?

60 Prozent aller bezahlten Tätigkeiten mit heute vorhandenen Technologien sind zu 30 Prozent automatisierbar, schätzt McKinsey. Das betrifft nicht nur die Industrie sondern viele Wirtschaftszweige. Gleichzeitig sind nur wenige Menschen besorgt um ihren Arbeitsplatz (Siehe Statista-Grafik). Die Arbeitswelt wird sich wandeln, das steht fest. Dennoch bringt Technik immer auch neue Arbeitsplätze und Arbeitsbereiche mit sich. Auch die nächste Generation von Robotern, von autonomen und selbstlernenden Maschinen und Künstlicher Intelligenz werden neue Arbeitsplatze in Entwicklung, Herstellung, Installation, Betrieb und Service hervorbringen. In Bereichen wie Big Data, Cloud-Services, App-Entwicklung und Verkauf, Internet-Dienste, Cyber Security und der Vernetzung im Internet of Things. 

Quo vadis Robotik

Big Data und Machine Learning, dass sind die entferntesten Visionen. Bis dahin werden sehr viele andere Herausforderungen zu bestehen sein. Denn am Ende erfüllt die Technik keinen Selbstzweck sondern soll Abläufe rationalisieren und wirtschaftlicher machen. Gerade was die Produktion angeht herrscht ein enormer Konkurrenzkampf vor allem mit dem fernen Osten. Dort werden mit High-Tech Maschinen zu Dumping-Preisen produziert. Am Ende geht es vor allem darum, dass der Wirtschaftsstandort Deutschland konkurrenzfähig, attraktiv und innovativ bleibt. Daran arbeiten wir auch als magility jeden Tag.

 

Nicht zuletzt müssen wir uns in Teilen sowohl als Gesellschaft als auch in unseren Arbeitsweisen teils neu erfinden. Hierfür brauchen wir Expertise und profunde Erfahrung in der Begleitung von Transformationsprozessen, mit professionellen Kommunikationsstrategien und Anpassung von unternehmensweiten Prozessen. Wir sind Ihre Digitalisierungsexperten auf diesem Weg der Transformation!