Beiträge

Digital Twin

Der Digitale Zwilling – Innovation in der Produktion

Bereits seit etwa zwei Jahren ist ein Begriff im Umlauf, der für die digitale Modernisierung von Produktion und Geschäftsprozessen steht: der Digitale Zwilling. Grundsätzlich geht es dabei darum, physische Objekte der Produktion sowie die Zugrunde liegenden Prozesse in all ihren Eigenschaften digital zu simulieren. Herstellungsprozesse, die bisher aufwendige Versuche mit Prototypen vorraussetzten und dabei viel Zeit und Kosten verursachten, können durch den Digitalen Zwilling am Computer realitätsnah, einfach und kostengünstig durchgeführt werden.

Welche Technologien stehen dahinter?

Der Digitale Zwilling (Englisch: Digital Twin), gilt als eine Schlüsseltechnologie der Industrie 4.0. und ist damit essentiell für die Zukunft der industriellen Produktion. Ausgangsbasis ist die Bestückung aller Maschinen einer Anlage oder sogar einer ganzen Fabrik mit Sensoren, die detaillierte Informationen in Echtzeit über den aktuellen Zustand der Produktion an ein Backend senden. Dort werden die Daten, auch Reports genannt, zusammengeführt und verknüpft. Für eine skalierbare Datenübertragung sorgen Wlan, LTE oder für Prozessdaten Feldbus-Systeme wie etwa EtherCAT. Um die dabei anfallenden großen Datenmengen auch verarbeiten zu können, werden zumeist Methoden und Techniken aus dem Big-Data-Bereich verwendet.

Auf eine detaillierte Auflösung kommt es an  

Der Digitale Zwilling ist im Grundsatz die Weiterentwicklung von schon bestehenden Vorgehensweisen wie etwa der technischen Zeichnung. Im Entwicklungssektor der Automobilindustrie gehört die Arbeit mit virtuellen Prototypen bereits zum Standard. Dies stellt einen maßgeblichen Fortschritt dar. Die Exaktheit der digitalen Kopie ist ausschlaggebend für die Vielfalt der Anwendungsmöglichkeiten solcher Simulationen. Das Ideal besteht darin, die Realität so genau wie möglich in einer Software abzubilden. Daher stammt auch der vielsagende Begriff ‘Zwilling’. Ein digitaler Zwilling ist nicht identisch mit seinem analogen Verwandten aber er soll ihm möglichst nahe kommen. Wichtig ist: je mehr Informationen über eine Maschine oder einen Prozess und dessen Auswirkungen im System erfasst werden, desto präziser sind auch die berechneten Vorhersagen, die sich daraus ergeben. Sprechen wir von einem Produkt wie etwa einem Werkstück, so sind es nicht bloß die Abmessungen, die von Bedeutung sind, sondern auch die Materialeigenschaften wie Verschleißdauer, thermische Stabilität oder die Interaktion mit hinzugefügten Bauteilen. Je mehr Parameter für den jeweiligen Gegenstand oder Prozess digital erfasst werden, umso aussagekräftiger werden die darauf aufbauenden weiteren Anwendungsmöglichkeiten. Die Qualität eines Digitalen Zwillings kann daher mit einem Foto verglichen werden, das mit zunehmender Auflösung auch mehr Details abbildet. Insider sprechen daher von der Granularität und der Datendichte, welche das Verwendungspotenzial eines Digitalen Zwillings bestimmt.

Der Digitale Zwilling bringt Vorteile

In der Produktion können Digitale Zwillinge über den gesamten Lebenszyklus eines Produkts entlang der Wertschöpfungskette genutzt werden. Bereits in der Produktentwicklung können mit rein digital erstellten Prototypen alle nötigen Anforderungen getestet werden. Die aufwendige und kostspielige Herstellung physischer Prototypen entfällt. Der Digitale Zwilling kann wie sein analoges Ebenbild getestet und seine spätere Verwendung simuliert werden. Auch die Effizienz und Qualität der realen Produktion kann durch den Einsatz von digitalen Zwillingen gesteigert werden. Dies gilt genauso für die Planung von zugehörigen Lieferungen und Dienstleistungen in der analogen Produktion. Die Begleitung von Herstellungsprozesse durch digitale Zwillinge ermöglicht kürzere Anlaufzeiten, geringere Ausfallraten und eine frühzeitige Erkennung möglicher Probleme. Zulieferer oder Kunden können von Anfang an in den Entwicklungsprozess miteinbezogen werden, um die Erfüllung ihrer Anforderungen direkt digital zu erproben und zu optimieren.

Industrie 4.0 und die Smart Factory

Die Zukunft der Produktion ist also eng verbunden mit dem Digitalen Zwilling. Die intelligente und vernetzte Fabrik wird zur Smart Factory. Wenn jede Maschine und alle Informationen, die beispielsweise von Tanks oder dem Lager kommen können, in einem System zusammengeführt werden, zunehmend auch in der Cloud, dann wird vom Internet-of-Things (IoT) gesprochen. Der Digitale Zwilling ist ein wichtiger Teilbereich der fortlaufenden Weiterentwicklung technologischer Trends, die in dieser Innovation zusammen finden. Die baldige Einführung des schnellen Mobilfunkstandards 5G wird die Vernetzung und Digitalisierung in der Indurstrie noch weiter beschleunigen.

Der Digitale Zwilling und die Organisation

Über den Einsatz in der Produktion hinaus, ist die Übertragung der gesamten unternehmerischen Organisation und ihrer Prozesse in den digitalen Raum ein weiteres Anwendungsfeld des Digitalen Zwillings. Man spricht dabei vom DTO, dem Digital Twin of Organisations. Ähnlich wie bei der Business Intelligence, geht es dabei um alle live erfassten Operationen, die beispielsweise durch Produktion, Zulieferer, Kundenbestellungen und Mitarbeiter angestoßen werden. Ziel ist die Ermöglichung einer Vogelperspektive auf die Organisation. Auch der Faktor Zukunft kann somit verstärkt berücksichtigt werden. Denn die digitale Spiegelung des Unternehmens erlaubt das Durchspielen, Messen und Auswerten unterschiedlicher Szenarien was die Entscheidungsgrundlage für das organisatorische Handeln maßgeblich beeinflusst. 

Welche Szenarien sehen Sie für die Aufstellung Ihres Unternehmens im digitalen Zeitalter als entscheidend an? Setzen Sie sich gerne mit uns zu einer Diskussion in Verbindung.

 

Libra

Facebook Coin Libra – Was steckt hinter der Kryptowährung

Facebook ist immer noch das soziale Online-Netzwerk mit den weltweit meisten aktiven Nutzern. Das Wachstum des Unternehmens schien in der Vergangenheit grenzenlos zu sein. Aktuell wird der Druck der asiatischen Konkurrenz  jedoch größer. Deshalb sind die Köpfe des US-Unternehmens aus San Francisco aktuell dabei, die nächste Ausbaustufe von Facebook in die Wege zu leiten. Das Netzwerk erweitert kontinuierlich sein Angebot und damit seine Relevanz und Reichweite. Das Facebook-Universum soll zukünftig noch viele weitere Bereiche des gesellschaftlichen Lebens online abbilden. Durch die neuen Geschäftsmodelle soll der Marktanteil von Facebook gesichert werden. Aktuell betritt Facebook mit der Einführung der Kryptowährung Libra den Finanzmarkt. 

Libra – eine eigene Währung für das Facebook Ökosystem

Die wohl aufsehenerregendste Ankündigung von Facebook ist die Einführung einer eigenen globalen Währung namens Libra für das Jahr 2020. Hierfür baut Facebook aktuell eine komplette Finanzinfrastruktur auf. Nach Unternehmensangaben von Facebook haben heute 1,7 Milliarden Menschen, 30% der Weltbevölkerung, keinen Zugang zu Bankdienstleistungen. Internationale Überweisungen würden 3-5 Tage und im Schnitt 7% Gebühr kosten. Hier will der Konzern ansetzen und Überweisungen weltweit so einfach und günstig gestalten, wie das versenden einer Whatsapp-Nachricht. Überweisungen, Sicherung von Guthaben oder Vergabe von Krediten, heute noch typische Bankgeschäfte, sollen bald schon sehr viel günstiger und schneller über die Facebook Plattform möglich sein.

Die Libra Association soll über die Währung wachen

Um den neuen Zahlungsverkehr zu organisieren und zu überwachen, hat Facebook die unabhängige und gemeinnützige Libra Association mit Sitz im schweizerischen Genf ins Leben gerufen. Gründungsmitglieder können Unternehmen, Social Impact Partner (SIPs) oder akademische Institute sein. Um der Association beizutreten müssen die Bewerber an einem Auswahlverfahren von Facebook teilnehmen und Libra Währung in Höhe von 10 Millionen US$ kaufen. Jedes Mitglied wird Teil des Libra Association Rat, dem Verwaltungsorgan. Nach der aktuellen Aufbauphase will Facebook nach eigenen Angaben lediglich ein gleichberechtigtes Mitglied diesen Rats sein. Bisherige Mitglieder des Rats sind beispielsweise Vodafone, Mastercard, Uber, Paypal, Coinbase, Visa und Ebay. Um eine “angemessene Trennung zwischen sozialen und finanziellen Daten zu gewährleisten”, hat Facebook das Tochterunternehmen Calibra gegründet. Calibra hat die Aufgabe, Dienstleistungen im Libra Netzwerk aufzubauen und zu betreiben.

Blockchain-Technologie und Kryptowährung bilden die Basis

Die Facebook Währung Libra basiert auf der Blockchain-Technologie, einem dezentralisierten und beliebig erweiterbaren Netzwerk von Datensätzen. Die Regeln dieses Netzwerks sind für den konkreten Anwendungsfall Libra im sogenannten Libra Protocol festgelegt. Entscheidungen über die darin getätigten Transaktionen fällen die Mitglieder des Rats in ihrer Rolle als Validatoren. Das Libra Protocol ist wie das gesamte Libra Projekt in der Entwicklungsphase. Einige konkrete Angaben über die Funktionsweise sind aber bereits öffentlich einsehbar. Um das Design dieses Protokolls zu testen, arbeitet Facebook mit einem open-source Ansatz. Damit sollen alle möglichen Probleme frühzeitig erkannt und in der weiteren Entwicklung beseitigt werden. Die Zahlungseinheiten der Währung sind Tokens, eine Kryptowährung, die sich aus dem Protokoll ergibt. Diese Tokens heißen Libra Coins.

Reserve soll Volatilität minimieren und Werterhalt sichern

Im Gegensatz zu den heute größten Kryptowährungen wie Bitcoin oder Ethereum, ist für Libra eine Reserve aus Wertanlagen geplant. Diese Reserve soll sicherstellen, dass der Wert der Facebook Währung bei nur geringer Volatilität möglichst stabil bleibt. Damit soll das unverzichtbare Vertrauen geschaffen werden, welches die Nutzung einer Währung ermöglicht, sowie deren Ansehen bei den Marktteilnehmern bestimmt. Investoren können in ein separates Investment-Token investieren. Diese Beträge bilden die Reserve. Das Vermögen der Reserve soll durch die breitgefächerte Anlage in einem Warenkorb gesichert werden, der aus langfristigen Wertanlagen von niedriger Volatilität wie etwa Staatsanleihen besteht. Die Reserve erfüllt damit die selbe Aufgabe wie der Goldstandard bei einer traditionellen Währung. Darin liegt auch der große Unterschied zu Bitcoin, dessen Wert eine solche Basis nicht besitzt und dessen Wert dadurch viel virtueller erscheint. Außerdem hat Bitcoin kein Äquivalent zur Libra Association, dem mächtigen Gremium, welches wie eine Währungsbank über die Libra Coin wacht. Damit neue Libra Coins geschaffen werden, kann ein Käufer Währungen wie Euro oder Dollar in die Reserve einzahlen. Er erhält dann Libra Coins entsprechend dem aktuellen Libra Wechselkurs, zurück. Dadurch wächst die Reserve immer mehr an und soll gleichzeitig zur Verhinderung einer Libra Inflation oder Blase beitragen.

Next big thing oder next big fail?

Mit der Libra Coin hat Facebook ein hochkomplexes Vorhaben angestoßen. Das Ziel des Unternehmens ist die Implementierung einer globalen Währung. Angeblich besteht kein Interesse daran, bisherige Währungen zu ersetzen. Sollten aber immer mehr Menschen nur noch Libra nutzen, dann träte früher oder später genau dieses Szenario ein. Viele rechtliche und technische Details zur Facebook Währung sind noch nicht abschließend geklärt, aber Hundertschaften von Experten arbeiten intensiv an diesem Projekt. Noch ist der Zeitpunkt der Einführung des Währungssystem seitens Facebook nicht kommuniziert, aber schon die momentan zu beobachtenden Entwicklungen sind hochinteressant.

Widerstand gegen Facebook formiert sich bereits

Der US Kongress hat erst vor wenigen Wochen ein Schreiben an Facebook gerichtet. Darin verlangen hochrangige Vertreter des Finanzausschusses einen Stopp der Einführung von Libra. Die Abgeordneten fürchten die Entstehung eines unkontrollierbaren Finanzsystems im rechtsfreien Raum, welches umfangreiche finanzielle Schäden verursachen könnte. Sicherlich wünschen die Volksvertreter auch, dass die wichtige Währungspolitik ein Privileg von souveränen Staaten bleibt und nicht in die Macht eines Privatunternehmens wandert. Neben Politikern schlagen daher mittlerweile auch Verbraucherschutzverbände Alarm. Selbst der US-amerikanische Wirtschaftsnobelpreisträger Joseph Stiglitz äußerte sich bereits mit kritischen Worten über Facebooks Währungspläne. Er kritisiert in seinen Äußerungen das Aufziehen einer neuen Dimension von Geldwäsche, Steuerhinterziehung, Drogenhandel und Terrorismusfinanzierung. Für ihn wurde Facebook durch den Cambridge Analytica Skandal im Rahmen der letzten US-Präsidentschaftswahl zu einem zwielichtigen Player, dem man ein Projekt wie Libra niemals erlauben dürfe.

Wie stehen die Chancen für Facebook?

Trägt man die bisher zur Verfügung stehenden Informationen über Libra zusammen, ergibt sich ein zweideutiges Bild. Einerseits besteht der Finanzmarkt heutzutage aus vielen unterschiedlichen Rechts- und Währungsräumen, zwischen denen der Fluss von Geldströmen durch Gesetze und Vorschriften hoch reglementiert ist. Das sind eigentlich die besten Voraussetzungen für die Umsetzung einer disruptiven Geschäftsidee. Andererseits ist das Image von Facebook in der Bevölkerung und bei Behörden so schlecht wie noch nie. Ob es sich die politisch hoch vernetzten Verantwortlichen des Finanzsystems gefallen lassen werden, den Kern ihrer Industrie anzugreifen, bleibt fraglich. Ebenfalls fraglich bleibt, wie Facebooks Wettbewerber, etwa Google, Apple oder Amazon, auf die Währungspläne des sozialen Netzwerks reagieren und gegebenenfalls eigene Plattformen starten.

Der Libra Coin wird für spannende Diskussionen sorgen, sowohl politisch als auch gesellschaftlich.

Nutzen Sie bereits Blockchain-Technologie in Ihrem Unternehmen? Kontaktieren Sie uns von magility gerne für einen fachlichen Austausch.

Autonomes Fahren

Autonomes Fahren – welche Technologien stecken dahinter?

Autonomes Fahren gilt als eine maßgebliche Schlüsseltechnologie für die Zukunft des Individualverkehrs. Fahren alle Autos bald von selbst, können wahrscheinlich viele Unfälle verhindert werden. Berufspendler und Reisende könnten während der Fahrt schlafen, arbeiten oder Medien konsumieren. Aber welche Technologien stehen eigentlich hinter der großen Vision vom Autonomen Fahren?

Mehrere Technologien – ein Ziel

Um die angesprochene Vision Wirklichkeit werden zu lassen, werden Autos mit einer Vielzahl unterschiedlicher Sensoren und Systeme ausgerüstet. Schließlich müssen alle Aufgaben eines menschlichen Fahrers übernommen werden. Dazu müssen Sensoren eine umfangreiche und exakte Wahrnehmung 360 Grad um das Auto herum erzeugen, damit eine auf dem höchstmöglichem Standard trainierte Künstliche Intelligenz die Aufgaben des Menschen übernehmen kann und im Idealfall sogar die Kompetenz besitzt, in kritischen Situationen besser und schneller zu entscheiden. Um dies zu gewährleisten und um die höchste Stufe des Autonomen Fahrens zu erreichen, müssen gleich mehrere Technologien sowie deren Datenfluss kombiniert, ins Fahrzeugsystem integriert und gemanagt werden. Die Ultraschallsensorik ist eine davon. Sie wird nach wie vor für die Nahfeld-Erkennung genutzt. Die sogenannten Parkpiepser sind solche Ultraschallsensoren, die sich schon heute in den Fahrzeugen als Standard durchgesetzt haben. 

Autonomes Fahren und die Augen des Computers

Videokameras spielen bei der Entwicklung eines Autonomen Fahrzeugs eine immer bedeutendere Rolle. Sie machen Bilder von der Straße und der Umgebung des Fahrzeugs und “blicken” in alle Richtungen. So kann das gesamte Umfeld 360 Grad um das Fahrzeug herum überwacht werden. Andere Verkehrsteilnehmer, auch im toten Winkel, werden erkannt und die Verkehrszeichen gelesen. Als sogenannte Stereokamera ist es solch einer Kamera auch möglich, Entfernungen zu messen. Je höher die Lichtstärke und Auflösung der Kamera ist, desto exakter kann die Umgebung wiedergeben werden. Aber auch für die Innenraumüberwachung kommen Kameras zum Einsatz. Die Fitness sowie der Gesundheitszustand des Fahrers kann überwacht und seine Eingabebefehle durch Gestensteuerung erkannt werden. Als Folge der Entwicklung könnten herkömmliche Rückspiegel bald der Vergangenheit angehören. Audi ist mit seinem neuen Elektro-SUV E-Tron mit windschnittigen Kameras der erste Hersteller der die Rückspiegel komplett durch Kameras ersetzt. 

Radar – bewährte Technik, ständig weiterentwickelt

Radarsensoren (radio direction and ranging) senden und empfangen Radiowellen, um die Umwelt abzutasten. Sie werden bereits seit 20 Jahren in der Autoindustrie eingesetzt, etwa für den Tempomat, der den Abstand zum vorausfahrenden Fahrzeug konstant hält. Radar kann Objekte erkennen, deren Entfernung, relative Geschwindigkeit und die Bewegungsrichtung. Ein Vorteil von Radarmessungen ist die hohe Reichweite die Robustheit gegenüber Umwelteinflüssen. Ein Nachteil ist jedoch die geringe Auflösung, mit der Objekte erkannt werden. Andere Technologien bilden Objekte wesentlich exakter ab.

LiDAR – die Vermessung der Umwelt mit Licht

Sensoren auf LiDAR Basis (light detection and ranging) funktionieren grundsätzlich ähnlich wie Radar. Der Unterschied liegt in der gemessenen Strahlung. Denn LiDAR Systeme senden für das menschliche Auge unsichtbare Laserimpulse aus, deren Reflektionen von den Sensoren gemessen werden. Diese Technologie ist exakter, kann also mit höherer Auflösung wahrnehmen. Allerdings ist die Reichweite bei LIDAR Systemen ein wenig geringer und die Messungen sind anfälliger für Umwelteinflüsse wie etwa Regen, Nebel oder Schnee. Dunkle Autos reflektieren LiDAR-Strahlen eher schlecht. Deshalb ändern Lackhersteller zur Zeit ihre Formeln, um auch schwarze Lacke besser reflektieren zu lassen. Die LiDAR-Sensoren führen 10.000 Messungen pro Sekunde durch und erstellen so ein aktuelles Abbild der Umgebung und ermöglichen schnelle Reaktionszeiten des autonomen Systems.

Ohne High-Speed Datenverarbeitung kein Autonomes Fahren

Es gibt also unterschiedliche Arten von Sensoren, die ständig große Mengen von Daten produzieren. Erst durch deren Kombination, Anreicherung und blitzschnelle Verarbeitung wird Autonomes Fahren ermöglicht. Der Begriff hierfür ist die Sensorfusion. Um die Datenmengen der Sensoren verarbeiten zu können, müssen Autos mit immer schnelleren Prozessoren ausgestattet werden. Die Automobilhersteller und Zulieferer stehen bezüglich Rechenleistung mittlerweile in starkem Wettbewerb zueinander. Über die Daten von Sensoren und Kameras läuft eine Mustererkennung, welche die reale Umwelt strukturiert und so für das System verwendbar macht. Hinzu kommen noch hinterlegte Kartendaten sowie Positionsdaten aus dem GPS Signal. Um diese großen Mengen von Daten zu verarbeiten, werden Methoden aus den Bereichen Big Data und Künstliche Intelligenz implementiert. So kann ein System auch selbstlernend ausgelegt und erworbene Lerneffekte an die Systeme anderer Autos übertragen werden.

Neben Sensoren, die das Autonome Fahren an sich unterstützen sollen, arbeiten verschiedene Unternehmen daran, aus den gewonnenen Daten weitere Informationen zu generieren, die auch schon bei niedrigeren Automatisierungsgraden von Fahrzeugen das Fahrerlebnis und die Sicherheit verbessern sollen. Die Software des israelischen Startups Tactile Mobility zum Beispiel nutzt Sensorfusion der im Fahrzeug bestehenden Sensoren um u.a. den Grip Level (Haftungsgrad) der Straße zu bestimmen. Bei Veränderungen der Straßenverhältnisse wird der Fahrer bzw. das autonome Fahrzeug dabei in Echtzeit über Gefahren und Gegenmaßnahmen informiert.

Welche Entwicklungen stehen noch an?

Konnektivität ist die Grundvoraussetzung für Autonomes Fahren. Ein autonom fahrendes Fahrzeug mit all seinen Sensoren wird auch mit einem Server des Herstellers verbunden sein. So können beispielsweise Verkehrs- und Wetterdaten in Echtzeit berücksichtigt und die Software des Fahrzeugs ständig aktualisiert und optimiert werden. Gerade für die Cyber-Security des Fahrzeugs ist diese Vehicle-to-Backend-Connectivity (V2B) ausschlaggebend. Um einen Cyber-Angriff schnellstmöglichst zu stoppen, sind Over-the-Air (OTA)-Updates unumgänglich. Desweiteren werden die autonomen Fahrzeuge mit der Infrastruktur vernetzt sein, die sogenannte Vehicle to Infrastructure-Connectivity (V2I) sowie untereinander, also Vehicle to Vehicle (V2V). Um die Positionen der autonomen Fahrzeuge zu überwachen und den Verkehr sicher zu steuern, wird in der Zukunft auch die Vehicle-to-Satellite-Connectivity (V2S) mehr und mehr in den Fokus rücken. Auch eine weitere Vernetzung, genannt Vehicle-to-Everything (V2X), ist möglich. Für die Datenmengen, die konnektiv über die verschiedenen Kanäle ausgetauscht werden, reicht der heutige Mobilfunkstandard nicht aus. Erst wenn der schnellere Mobilfunkstandard 5G eingeführt wird, können sich die Fahrzeuge auch untereinander vernetzen (V2V). Jedes Auto könnte dann ein Signal senden um von anderen Verkehrsteilnehmern bereits außerhalb der Sensorreichweite erkannt zu werden. Verkehrsflüsse ließen sich so optimieren und sicherer gestalten. Mit wachsender Konnektivität steigt auch das Risiko für Cyber-Crime. Ein autonomes Fahrzeug muss behandelt werden wie ein Computer auf Rädern und benötigt von Grund auf ein ausgereiftes end-to-end Cyber-Security Konzept. 

Ausblick

Um das vollautonome Fahren (Level 5) zu ermöglichen, ist ein ganzes Paket an unterschiedlichen Technologien notwendig. Für die Automobilindustrie ist das Autonome Fahren momentan an Komplexität nicht zu übertreffen. Es geht nicht nur um die Technologien im Fahrzeug, viele weitere Faktoren, wie das Management der Datenmengen, festgelegte Normen, datenschutzrechtliche Vorgaben, Cyber-Security-Themen, die momentan vorzufindenden Standards, wie der Mobilfunkstandard, sowie der Ausbau der Infrastruktur müssen gleichzeitig betrachtet oder ausgebaut und in optimaler Weise zueinander in Beziehung gesetzt werden. Warum es in den nächsten Jahren eher unrealistisch ist, dass wir im öffentlichen Straßenverkehr vollautonome PKW vorfinden werden und weshalb sich vollautonome Fahrzeuge voraussichtlich erst im Bereich der Nutzfahrzeuge etablieren werden, klären wir in einem unserer nächsten Artikel.  Wir freuen uns auf einen regen Austausch zum Thema. Kontaktieren Sie gerne unsere Experten bei Magility!

 

 

Immobilien

IoT in der Immobilien-Branche – Investitionsanreize für Internetgiganten

Die US-amerikanischen Internetgiganten verstärken ihr Engagement im Immobilien-Bereich. Nachdem Google im Jahr 2018 weltweit 9 Milliarden Dollar in Niederlassungen und Rechenzentren investiert hat, sind nach Unternehmensangaben für 2019 alleine in den USA 13 Milliarden Dollar für Investitionen in diesem Bereich eingeplant. Auch Amazon will die Digitalisierung von Haushalten vorantreiben.

Was sind die Hintergründe?

Die Google übergeordnete Holding Alphabet verfügt aktuell über mehr als 100 Milliarden Dollar an Barreserven. In der Vergangenheit hat Google immer wieder Firmenakquisitionen in Milliardenhöhe durchgeführt. Derzeit scheint allerdings eine andere Mittelverwendung geplant zu sein: Der Suchmaschinenkonzern investiert in neue Büroflächen und Rechenzentren, um das wichtige Kerngeschäft weiter auszubauen. Außerdem plant Google 2019 mehrere Zehntausend Mitarbeiter einzustellen, wodurch ein entsprechend großer Raumbedarf entsteht. 

Rasantes Wachstum erhöht Nachfrage für Immobilien

Der Unternehmenssitz von Google trägt den Namen ‘Googleplex’ und befindet sich in Mountain View, Kalifornien. In direkter Nachbarschaft hat Google nun für eine Milliarde Dollar einen benachbarten Business Park erworben. Der Expansion des Headquarters steht damit nichts mehr im Wege. Google kaufte bereits 2018 für 2,6 Milliarden Dollar das Gelände Chelsea Market in New York im Stadtteil Manhattan, einer der umfangreichsten Immobiliendeals des letzten Jahres in den USA. Der größte Standort des Unternehmens befindet sich in Zürich, auch dieser wird derzeit deutlich ausgebaut.

Investitionen gegen hausgemachte Wohnungsnot

Es gibt noch mehr Gründe, welche die Tech-Unternehmen anspornen, vermehrt in Immobilien zu investieren. Facebook, Google und Amazon versuchen, dasselbe hausgemachte Problem zu lösen. Mit dem rasanten Wachstum der Internetgiganten steigt auch der personelle Bedarf an hochqualifizierten Mitarbeitern. Rund um die Unternehmenszentralen im kalifornischen San Francisco hat schon lange ein intensiver Preisanstieg sowie eine deutliche Gentrifizierung stattgefunden. Durch die hohe Nachfrage und die ebenso hohen Gehälter der Angestellten werden nicht nur Alteingesessene vertrieben, auch für die eigenen Mitarbeiter übersteigt der Bedarf längst den Bestand an verfügbarem Wohnraum.  Die Tech-Konzerne investieren mit steigender Tendenz in Wohnungen und Bauland, allen voran Google. Immer wieder aufkommende Proteste von der Bevölkerung gegen die Digitalkonzerne unterstreichen die Dringlichkeit dieser Investitionen. In Berlin etwa musste Google in 2018 Pläne für einen Start-Up Campus aufgeben, nachdem sich mehrere Bürgerinitiativen gegen dieses Vorhaben gebildet hatten, die sich schlussendlich durchsetzten.

Smart City vom Reißbrett – die Zukunft des Wohnens?

Google investiert sogar über den eigenen Bedarf hinaus. Im kanadischen Toronto plant das Unternehmen Sidewalk Labs, wie Google eine Tochter der Alphabet Holding, eine Smart City zu errichten. Vorgesehen ist ein ganzer Stadtteil, der mit den neuesten Technologien ausgestattet einen Ausblick auf die Zukunft des Städtebaus geben soll. Laut Sidewalk Labs soll die am Wasser gelegene Smart City nach Fertigstellung im Jahr 2040 44.000 Jobs generiert haben und dem Staat 4,3 Milliarden Kanadische Dollar (2,9 Milliarden Euro) an jährlichen Steuereinnahmen in die Kasse spülen. Der neue Stadtteil soll hochvernetzt gestaltet sein und sich u.a. durch eine innovative Verkehrsführung auszeichnen. Geplant ist außerdem die Einbindung selbstfahrender Autos schon bei der Stadtentwicklung. Auch soziale Themen werden mit einbezogen, so soll 40% des neuen Wohnraums unter dem aktuellen Marktpreisniveau angeboten werden.

Amazon’s Alexa – von Haus aus

Der Handelsriese Amazon investiert noch aus weiteren Gründen in Immobilien. Mit seiner Sprachsoftware Alexa und seinen zahlreichen Smart Home Anwendungen treibt die Firma das eigene Geschäft voran. Vor einigen Monaten gab der Handelsriese eine Zusammenarbeit mit Lennar bekannt, dem größten Immobilienunternehmen der USA. In von Lennar gebaute Häuser kann nun von Anfang an das komplette “Connected Home”-Angebot von Amazon integriert werden. Über Alexa sowie Mobile-Apps kann der Bewohner Licht, Musik, Rollläden und vieles mehr ansteuern. Das Haus lässt sich aus beliebiger Entfernung heraus online verriegeln und die Bilder der Videoüberwachung können über ein mobiles Gerät, wie etwa ein Smartphone oder Tablet, von jedem ans Netz angebundenem Ort der Welt aus angesehen werden. Auch der Kühlschrank ist vernetzt und bestellt zu Neige gehende Vorräte automatisch nach. Amazon spricht dabei von der Integrated Home Automation, der Verwirklichung des Internet-of-Things zuhause.

Fortschritt trotz Kritik

Nachdem die Internetgiganten die Onlinewelt fast oligarchisch erobert haben, können wir aktuell also auch ein intensiviertes Engagement im Immobilienmarkt beobachten. Die Chancen, die sich dabei ergeben, sind groß. Datenschützer wachen allerdings mit Argusaugen über dieser Entwicklung. Sie befürchten eine manipulative Überwachung und dadurch die massive Einschränkung der Privatsphäre. Die Konzerne werden sich davon sicherlich nicht aufhalten lassen. Es bleibt also wie immer auf dem Weg in eine digitalisierte Zukunft spannend, wohin die Entwicklung geht und wie das Ergebnis am Ende tatsächlich aussieht. 

Wo sehen Sie das Potenzial dieser Entwicklungen? Wir tauschen uns gerne mit Ihnen über aktuelle Trends und innovative Geschäftsmodelle aus und diskutieren sowohl die Chancen als auch die Risiken die sich daraus ergeben. Nehmen Sie gerne mit uns Kontakt auf.

 

Das Autonome Fahren

Status quo – Autonomes Fahren – Ist 2019 das Jahr?

Das autonome Fahren gilt als ein maßgeblicher Zukunftstrend der Automobilindustrie. Fahrzeuge werden stetig intelligenter, reagieren auf ihre Umwelt und sind zunehmend vernetzt mit Servern, die das Auto über die Verkehrssituation und den Streckenverlauf informieren. Assistenzsysteme, die das autonome Fahren bereits teilweise ermöglichen, werden in nahezu jeder neuen Generation eines Fahrzeugmodells verbaut.

Welche Arten des Autonomen Fahrens gibt es?

Zur genaueren Betrachtung wird das autonome Fahren in mehreren Stufen klassifiziert. Autonomie-Stufe 0 bezeichnet den klassischen Selbstfahrer. Autonomie-Stufe 1 beschreibt das assistierte Fahren wobei ein Abstandsregeltempomat den Fahrer im Verkehr unterstützt. Diese Funktion gehört bei nahezu allen aktuellen Fahrzeugen zum Standard. Bei Autonomie-Stufe 2 geht es bereits um eine Teilautomatisierung. Das Fahrzeug kann dabei selbst die Spur halten, Abbremsen, Beschleunigen und automatisch Einparken, wobei der Fahrer selbst aber immer noch vollständig in der Verantwortung bleibt. In höherpreisigen Modellen ist diese Autonomie-Stufe bereits weit verbreitet. Autonomie-Stufe 3 ermöglicht hochautomatisiertes Fahren. Dabei ist das Auto fähig, bestimmte Aufgaben, wie etwa eine Autobahnfahrt selbstständig zu bewerkstelligen. Der Fahrzeuginsasse kann währenddessen anderen Tätigkeiten nachgehen, wie etwa Zeitung lesen oder am Laptop arbeiten. Allerdings muss er immer noch bereit sein, das Steuer im Ernstfall zu übernehmen. Autonomie-Stufe 4 beschreibt das Vollautomatisierte Fahren. Ein aktiver Fahrer wird nicht mehr benötigt, alle Fahrzeuginsassen werden Passagiere. Die verbauten intelligenten Systeme des Autos übernehmen alle Fahraufgaben. Der Passagier befindet sich außerhalb der Verantwortung und dürfte sogar schlafen. Stufe 5 beschreibt die höchste Stufe, das Vollautonome Fahren. Das Fahrzeug bewerkstelligt jegliche Verkehrssituation und Strecke dabei vollkommen selbstständig und auch Leerfahrten ohne Insassen wären möglich.

Autonomes Fahren – was sind die Vorteile?

Hier ist zuerst die Vision vom unfallfreien Fahren zu beschreiben. Noch immer gibt es in Deutschland über 3.000 Verkehrstote im Jahr. In ganz Europa sind es rund 25.000. Weltweit sollen es laut der WHO sogar deutlich über eine Million Verkehrstote pro Jahr sein. Das Autonome Fahren könnte drastisch dazu beitragen, diese Zahlen zu senken. Ein weiterer Vorteil ist die gewonnene Zeit des Fahrzeuginsassen. Hierzu ein Beispiel: Eine Person, die pro Arbeitstag 2 Stunden Wegzeit im Auto zubringt, hätte bei durchschnittlich 220 Arbeitstagen pro Jahr eine Zeitersparnis von 440 Stunden durch ein autonom fahrendes Fahrzeug. Dies summiert sich auf, immerhin 36 Zwölf-Stunden-Tage, die für andere Tätigkeiten wie z.B. Zeitunglesen oder mobilem Arbeiten genutzt werden können.

Verschiedene Ansätze führen zu Autonomem Fahren

Die etablierten Autohersteller knüpfen an ihr Kerngeschäft an, entwickeln ihre Modelle auf Basis bewährter Tradition weiter und statten die Fahrzeuge mit immer fortschrittlicheren Assistenzsystemen aus. Der technologische Fortschritt könnte bereits innerhalb der nächsten oder übernächsten Fahrzeuggeneration zum Vollautomatisierten Fahren führen. Unternehmen wie die Google-Tochter Waymo oder Uber forschen und testen neben den OEMs ebenfalls am autonomen Fahren. Sie nutzen ihre Erfahrung in der Verarbeitung großer Datenmengen und statten zugekaufte Automodelle mit meist sichtbar vielen Sensoren aus. Der Taxi-Dienstleister Lyft betreibt in Kooperation mit dem Autozulieferer Aptiv zur Zeit 30 umgerüstete 5er BMWs in Las Vegas. Die vielen dafür notwendigen Sensoren sind unauffällig in die Autos integriert. Allerdings ist dabei immer ein Sicherheitsfahrer mit an Bord und die Umrüstung kostet noch mehrere hunderttausend Euro pro Fahrzeug. Alleine in Kalifornien haben über 60 Unternehmen eine Lizenz zum Testen autonomer Fahrzeuge. Nimmt man Arizona hinzu, sollen dort insgesamt bereits über 1.200 autonomer Fahrzeuge auf den Straßen unterwegs sein.

Wo geht die Reise noch hin?

Die neuen Innovationsmöglichkeiten durch autonomes Fahren sind äußerst vielfältig. Verschiedenste Akteure aus Wirtschaft und Wissenschaft wollen daran teilhaben. Um die aussichtsreichsten Chancen zu identifizieren wurde etwa jüngst das Mobility, Experience and Technology Lab (MXT) gegründet. Dahinter steckt eine Kooperation des Fraunhofer-Instituts für Arbeitswirtschaft und Organisation IAO mit der Unternehmensberatung McKinsey. An deren Prototypen kann man genauso wie auf den letzten Elektronikmessen erahnen, wie eine solche Zukunft aussehen kann. Audi zum Beispiel stellte ein Konzeptfahrzeug vor, in dessen Fahrgastzelle sogar Pflanzen wachsen. Das Interieur von Autos kann mit abgedunkelten Scheiben und Liegesitzen zum Schlafzimmer werden, die Windschutzscheibe zum riesigen Bildschirm. Die Themen Komfort, Entertainment und Produktivität während der Fahrt rücken immer mehr in den Fokus.

Neue Geschäftsmodelle durch autonomes Fahren

Durch die fortschreitende Vernetzung der Autos und deren wachsender Fähigkeit zum autonomen Fahren ergeben sich auch neue Geschäftsmodelle. Tesla Chef Elon Musk, oft ein Freund großer Worte und Visionen, erklärte laut Medienberichten, dass die gesamte Fahrzeugflotte des Herstellers bald so autonom fahren könne, dass Eigentümer eines Teslas ihr Fahrzeug als Robotertaxi vermieten könnten. So könnte durch das Auto, während der Zeit, in der es eigentlich ungenutzt geparkt wäre, Geld verdient werden und dieses zur Amortisation desselben beitragen. Musk erwartet sobald dieses Szenario eintritt sogar eine Verzehnfachung des Börsenwerts von Tesla, welcher Stand Anfang Mai 2019 über 43 Milliarden US-Dollar beträgt. Ein weiteres Geschäftsmodell welches sich aus dem Autonomen Fahren ergibt ist der Robomart. Das gleichnamige Start-Up aus San Francisco hat einen autonom fahrenden Supermarkt entwickelt. Bestückt werden die Fahrzeuge von der US-Supermarkt Kette Stop & Shop. Die Fahrzeuge können autonom direkt zum Kunden fahren oder an stark frequentierten Orten parken. In der Stadt Boston ist der Robomart bereits in Betrieb.

Was sind die größten Herausforderungen?

Eine große Herausforderung ist immer noch die technologische Umsetzung. Ein autonom fahrendes Auto benötigt eine Menge teurer Sensoren. So sind beispielsweise in den oben genannten Robotertaxis von Aptiv 2 Kameras, 2 Computer, mehrere Antennen, 10 Radarsensoren und 9 LiDAR Sensoren verbaut. Lidar Sensoren haben eine ähnliche Funktion wie Radarsysteme, basieren aber auf der Lasertechnologie. Laut einer Studie von Deloitte sind die Nutzer allerdings kaum bereit, für ein autonom fahrendes Auto mehr zu bezahlen als für herkömmliche Autos. Auch das Vertrauen in die digitalen Autopiloten ist noch nicht besonders ausgeprägt. Die meisten fühlen sich noch sicherer, wenn sie das Steuer selbst in der Hand halten. Der Verkehr ist ein hochkomplexes Geschehen in dem stets etwas unvorhergesehenes passieren kann, was blitzschnelle, kreative und vernünftige Reaktionen erfordert. Trotz immer besser werdender Systeme kommt es bei den aktuellen Assistenzsystemen vor, dass der Fahrer eingreifen muss. Eine weitere Herausforderung des autonomen Fahrens sind die umfangreichen gesetzlichen Rahmenbedingungen sowie die ethische Komponente. Fragen der Haftung müssen ganz neu gestellt werden. Wer trägt beispielsweise die Schuld an von Computern oder Künstlichen Intelligenzen verursachten Unfällen? Trotz rasanter technologischer Entwicklung bleibt also noch einiges zu tun, bis Autos völlig autonom auf unseren Straßen unterwegs sein werden.

Wie bereiten Sie sich auf die autonome Zukunft vor? Kontaktieren Sie uns von magility gerne für einen fachlichen Austausch.

Brennstoffzelle

Die Brennstoffzelle – Welches Potential hat der Wasserstoff?

Seit Jahrzehnten wird die Brennstoffzelle immer wieder von den Medien und der Industrie als die umweltfreundliche automobile Antriebstechnik der Zukunft schlechthin gefeiert. Seit der Jahrtausendwende zeigen Automobilhersteller oder Zulieferer regelmäßig auf den großen Automessen der Welt, was mit der Wasserstoff (H2) betriebenen Brennstoffzelle in Zukunft möglich wäre. Audi, Daimler, Chrysler, Fiat, GM, Hyundai, Honda, Peugeot, Toyota, VW, alle haben sich bereits an dieser Technologie versucht. Doch neben dem aktuellen Trend hin zu batteriebetriebenen E-Fahrzeugen führt die Brennstoffzelle momentan eher noch ein Schattendasein.

Wie ist die Brennstoffzelle am PKW-Markt vertreten?

Selten wurden aus den auf den großen Messen vorgestellten Modellen Serienprodukte für den Verkauf weiterentwickelt. Einige Hersteller bieten zwar mit Brennstoffzellen betriebene Fahrzeuge an, meist jedoch noch nicht für den Massenmarkt. Aktuell hat beispielsweise Mercedes-Benz das Modell GLC F-Cell im Portfolio. Dieses Fahrzeug steht jedoch nur in Kombination mit einem Leasing und in geringen Stückzahlen für besondere Kunden zur Verfügung. Toyota hat mit dem Mirai sowie Hyundai mit dem Nexo Brennstoffzellenfahrzeuge auf dem neuesten Stand der Technik im Angebot, allerdings befinden sich diese im Preissegment der Oberklasse und sind daher auch wieder nur einem ausgewählten Kundensegment vorbehalten. Noch nie wurden in Deutschland mehr als 120 Brennstoffzellenfahrzeuge pro Jahr zugelassen, die Zulassungszahlen von Brennstoffzellenfahrzeugen haben demnach noch viel Luft nach oben. Das Tankstellennetz für Wasserstoff wächst dabei kontinuierlich, knapp über Hundert Tankstellen werden hierzulande bereits betrieben und über 50 weitere befinden sich aktuell in der Realisationsphase.

Wie funktioniert die Brennstoffzelle?

Brennstoffzellenfahrzeuge sind sogenannte Wasserstoff-Elektroautos. Mit Hilfe von Wasserstoff wird in einer Brennstoffzelle Energie für den Betrieb eines Elektromotors erzeugt. Übrig bleibt als lokale Emission lediglich Wasserdampf. Wasserstoff kann durch ein Elektrolyseverfahren aus Wasser gewonnen werden. Somit steht der benötigte Rohstoff in nahezu unbegrenztem Umfang zur Verfügung. Für die Wasserstoffgewinnung wird jedoch viel Energie benötigt, daher ist ein Brennstoffzellenfahrzeug nur dann als nachhaltig einzuordnen, wenn der getankte Wasserstoff unter Einsatz von regenerativ gewonnenem Strom erzeugt wurde. Um ähnliche Reichweiten wie ein Verbrennungsmotor zu erzielen, wird ein Wasserstofftank in der Regel mit etwa 700 Bar Druck befüllt. Die Technologie gilt als sicher, dennoch machen einige Parkhausbetreiber vorsichtshalber von ihrem Hausrecht gebrauch und verbieten die Einfahrt von Brennstoffzellenfahrzeugen in Ihre Häuser.

Eine Technologie mit viel Potenzial

Auf dem PKW-Markt hat sich die Wasserstoff-Brennstoffzelle noch nicht im gewünschten Ausmaß durchgesetzt. Immer kürzer werdende Ladezeiten und steigende Reichweiten der batteriebetriebenen Elektroautos reduzieren aktuell die Vorteile der Brennstoffzelle. Doch auch außerhalb des PKW-Marktes gibt es noch weitere Anwendungsmöglichkeiten dieser ‘Technologie in Reserve’. Durch das hohe Gewicht sowie die Größe wird der Einsatz von Elektro-Batterien im Schwerlastverkehr noch als suboptimale Lösung betrachtet, da zu viel der wertvollen Nutzlast und -fläche verbraucht wird. Hier liegt großes Potential für den Einsatz der Wasserstofftechnologie.

Politik und Unternehmen glauben an die Brennstoffzelle

Die Regierungen fünf norddeutscher Bundesländer haben jüngst eine Wasserstoffstrategie vorgestellt. Sie fordern von der Bundesregierung sowie der EU die rechtlichen und steuerlichen Rahmenbedingungen, die für den Ausbau einer Wasserstoffinfrastruktur nötig sind. In Hamburg fahren auf öffentlichen Straßen bereits mit Brennstoffzellen betriebene Busse. Zwischen Cuxhaven und Buxtehude fährt ein entsprechender Zug.

In der Schweiz besteht ein ähnliches Bündnis. Gemeinsam mit der Politik wollen die Supermarktketten Migros, Coop und weitere Unternehmen 1.000 wasserstoffbetriebene LKW bis zum Jahr 2023 auf die Straßen des Alpenstaats bringen. Die LKW werden von Hyundai entwickelt und in einem Pay-per-use-Modell zur Verfügung gestellt. Die örtlichen Tankstellenbetreiber haben zugesichert, parallel ein Tankstellen-Netz für Wasserstoff aufzubauen. Auch Toyota stellte vor kurzem einen, in Kooperation mit dem US-Unternehmen Kenworth entwickelten, Brennstoffzellen-LKW vor. Als Mobilitätspartner der Olympischen Spiele 2020 in Tokyo plant Toyota die Bereitstellung von 100 Bussen und 6.000 Mirai-Limousinen. Die Brennstoffzellenfahrzeuge sollen der Technologie global zu höherem Ansehen in der Öffentlichkeit verhelfen.

Weitere namhafte Branchenführer verstärken ihr Engagement

Audi hat angekündigt sein h-tron genanntes Wasserstoffprogramm massiv auszubauen.  Davon soll markenübergreifend der gesamte VW-Konzern profitieren. Auch Bosch startet in Kooperation mit dem schwedischen Unternehmen Powercell eine große Offensive. Beide glauben an einen langfristigen Erfolg der Wasserstoff-Brennstoffzelle. Durch zukünftige Skaleneffekte und Effizienzsteigerungen erwartet Bosch eine Durchsetzung der Technologie in bestimmten Anwendungsbereichen wie beim Schwerlast- und Busverkehr, Güter- und Personentransport auf Strasse und Schiene und in der öffentlichen Energieversorgung, die ein Investment legitimieren soll. Selbst das sogenannte Batterieland Korea setzt auf Brennstoffzellenfahrzeuge. Dies sollte laut Volker Blandow, dem Global Head of e-mobility vom TÜV Süd, deutschen Autobauern mehr als die Augen öffnen. Er plädiert wie Bosch für die Brennstoffzelle und spricht von einem ‘Tesla-Schock’ dem die deutschen Autohersteller hinterherrennen und dabei den Blick auf alternative Erfolgschancen zu verlieren scheinen.

Auch China verstärkt die Relevanz der Brennstoffzelle

Die chinesische Führung hat in ihrem aktuellen sogenannten Fünfjahresplan vorgegeben in die Brennstoffzellentechnologie zu investieren. Bis 2030 sollen zudem im ganzen Land 3.000 Wasserstofftankstellen eingerichtet werden. Tausende Busse fahren dort bereits mit Wasserstoff. Sollte sich in China die Wasserstoff-Brennstoffzelle auch nur zum Teil etablieren, würden sich durch die Größe des Landes sowie zu erwartende erfolgreiche Anwendungsbeispiele auch für europäische Unternehmen hohe Geschäftschancen ergeben. Die mittelfristige Zukunft wird also zeigen, was aus der durchaus als sinnvoll zu betrachtenden Technologie noch werden wird. Die Potenziale sind da und wichtige Player am Markt involviert. Es bleibt abzuwarten ob die Brennstoffzelle aus ihrem Schattendasein befreit und ins rechte Licht gerückt wird. Wir von magility beobachten gespannt die weitere Entwicklung und berichten über die neuesten Trends. Kommen Sie gerne auf uns zu wenn Sie an Marktstudien, High-Tech Themen und innovativen neuen Geschäftsmodellen interessiert sind. Unsere Experten sind gerne für Sie da.

kritische Infrastrukturen

Cyber Security für kritische Infrastrukturen

Heutzutage gibt es kaum mehr einen Bereich im öffentlichen Leben der nicht mit fortgeschrittenen Technologien ausgestattet ist. Industrielle Kontrollsysteme, kurz ICS (Industrial Control Systems) stecken in allen Infrastrukturen. Für das Funktionieren der Gesellschaft sind ICS überlebensnotwendig. In welchen Dimensionen diese Einfluss auf unser Leben haben, wird deutlich, wenn man sich die Einrichtungen betrachtet, die ohne ICS heute schon nicht mehr sicher funktionieren. Zu nennen sind hier zum Beispiel Krankenhäuser, Kraftwerke, Wasserversorgung, Minenförderbänder und Ölraffinerietürme. Dazu kommen auch Alarme von Gebäudeinformationssystemen. Kritische Infrastrukturen wie diese, sind auf die einwandfreie Funktionstüchtigkeit und auf die Sicherheit der verbauten Systeme angewiesen.  

Schnelle Reaktion auf Auffälligkeiten

ICS werden häufig über ein Überwachungs- und Datenerfassungssystem, kurz SCADA (Supervisory Control and Data Acquisition), verwaltet. Ein SCADA stellt die grafische Benutzeroberfläche für die Bediener bereit und erlaubt Zugriff auf Kontrollfunktionen. Damit kann der Status eines Systems ohne großen Aufwand überwacht sowie Alarmsignale empfangen werden um Auffälligkeiten umgehend erkennen und beheben zu können.

ICS- und SCADA-Technologien werden immer häufiger eingesetzt. Dabei erfolgt die Kommunikation innerhalb der Systeme heute zunehmend auf Basis von Transmission Control Protocol (TCP)-basierten Internettechniken. Das macht die Technologie und ihre zugehörigen Geräte im Industrial IoT (IIoT) zu einem attraktiven Ziel für Hackerangriffe. Dabei können beispielsweise die Software lahmgelegt, Lösegeld erpresst oder die gesamte kritische Infrastruktur gefährdet werden. Angriffe auf SCADA- und ICS-Systeme können nicht nur die Sicherheit von Mitarbeitern beeinträchtigen, sondern im schlimmsten Fall Ausfälle in der öffentlichen Versorgung auslösen, wenn beispielsweise die Wasser- oder Stromversorgung lahmgelegt wird.

Cyber-Angreifer kommen aus unterschiedlichsten Bereichen

Angreifer von kritischen Infrastrukturen haben den unterschiedlichsten Hinter- und Beweggrund. Häufig stecken sowohl internationale Nachrichtendienste, Nerds als auch kriminelle oder extremistische Organisationen hinter einer solchen Cyber-Attacke. Bei einem Angriff versuchen es die Angreifer meist mit sogenannten Targeted Attacks. Diese Targeted Attacks haben zum Ziel, Daten zu stehlen, die in Infrastrukturen oder den Backends zusammenlaufen. Oft wird ein solcher Angriff über mehrere Phasen ausgeführt und kann deshalb über einen längeren Zeitraum andauern und hochkomplex gestaltet sein. Diese Komplexität ist der ausschlaggebende Grund dafür, dass ein Angriff oft unbemerkt bleibt und die Entwicklung von Abwehrmaßnahmen sich nur schwer gestalten lässt. Dies kann verheerende Folgen nach sich ziehen.

Mehrschichtiger Schutz gegen Cyber Angriffe notwendig

Damit SCADA- und ICS-Systeme reibungslos funktionieren und sicher gegenüber Cyberangriffen sind, brauchen sie einen mehrschichtigen Schutz. Dieser minimiert Risiken signifikant und erschwert es Angreifern erheblich, bis zu sicherheitskritischen Funktionalitäten vorzudringen. Dazu müssen Abwehrmaßnahmen in Kombination, sowohl auf Geräteebene, als auch auf der Ebene des Netzwerks, installiert werden. Unternehmen brauchen also heute mehr denn je eine umfassende Sicherheitsarchitektur mit integrierten mehrschichtigen Security-Lösungen.

Einfallstore für Cyber Angriffe auf kritische Infrastrukturen

Die Sicherheitslücken bei ICS- und SCADA-Systemen haben sich in den letzten Jahren immer mehr in die Erfassungs- und Darstellungsebene verlagert. Die immer weiter verbreitete Nutzung von webbasierten Human-Machine-Interfaces (HMI)-Systemen erleichtert es Cyber-Angreifern, in die Systeme vorzudringen, da sich webbasierte HMIs im Vergleich zu Datenkommunikations- und Umwandlungskomponenten im ICS- und SCADA Systemen leichter penetrieren lassen.

Alle ICS- und SCADA-Systeme sind zwar unterschiedlich aufgebaut, die Komponenten Datenerfassung, Datenumwandlung, Kommunikation und Darstellung sind jedoch in leicht abgewandelten Formen bei jedem dieser Systeme vorhanden. Nach Analysen von Qualys befinden sich aktuell in der Darstellungskomponente über die Hälfte der für Hacker interessanten Sicherheitslücken. Diese Komponente ist für die Überwachung und Steuerung der über diverse Kommunikationskanäle eintreffenden Daten zuständig.

Absicherung gegenüber Cyber Angriffen – was ist zu tun?

Ein aktueller umfassender Angriff auf ein ICS- oder SCADA-System, ist der auf Norsk Hydro, einem international führenden Aluminiumhersteller. Aus den öffentlich verfügbaren Informationen geht hervor, dass den Cyber-Angreifern eine breite Angriffsoberfläche zur Verfügung stand. Die mehrschichtige Absicherung der Systeme ist eine komplexe Aufgabe. Um die Sicherheitsinfrastruktur zu verbessern sind grundlegende Sicherheitspraktiken notwendig. Dazu gehören Zugriffskontrollen, rollenspezifische Zugriffe, Patchen und Entfernung von Debugging-Diensten in Kombination mit der Prüfung ob die Systeme versehentlich vom Internet aus erreichbar sind sowie die Etablierung von Auditing Maßnahmen und Schwachstellenanalysen.

Um ICS- und SCADA-Systeme umfassend zu sichern, ist die Integration von Cyber Security Lösungen unbedingt erforderlich. Um aus erster Hand mehr über die Sicherung von ICS- und SCADA-Systemen zu erfahren, interviewten wir von magility Herrn Ilan Barda, Gründer und CEO von Radiflow. Radiflow ist eines der führenden Unternehmen für industrielle Cyber Security Lösungen aus Tel Aviv, Israel. Radiflow bietet mehrschichtige Schutzsysteme und Cyber Security Komplettlösungen für Industrieunternehmen und Betreiber kritischer Infrastrukturen an. Ilan Barda (IB) blickt auf jahrzehntelange Erfahrung in den Bereichen Sicherheit und Telekommunikation zurück. Zuletzt war Barda CEO von Seabridge, einer Siemens-Tochter, die weltweit für das Carrier-Switches-Portfolio von Siemens/Nokia-Siemens verantwortlich ist.

Portrait Ilan Barda, Gründer & CEO Radiflow © Radiflow

Herr Barda, was ist aktuell die größte Herausforderung für die Cyberwelt?

Ilan Barda (IB): Der Trend von Cyber-Attacken im Bereich industrielle Automatisierung weitet sich immer mehr von Angriffen auf kritische Infrastrukturen von Staaten hin zu Angriffen, die auf Betriebsunterbrechungen in Produktionsstätten abzielen, wie im jüngsten Fall von Norsk Hydro, aus. Dies sollte produzierende Unternehmen in höchste Alarmbereitschaft versetzen, mögliche Schwachstellen in ihren Produktionsabläufen zu identifizieren.

 

Wie kann ein Betreiber von ICS / SCADA-Systemen potenzielle Schwachstellen erkennen?

IB: Wir empfehlen mit einer Sicherheitsbewertung des Produktionsnetzwerks zu beginnen. Bei diesem Vorgang werden alle Netzwerkkomponenten und ihre Konnektivität abgebildet und die möglichen Angriffsvektoren analysiert. Im Anschluss sollten die Vektoren mit den Produktionsprozessen abgeglichen werden, um die Risiken zu bewerten und die erforderlichen Maßnahmen nach Prioritäten zu planen.

 

Welche Gemeinsamkeiten bestehen zwischen der Cyber Security für Unternehmen (IT-Sicherheit) und der Cyber Security für industrielle Netzwerke (OT-Sicherheit)? Gibt es Unterschiede?

IB: Durch die Industrie 4.0 werden stetig mehr digitale und vernetzte Systeme in Produktionsnetzwerke integriert, so dass diese den Unternehmensnetzwerken (IT) immer ähnlicher werden. Der Schlüsselfaktor für den Erfolg von Unternehmen ist eine kontinuierliche Fertigung rund um die Uhr. Deshalb werden viele dieser digitalen Produktionssysteme nicht wie die PCs des Unternehmens durch regelmäßige Sicherheitsupdates auf dem aktuellsten Stand gehalten. Der Fokus auf Verfügbarkeit und Produktivität führt darüber hinaus auch dazu, dass unsichere Methoden zur Anwendung kommen, wie z. B. die Nutzung gleicher Kennwörter oder veraltete Systeme beibehalten werden, die nicht über ausreichenden Zugangsschutz und nötige Kontrollmechanismen verfügen.

Wie können ICS- und SCADA-Systeme cybersicher gestaltet werden? Wie können bestehende Systeme nachgerüstet werden?

IB: Die Einführung der Cyber Security in neue ICS- und SCADA-Systeme sollte mithilfe von SDLC (Secure Development Life Cycle) erfolgen, um sicherzustellen, dass das Design alle Sicherheitsaspekte integriert. Dies ist bei bestehenden Netzinfrastrukturen, die sehr umfangreich sein können, nicht zielführend. In diesen Netzwerken sollte die Einführung von Cyber Security Personen, Prozesse und Produkte einbeziehen. Auf Produktebene geht es dabei hauptsächlich um die Einführung von Überwachungssystemen zur Erkennung von Anomalien und Präventionssysteme, die regelkonformen Systemzugang sicherstellen.

Was müssen Investoren bei der Bewertung von Cyber-Investitionen Ihrer Meinung nach berücksichtigen?

IB: ICS- und SCADA-Betreiber sind keine Sicherheitsexperten. Daher ist es wichtig, ihnen benutzerfreundliche Lösungen anzubieten – entweder in Form von Security-Tools, die in die industriellen Systeme integriert sind oder durch die Zusammenarbeit mit einem externen Dienstleister, der Security as a Service anbietet und bei Auffälligkeiten im System einen Alarm an den Betreiber absetzt.

Wenn Unternehmen sowie die öffentliche Hand auf die Unversehrtheit und Sicherheit von Mitarbeitern und der Bevölkerung Wert legen, muss Cyber Security zur höchsten Priorität werden. Wir von magility arbeiten mit Radiflow und anderen Experten für ganzheitliche Cyber Security Lösungen zusammen und unterstützen Sie gerne bei der Implementierung von end-to-end Cyber Security Lösungen in Ihrem Unternehmen. Kontaktieren Sie uns gerne!

E-Mobility

E-Mobility – kommt jetzt der Durchbruch?

Die E-Mobility nimmt Fahrt auf. Während in Deutschland im Jahr 2017 nur rund 25.000 Elektroautos zugelassen wurden, waren es  laut Statista 2018 bereits rund 36.000. Die Neuzulassungen von Autos mit Hybridantrieb stiegen von rund 85.000 im Jahr 2017 auf rund 130.000 im Jahr 2018. Zum Vergleich: insgesamt wurden 2018 laut Auto Motor Sport in Deutschland rund 3,44 Millionen PKWs zugelassen. Der Anteil von Hybridfahrzeugen beträgt gemäß dieser Hochrechnung lediglich etwa 3%, der Anteil von Autos mit reinem Elektroantrieb ziemlich genau 1%. Die ersten Hochrechnungen für das Jahr 2019 deuten darauf hin, dass weiter mit positiven Wachstumsraten zu rechnen ist.

E-Mobility im Rest der Welt

Laut der “Global electric car sales analysis 2018“ von Bart Demandt  wurden im Jahr 2019 weltweit 1,26 Millionen rein batteriebetriebene Autos zugelassen. Das entspricht einer Verdreifachung des Wertes von 2016. Den Löwenanteil beansprucht dabei China mit 61,3% der Neuzulassungen, gefolgt von den USA mit 16,6% und Norwegen mit 3,6%. In Norwegen beträgt der Anteil reiner Elektroautos fast ein Drittel der Neuzulassungen. Nimmt man die hybridangetriebenen Fahrzeuge hinzu kommt Norwegen sogar fast auf die Hälfte und erreicht damit mit den internationale Spitzenwert.

Starke Konkurrenz im Markt für E-Mobility

Noch treibt der kalifornische Elektroautobauer Tesla die etablierte Konkurrenz vor sich her. Im Jahr 2019 war Tesla mit weltweit bisher rund 245.000 ausgelieferten Autos auf Platz 1. Aber auch die chinesischen Hersteller BYD und BAIC sind mit 227.000 bzw. 165.000 ausgelieferten Einheiten im Ranking nicht weit entfernt. Platz vier belegt BMW mit 129.000 Einheiten – der erste deutsche Hersteller im Ranking. Etwas abgeschlagen befindet sich VW mit rund 52.000 Einheiten auf Platz 10 als einziger weiterer deutsche Vertreter, in den weltweiten Top 20.

Legen die traditionellen Hersteller nach?

Wie der Bau von Elektrofahrzeugen heute schon gut funktionieren kann, zeigen einige der bekannten großen OEM’s. Der Hersteller Tesla Motors Inc. ist mit seinen Modellen S, Y und 3 in den Segmenten Limousine Oberklasse, SUV Oberklasse und Limousine Mittelklasse mit E-Fahrzeugen vertreten. Alle drei gelten als die schnellsten Vertreter ihrer Art und haben Batteriekapazität für Reichweiten zwischen 350 und 550 Kilometern. Das erste europäische Modell welches dieser Benchmark nahe kommt ist seit Ende 2018 der I-Pace von Jaguar, ein Mittelklasse SUV. Im selben Segment verkauft Mercedes-Benz inzwischen seinen EQC und Audi zog jüngst mit dem E-Tron nach. Fahrzeugmodelle mit weit geringerer Leistung und Reichweite sind in diesem Vergleich aufgrund der marginalen Verkaufszahlen unberücksichtigt. Porsche will mit dem viertürigen Sportwagen Taycan 2019 seinen ersten Tesla-Konkurrenten am Markt platzieren. Welche der zahlreichen weiteren Modellankündigungen es tatsächlich in den Verkauf schaffen, wird nach Jahren großer Worte seitens der Hersteller jetzt nur noch die Zeit zeigen. Die Branchenmagazine berichten markenübergreifend fast wöchentlich von neu angekündigten E-Modellen.

Ladeinfrastruktur – Knackpunkt für die E-Mobility?

Für den großen Anteil der Marktbeobachter ist ein Erfolg der E-Mobility mit der Entwicklung der Ladeinfrastruktur eng verknüpft. Denn was nützt ein E-Fahrzeug, wenn es unterwegs nicht geladen werden kann? Nur durch Verkäufe an einzelne wohlhabende Technologie- und Ökologie-Begeisterte kann ein Weltkonzern keine milliardenteuren Entwicklungen rechtfertigen. Ionity, ein Joint -Venture der Automobilhersteller Daimler AG, BMW Group, des Volkswagenkonzerns mit Porsche und Audi sowie der Ford Motor Company, hat sich vorgenommen, diese Problematik zu lösen. Ionity hat zum Ziel „entlang europäischer Hauptverkehrsachsen ein Netzwerk leistungsfähiger Schnell-Ladestationen für Elektrofahrzeuge aufzubauen und zu betreiben.“ Ein wichtiger Bestandteil sind dabei Kooperationen mit den Betreibern von Tankstellennetzen. In Deutschland gibt es laut Statista aktuell rund 14.000 Ladesäulen, was einer Verdoppelung des Bestandes alleine im letzten Jahr entspricht. Die Ladezeiten werden durch fortlaufend angepasste aktualisierte Technologie stetig verringert, so soll an den neuesten Modellen ein gesamter Ladezyklus in etwa 30 Minuten realisierbar sein.

Das wichtige Verhältnis von Infrastruktur und Individualität

Der ein oder andere Halter eines E-Fahrzeugs dürfte bei seinen ersten Erfahrungen mit E-Mobility noch an die legendäre erste Fernfahrt mit dem Automobil durch Berta Benz denken, die sich unterwegs ihren Kraftstoff in einer Apotheke besorgen musste. Heute ist ein dichtes Tankstellennetz für die etablierten Kraftstoffe Benzin und Diesel zur Realität geworden. Die E-Mobility ist gerade erst dabei, diesen Entwicklungsschritt zu gehen. Vertreter der etablierten Automobilhersteller wie etwa jüngst VW-Aufsichtsratschef Hans Dieter Pötsch (siehe Handelsblatt) rufen daher auch nach dem Staat, der mit Fördermitteln und gesetzlichen Änderungen den Ausbau eines flächendeckenden Stromtankstellennetzes unterstützen soll. Die von der Bundesregierung gegründete Nationale Plattform für Elektromobilität (NPE) schätzt laut ADAC für das Jahr 2020 einen Bedarf von 70.000 öffentlichen Ladesäulen. Bleibt es bei den derzeitigen Wachstumsraten kann dieses Ziel sogar erreicht werden.

Was kommt noch auf uns zu?

Aufgrund verschärfter gesetzlicher Regelungen zum CO2-Ausstoß bei Automobilen, dem Erfolg von Tesla und einem weiter wachsenden Umweltbewusstsein in der Bevölkerung darf weiterhin von einer steigenden Relevanz der E-Mobility ausgegangen werden. Auch Oliver Blume, Vorstandsvorsitzender der Porsche AG, unterstreicht dies und nennt die E-Mobility inzwischen einen „Jobmotor“. Der Sportwagenhersteller investiert bis 2023 sechs Milliarden Euro in die Technologie für E-Fahrzeuge und will 1.500 neue Stellen in dem Bereich schaffen. Es scheint als käme der Zug, bzw. das E-Auto, langsam aber sicher ins Rollen. Wir von magility betrachten gespannt, wie sich der Markt weiterentwickelt. Neben dem E-Antrieb rücken auch synthetische Kraftstoffe auf Wasserstoffbasis zur nachhaltigen Gestaltung des zukünftigen Individualverkehrs vermehrt in den Fokus. Wird eine einzelne der heute vorhandenen Technologien zukünftig den Markt beherrschen? Wird es der E-Antrieb sein? Werden es die synthetischen Kraftstoffe? Oder ist es denkbar, dass verschiedene Antriebstechnologien, eventuell kombiniert, nebeneinander bestehen können?

In Verbindung mit Digitalisierung, Konnektivität und neuen Mobilitätskonzepten bleibt die Automobilindustrie, was sie schon immer war: eine der spannendsten Industrien überhaupt!

Wir von magility erstellen Trend- und Marktstudien, auch zu High-Tech Entwicklungen. Kontaktieren Sie gerne unsere Experten.  

Die Revolution im Tank – E-Fuels und Power-to-X Kraftstoffe

Neben den immer lauter werdenden Trends der Elektromobilität gibt es noch weitere Ansätze zur nachhaltigen Gestaltung des zukünftigen Individualverkehrs. So rücken Power-to-Liquid bzw. Power-to-Gas Kraftstoffe (Ptx-Kraftstoffe), auch synthetische Kraftstoffe oder E-Fuels genannt, immer stärker in den Fokus. Diese synthetischen Kraftstoffe werden unter Einsatz regenerativ gewonnenen Stromes aus Wasser und Kohlendioxid klimaneutral hergestellt, mit dem Ziel in Zukunft Benzin, Diesel und Kerosin ersetzen zu können. Nicht nur im Mobilitätssektor, auch in der Industrie und dem Gebäude- und Wärmesektor können CO2-Emissionen, durch diese Umwandlungsprodukte aus erneuerbaren Energien, nachhaltig gesenkt werden.

Wie wird E-Fuel hergestellt?

Um nachhaltig E-Fuel herzustellen, dient regenerativ gewonnener Strom als Ausgangsbasis, um ein klimaneutrales Vorgehen zu bewahren. Mit diesem Strom wird Wasser stark erhitzt und der daraus entstandene Dampf im nächsten Schritt in Wasserstoff und Sauerstoff aufgespalten. Der Wasserstoff wird dann in einen Reaktor weitergeleitet, wo er in einem mehrstufigen Prozess mit aus der Luft entnommenem CO2 reagiert und so zu einem flüssigen Energieträger wird, welcher mit Rohöl zu vergleichen ist. Dieser Energieträger kann anschließend in einer Raffinerie zu Diesel, Benzin oder Kerosin veredelt werden. Bei diesem Vorgehen besteht auch die Möglichkeit Methan herzustellen, das wiederum als Treibstoff für Erdgasfahrzeuge genutzt werden kann.

Wie weit ist die Entwicklung fortgeschritten?

Pilotprojekte zu Ptx-Kraftstoffen gibt es von Automobilherstellern sowie der Mineralölindustrie schon einige Jahre. Laut einem Papier des Wissenschaftlichen Dienstes des Deutschen Bundestags aus dem Jahr 2018, gibt es in Deutschland etwa 20 Forschungsprojekte zu diesem Thema. Das bekannteste Projekt wurde von Audi initiiert. In Zusammenarbeit mit dem sächsischen Unternehmen Sunfire produziert der Automobilhersteller bereits synthetisches Methan, das für die sogenannten G-Tron Varianten seiner Fahrzeugflotte verwendet werden kann. Parallel dazu betreiben die beiden Kooperationspartner in Dresden und der Schweiz jeweils eine Anlage zur Herstellung von E-Diesel.

Was sind die Treiber der Entwicklung?

Für traditionelle Hersteller und Zulieferer der Automobilindustrie ist es ein nachvollziehbar und reizvoller Gedanke, durch klimaneutrale Kraftstoffe, die in einem einfachen Verfahren hergestellt werden können, eine ökologische Nachhaltigkeit ihres traditionellen Geschäftsmodells zu erreichen. Viele Experten und Manager äußerten sich noch sehr positiv über E-Fuels und deren Potenzial, bevor die Förderung und Popularität von Elektromobilität zunahm. Der ehemalige ZF-Chef und heute VW-Vorstand Stefan Sommer wurde noch vor zwei Jahren in der Branchenzeitschrift Automobil Produktion mit lobenden Worten zu den E-Fuels zitiert. Tenor seines Statements war, dass man mit diesen neuen Kraftstoffen die bestehende Tankinfrastruktur nutzen könnte und dabei außerdem kaum Veränderungen an der Motorentechnik vorzunehmen hätte. Heute tritt VW als größter Treiber im Branchenwandel hin zur Elektromobilität auf. Wie kommt das?

Warum setzen sich E-Fuels (noch) nicht durch?

Hierfür gibt es gleich mehrere Gründe. Der eine ist politisch. Die Elektromobilität gewinnt zunehmend an Zustimmung seitens des Staates. Umfangreiche Förderungsprogramme sowie ein wachsendes positives Image der batteriebetriebenen Technologie in der Öffentlichkeit verstärken sich gegenseitig. Der Aufbau zweier konkurrierender Systeme gilt als gesamtwirtschaftlich zu ineffizient. Zwar könnten E-Fuels dabei helfen den Verbrennungsmotor klimaschonender weiter zu nutzen, bis sich die Elektromobilität vollständig durchgesetzt hat. Der Wirkungsgrad bei der Herstellung von E-Fuels ist jedoch noch zu gering und die Kosten pro Liter zu hoch, um mit herkömmlichen Kraftstoffen konkurrieren zu können. In den letzten Jahren wurden allerdings regelmäßig Fortschritte bei der Produktion von E-Fuels erzielt. Die Herstellungskosten für einen Liter E-Fuel sanken dabei in den letzten vier Jahren von etwa 5€/Liter auf etwa 2,5€/Liter. Ein Liter herkömmliches Benzin kostet ohne Steuern hierzulande etwa 0,5€. Der Bund Deutscher Industrie (BDI) hält einen Preis von unter 1€/Liter für E-Fuels zwar mittelfristig für machbar, sieht jedoch die Technologie in einer regulativen Sackgasse. Auch der zur Zeit relativ niedrige Ölpreis hat keine positive Auswirkung auf die Investitionsbereitschaft für E-Fuel-Vorhaben.

Wo bestehen die größten Chancen für E-Fuels?

Es ist heute noch nicht abschließend vorhersehbar, wann und ob die Elektromobilität die Dominanz im PKW-Verkehr tatsächlich übernehmen wird. Auch wenn man sich das Szenario zurechtlegt, dass in zehn Jahren 50% der PKW Neuzulassungen in Deutschland auf Batterieautos entfallen, gäbe es immer noch einen riesigen Bestand an Fahrzeugen, die mit herkömmlichen Kraftstoffen betankt werden, erst Recht, wenn man den Blick global ausweitet. Außerdem gibt es Bereiche wie beispielsweise den Schwerlastverkehr sowie die Luft- und Schifffahrt, die von bisherigen Elektrifizierungstrends noch weitgehend ausgenommen sind. Genau dort, wo eine Elektrifizierung technisch nur sehr kompliziert umsetzbar ist, ergeben sich aussichtsreiche Anwendungsmöglichkeiten für flüssige oder gasförmige E-Fuels. Bei einer entsprechenden Gestaltung der steuerlichen Rahmenbedingungen wäre es durchaus technisch möglich,+ Flugzeuge, Schiffe, LKW oder Züge mit E-Fuels klimafreundlicher zu betreiben.

Die Industrie sieht weiterhin Potenzial

Die Anwendung von E-Fuels im PKW-Betrieb steht also noch vor einigen Herausforderungen, vor allem im direkten Wettbewerb mit der Elektromobilität. Dennoch wurde im vergangen Januar ein umfangreiches Projekt mit dem Titel „reFuels – Kraftstoffe neu denken“ gestartet. Dahinter steckt ein Zusammenschluss aus AUDI, Daimler, Porsche, Bosch, Eberspächer, Caterpillar, Freudenberg, Rolls Royce Powersystems, dem KIT der Universität Karlsruhe, dem Verkehrsministerium Baden-Württembergs, Deutschlands größter Raffinerie MiRO und dem Mineralölwirtschaftsverband. Bei diesem Projekt wird interdisziplinär untersucht, wie Otto- und Dieselmotoren mit erneuerbaren Energien und nachhaltigen Rohstoffen zu einem ökologischeren Verkehr beitragen könnten. Denn um die bewährte Motorentechnologien aufzugeben, ist es für die Player im Markt, aufgrund der ungewissen Zukunft in diesem Bereich, noch zu früh.

Auch die Power to X Allianz setzt den Fokus auf klimaneutrale und innovative, auf grünem Wasserstoff basierende, Lösungen und Technologien. Diese Allianz hat sich zum Ziel genommen der Öffentlichkeit aufzuzeigen, wie der Einstieg in diese Technologien gelingen kann. Erst am 11. April diesen Jahres hat die Power to X Allianz ein Markteinführungsprogramm für Power to X-Technologien präsentiert und veröffentlicht. Zu dieser Allianz gehören unter vielen anderen die Audi AG sowie der Verband der Automobilindustrie VDA e.V.

 

Betrachten wir hier also das letzte Aufbäumen eines Ansatzes, der bald der Vergangenheit angehören wird oder entwickelt sich da eine Innovation, welche eine ganze Industrie doch noch unerwartet erneuern kann? Wir sind gespannt darauf welche Erfahrung Sie aktuell in Ihrem Unternehmen mit diesen spannenden Entwicklungen machen und freuen uns auf einen fachlichen Austausch. Kontaktieren Sie uns gerne!

Biohacking

Smart Drugs und Biohacking – Das bessere Ich

Dass Menschen ihre Fähigkeiten ausbauen und verbessern wollen, ist so natürlich wie gewöhnlich. Handwerke, Sportarten, Sprachen und andere Fertig- und Fähigkeiten werden trainiert und erlernt. Wissenschaftliche Erkenntnisse und Produktneuheiten werden heute zu sozialen Trends, die den alten Verbesserungstrieb der Menschheit sogar noch intensivieren. Smart Drugs und Biohacking sind zwei dieser Trends, die aktuell in den Fokus rücken.

Biohacking – Zutritt zum Körper

Da unterschiedliche Akteure mit verschiedensten Hintergründen auf dem Gebiet des Biohacking unterwegs sind, existiert noch keine allgemeingültige Begriffsdefinition. Betrachtet man den Begriff Biohacking genauer, fällt eine Umschreibung dieses Worts nicht schwer. Bio steht für die biologische Beschaffenheit des menschlichen Körpers. Hacking beschreibt einen kreativen Umgang mit der Technik und deren Veränderung. Beim Biohacking geht es folglich um effektive, vermeintlich positive Veränderungen des eigenen Körpers unter individueller Nutzung des Fortschritts von Umweltwissenschaften und Biologie. Das Ziel eines Biohackers ist dabei immer die Erhöhung der eigenen Leistungsfähigkeit und Gesundheit, gemäß dem oft genutzten Slogan “Be the best you can be”.

Die Bandbreite an Biohacks ist groß

Die Möglichkeiten, die sich durch Biohacking ergeben, sind heute schon vielfältig, stecken aber gemessen an dessen Potential immer noch in den Kinderschuhen. So gibt es beispielsweise Biohacker, die sich selbst Grinder nennen und sich kleine magnetische Kugeln in die Fingerkuppen einsetzen, um sich für Magnetfelder zu sensibilisieren. Weiter hat das kleine Unternehmen Cyborgnest ein Implantat entwickelt, das wie ein Piercing am Oberkörper befestigt wird und anfängt zu vibrieren, sobald sich der Träger in Richtung Norden bewegt. Damit soll eine Orientierung ähnlich der von Vögeln möglich werden. Unter die Haut eingesetzte Near-Field-Communication-Chips (NFC), die auf der Radio Frequency Identification (RFID-Technologie) basieren, sind derzeit schon weiter verbreitete Biohacks. Die RFID-Technologie ermöglicht, dass sich Sender-Empfänger-Systeme ohne Berührung und völlig automatisiert identifizieren können. Der Biohacker kann mit diesen implantierten Chips zum Beispiel drahtlos (Auto-)Türen öffnen oder bargeldlos bezahlen.

Was erwartet uns in Zukunft?

Bedenkt man, dass Vertreter der Biohacking-Bewegung ein transhumanistisches Weltbild pflegen, also annehmen, dass ein flüssiger Übergang zwischen Mensch und Maschine mehr und mehr real wird, dann ergeben sich daraus interessante Zukunftsaussichten. Die aktuell möglichen kleinen körperlichen Erweiterungen sind bisher lediglich bessere Piercings mit wenigen digitalen Funktionen. Wearables wie Smart-Watches haben einen weitaus größeren Funktionsumfang. Geht man aber von Cyborgs aus, dem Mischwesen aus Organismus und Maschine, kann in mittlerer Zukunft noch sehr vieles möglich werden, was heute noch als Science-Fiction abgetan wird. Beispiele wären digitale Netzhäute, die Menschen sehen lassen wie ein Adler und, nach dem Augmented-Reality-Prinzip, aus dem Internet geladene Informationen einblenden. In der Theorie könnten alle Körperfunktionen in Zukunft durch Implantate verbessert werden.

Gefahren des Biohackings

Anhänger des Biohackings vertreten oftmals eine Do-It-Yourself-Philosophie. Sie sehen sich als Biopunks und damit nicht als Teil institutionalisierter Wissenschaft. Die Verwendung von selbst entwickelten Produkten, die keinen Testvorschriften unterliegen, sowie selbst durchgeführte Operationen am eigenen Körper, bergen ein erhebliches Gesundheitsrisiko z.B. durch mögliche auftretende Infektionen. Ganz zu schweigen von den unvorhersehbaren Reaktionen des Körpers auf die Implantate, insbesondere wenn diese eine hohe Komplexität mit weit reichender Funktionalität aufweisen.

Smart Drugs – Das Ich und die Chemie

Neben der auf Technologie basierenden Verbesserungen des Körpers, gibt es auch Möglichkeiten diese auf chemischer Basis zu erreichen. Schließlich sind die meisten Körperfunktionen nicht mechanisch oder elektrisch gesteuert, sondern basieren auf chemischen Reaktionen, ganz besonders unsere Gehirnfunktion. Die chemischen Substanzen, die diese Verbesserungen erzeugen sollen, werden unter dem Oberbegriff Smart Drugs gehandelt und diskutiert. Gelegentlich wird auch der Begriff Nootropics dafür verwendet. Gemeint sind Nahrungsergänzungsmittel oder auch Arzneimittel, die eine positive Wirkung auf die Denkleistung versprechen. Durch die Einnahme solcher Mittel soll die Konzentrations- und Lernfähigkeit ebenso verbessert werden wie die Schlafqualität. Die Merkmale von Smart Drugs sind unter anderem das Ausbleiben von Nebenwirkungen, Legalität sowie eine fehlende Toxizität. Leistungssteigernde illegale Drogen wie etwa Amphetamine sind damit nicht gemeint, da diese erhebliche körperliche Schäden verursachen können. Es gibt allerdings eine steigende Anzahl an Individuen, die Anti-Alzheimer-Mittel einnehmen, obwohl keine entsprechende Diagnose gestellt wurde. Die vermeintliche Harmlosigkeit von Smart Drugs ist jedoch nicht abschließend gesichert, genauso wie deren Wirksamkeit meist nicht durch professionelle Studien nachgewiesen wurde. Smart Drugs sind also so etwas wie die chemische Do-It-Yourself-Variante des Biohackings. Die Nutzer orientieren sich mehr an persönlichen Erfahrungsberichten aus der Szene als an wissenschaftlich gesicherten Erkenntnissen.

Smart Drugs weitergedacht

Droht neben einer digitalisierten Entmenschlichung nun auch noch eine “Ritalinisierung” unserer Gehirne? Traditionalisten würden diese Gefahr wohl sehen. Absolute Technologieverweigerer sind aber selten geworden. So wird die Ablenkung durch etwa ein Smartphone meist als weniger negativ gesehen, verglichen mit den Möglichkeiten, die sich durch den Besitz ergeben. Genauso könnte es sich auch bald mit digitalen Implantaten verhalten. Stellt sich in Zukunft heraus, dass es durch bestimmte Pillen kostengünstig und gefahrlos möglich ist, den IQ um 20 Prozentpunkte anzuheben, ist anzunehmen, dass die Mehrheit der Bevölkerung nichts dagegen einzuwenden hat die eigene Lernfähigkeit, das Erinnerungsvermögen sowie die Schlafqualität etc. zu verbessern.

Das Thema bleibt spannend. Wir von magility blicken gerne gemeinsam mit Ihrem Unternehmen auf aktuelle und kommende Trendthemen, um deren Profitabilität zu prüfen und zu bewerten, welche disruptiven Innovationen zu Ihrem Unternehmenserfolg beitragen können.