📞 +49 7024 977 8996 ✉️ info@magility.com

Der Digitale Zwilling – Innovation in der Produktion

Der Digitale Zwilling – Innovation in der Produktion

Bereits seit etwa zwei Jahren ist ein Begriff im Umlauf, der für die digitale Modernisierung von Produktion und Geschäftsprozessen steht: der Digitale Zwilling. Grundsätzlich geht es dabei darum, physische Objekte der Produktion sowie die zugrunde liegenden Prozesse in all ihren Eigenschaften digital zu simulieren. Herstellungsprozesse, die bisher aufwendige Versuche mit Prototypen voraussetzten und dabei einen großen Zeitaufwand und hohe Kosten verursachten, können durch den Digitalen Zwilling am Computer realitätsnah, einfach und kostengünstig durchgeführt werden.

Welche Technologien stehen dahinter?

Der Digitale Zwilling (Englisch: Digital Twin), gilt als eine Schlüsseltechnologie der Industrie 4.0. und ist damit essentiell für die Zukunft der industriellen Produktion. Ausgangsbasis ist die Bestückung aller Maschinen einer Anlage oder sogar einer ganzen Fabrik mit Sensoren, die detaillierte Informationen in Echtzeit über den aktuellen Zustand der Produktion an ein Backend senden. Dort werden die Daten, auch Reports genannt, zusammengeführt und verknüpft. Für eine skalierbare Datenübertragung sorgen Wlan, LTE oder für Prozessdaten Feldbus-Systeme wie etwa EtherCAT. Um die dabei anfallenden großen Datenmengen auch verarbeiten zu können, werden zumeist Methoden und Techniken aus dem Big-Data-Bereich verwendet.

Auf eine detaillierte Auflösung kommt es an  

Der Digitale Zwilling ist im Grundsatz die Weiterentwicklung von schon bestehenden Vorgehensweisen wie etwa der technischen Zeichnung. Im Entwicklungssektor der Automobilindustrie gehört die Arbeit mit virtuellen Prototypen bereits zum Standard. Dies stellt einen maßgeblichen Fortschritt dar. Die Exaktheit der digitalen Kopie ist ausschlaggebend für die Vielfalt der Anwendungsmöglichkeiten solcher Simulationen. Das Ideal besteht darin, die Realität so genau wie möglich in einer Software abzubilden. Daher stammt auch der vielsagende Begriff ‘Zwilling’. Ein digitaler Zwilling ist nicht identisch mit seinem analogen Verwandten, aber er soll ihm möglichst nahe kommen. Wichtig ist: Je mehr Informationen über eine Maschine oder einen Prozess und dessen Auswirkungen im System erfasst werden, desto präziser sind auch die berechneten Vorhersagen, die sich daraus ergeben. Sprechen wir von einem Produkt wie etwa einem Werkstück, so sind es nicht bloß die Abmessungen, die von Bedeutung sind, sondern auch die Materialeigenschaften wie Verschleißdauer, thermische Stabilität oder die Interaktion mit hinzugefügten Bauteilen. Je mehr Parameter für den jeweiligen Gegenstand oder Prozess digital erfasst werden, umso aussagekräftiger werden die darauf aufbauenden weiteren Anwendungsmöglichkeiten. Die Qualität eines Digitalen Zwillings kann daher mit einem Foto verglichen werden, das mit zunehmender Auflösung auch mehr Details abbildet. Insider sprechen daher von der Granularität und der Datendichte, welche das Verwendungspotenzial eines Digitalen Zwillings bestimmt.

Der Digitale Zwilling bringt Vorteile

In der Produktion können Digitale Zwillinge über den gesamten Lebenszyklus eines Produkts entlang der Wertschöpfungskette genutzt werden. Bereits in der Produktentwicklung können mit rein digital erstellten Prototypen alle nötigen Anforderungen getestet werden. Die aufwendige und kostspielige Herstellung physischer Prototypen entfällt. Der Digitale Zwilling kann wie sein analoges Ebenbild getestet und seine spätere Verwendung simuliert werden. Auch die Effizienz und Qualität der realen Produktion kann durch den Einsatz von digitalen Zwillingen gesteigert werden. Dies gilt genauso für die Planung von zugehörigen Lieferungen und Dienstleistungen in der analogen Produktion. Die Begleitung von Herstellungsprozessen durch digitale Zwillinge ermöglicht kürzere Anlaufzeiten, geringere Ausfallraten und eine frühzeitige Erkennung möglicher Probleme. Zulieferer oder Kunden können von Anfang an in den Entwicklungsprozess miteinbezogen werden, um die Erfüllung ihrer Anforderungen direkt digital zu erproben und zu optimieren.

Industrie 4.0 und die Smart Factory

Die Zukunft der Produktion ist also eng verbunden mit dem Digitalen Zwilling. Die intelligente und vernetzte Fabrik wird zur Smart Factory. Wenn jede Maschine und alle Informationen, die beispielsweise von Tanks oder dem Lager kommen können, in einem System zusammengeführt werden, zunehmend auch in der Cloud, dann wird vom Internet-of-Things (IoT) gesprochen. Der Digitale Zwilling ist ein wichtiger Teilbereich der fortlaufenden Weiterentwicklung technologischer Trends, die in dieser Innovation zusammen finden. Die baldige Einführung des schnellen Mobilfunkstandards 5G wird die Vernetzung und Digitalisierung in der Industrie noch weiter beschleunigen.

Der Digitale Zwilling und die Organisation

Über den Einsatz in der Produktion hinaus, ist die Übertragung der gesamten unternehmerischen Organisation und ihrer Prozesse in den digitalen Raum ein weiteres Anwendungsfeld des Digitalen Zwillings. Man spricht dabei vom DTO, dem Digital Twin of Organisations. Ähnlich wie bei der Business Intelligence, geht es dabei um alle live erfassten Operationen, die beispielsweise durch Produktion, Zulieferer, Kundenbestellungen und Mitarbeiter angestoßen werden. Ziel ist die Ermöglichung einer Vogelperspektive auf die Organisation. Auch der Faktor Zukunft kann somit verstärkt berücksichtigt werden. Denn die digitale Spiegelung des Unternehmens erlaubt das Durchspielen, Messen und Auswerten unterschiedlicher Szenarien, was die Entscheidungsgrundlagen für das organisatorische Handeln maßgeblich beeinflusst. 

Welche Szenarien sehen Sie für die Aufstellung Ihres Unternehmens im digitalen Zeitalter als entscheidend an? Setzen Sie sich gerne mit uns zu einer Diskussion in Verbindung.

 

Autonomes Fahren – welche Technologien stecken dahinter?

Autonomes Fahren – welche Technologien stecken dahinter?

Autonomes Fahren gilt als eine maßgebliche Schlüsseltechnologie für die Zukunft des Individualverkehrs. Fahren alle Autos bald von selbst, können wahrscheinlich viele Unfälle verhindert werden. Berufspendler und Reisende könnten während der Fahrt schlafen, arbeiten oder Medien konsumieren. Aber welche Technologien stehen eigentlich hinter der großen Vision vom Autonomen Fahren?

Mehrere Technologien – ein Ziel

Um die angesprochene Vision Wirklichkeit werden zu lassen, werden Autos mit einer Vielzahl unterschiedlicher Sensoren und Systeme ausgerüstet. Schließlich müssen alle Aufgaben eines menschlichen Fahrers übernommen werden. Dazu müssen Sensoren eine umfangreiche und exakte Wahrnehmung 360 Grad um das Auto herum erzeugen, damit eine auf dem höchstmöglichen Standard trainierte Künstliche Intelligenz die Aufgaben des Menschen übernehmen kann und im Idealfall sogar die Kompetenz besitzt, in kritischen Situationen besser und schneller zu entscheiden. Um dies zu gewährleisten und um die höchste Stufe des Autonomen Fahrens zu erreichen, müssen gleich mehrere Technologien sowie deren Datenflüsse kombiniert, ins Fahrzeugsystem integriert und gemanagt werden. Die Ultraschallsensorik ist eine davon. Sie wird nach wie vor für die Nahfeld-Erkennung genutzt. Die sogenannten Parkpiepser sind solche Ultraschallsensoren, die sich schon heute in den Fahrzeugen als Standard durchgesetzt haben. 

Autonomes Fahren und die Augen des Computers

Videokameras spielen bei der Entwicklung des Autonomen Fahrzeugs eine immer bedeutendere Rolle. Sie machen Bilder von der Straße und der Umgebung des Fahrzeugs und “blicken” in alle Richtungen. So kann das gesamte Umfeld 360 Grad um das Fahrzeug herum überwacht werden. Andere Verkehrsteilnehmer, auch im toten Winkel, werden erkannt und die Verkehrszeichen gelesen. Als sogenannte Stereokamera ist es solch einer Kamera auch möglich, Entfernungen zu messen. Je höher die Lichtstärke und Auflösung der Kamera ist, desto exakter kann die Umgebung wiedergeben werden. Aber auch für die Innenraumüberwachung kommen Kameras zum Einsatz. Die Fitness sowie der Gesundheitszustand des Fahrers kann überwacht und seine Eingabebefehle durch Gesten erkannt werden. Als Folge der Entwicklung könnten herkömmliche Rückspiegel bald der Vergangenheit angehören. Audi ist mit seinem neuen Elektro-SUV e-Tron mit windschnittigen Kameras der erste Hersteller, der die Rückspiegel komplett durch Kameras ersetzt. 

Radar – bewährte Technik, ständig weiterentwickelt

Radarsensoren (radio direction and ranging) senden und empfangen Radiowellen, um die Umwelt abzutasten. Sie werden bereits seit 20 Jahren in der Autoindustrie eingesetzt, etwa für den Tempomat, der den Abstand zum vorausfahrenden Fahrzeug konstant hält. Radar kann Objekte erkennen, deren Entfernung, relative Geschwindigkeit und Bewegungsrichtung. Vorteile von Radarmessungen sind die hohe Reichweite und die Robustheit gegenüber Umwelteinflüssen. Ein Nachteil ist jedoch die geringe Auflösung, mit der Objekte erkannt werden. Andere Technologien bilden Objekte wesentlich exakter ab.

LiDAR – die Vermessung der Umwelt mit Licht

Sensoren auf LiDAR Basis (light detection and ranging) funktionieren grundsätzlich ähnlich wie Radar. Der Unterschied liegt in der gemessenen Strahlung. Denn LiDAR-Systeme senden für das menschliche Auge unsichtbare Laserimpulse aus, deren Reflektionen von den Sensoren gemessen werden. Diese Technologie ist exakter, kann also mit höherer Auflösung wahrnehmen. Allerdings ist die Reichweite bei LiDAR-Systemen ein wenig geringer, und die Messungen sind anfälliger für Umwelteinflüsse wie etwa Regen, Nebel oder Schnee. Dunkle Autos reflektieren LiDAR-Strahlen eher schlecht. Deshalb ändern Lackhersteller zur Zeit ihre Formeln, um auch schwarze Lacke besser reflektieren zu lassen. Die LiDAR-Sensoren führen 10.000 Messungen pro Sekunde durch und erstellen so ein aktuelles Abbild der Umgebung, was wiederum schnelle Reaktionszeiten des autonomen Systems ermöglicht.

Ohne High-Speed Datenverarbeitung kein Autonomes Fahren

Es gibt also unterschiedliche Arten von Sensoren, die ständig große Mengen von Daten produzieren. Erst durch deren Kombination, Anreicherung und blitzschnelle Verarbeitung wird Autonomes Fahren ermöglicht. Der Begriff hierfür ist die Sensorfusion. Um die Datenmengen der Sensoren verarbeiten zu können, müssen Autos mit immer schnelleren Prozessoren ausgestattet werden. Die Automobilhersteller und Zulieferer stehen bezüglich Rechenleistung mittlerweile in starkem Wettbewerb zueinander. Über die Daten von Sensoren und Kameras läuft eine Mustererkennung, welche die reale Umwelt strukturiert und so für das System verwendbar macht. Hinzu kommen noch hinterlegte Kartendaten sowie Positionsdaten aus dem GPS Signal. Um diese großen Mengen von Daten zu verarbeiten, werden Methoden aus den Bereichen Big Data und Künstliche Intelligenz implementiert. So kann ein System auch selbstlernend ausgelegt und erworbene Lerneffekte können an die Systeme anderer Autos übertragen werden.

Neben Sensoren, die das Autonome Fahren an sich unterstützen sollen, arbeiten verschiedene Unternehmen daran, aus den gewonnenen Daten weitere Informationen zu generieren, die auch schon bei niedrigeren Automatisierungsgraden von Fahrzeugen das Fahrerlebnis und die Sicherheit verbessern sollen. Die Software des israelischen Startups Tactile Mobility zum Beispiel nutzt Sensorfusion der im Fahrzeug bestehenden Sensoren, um u.a. den Grip Level (Haftungsgrad) der Straße zu bestimmen. Bei Veränderungen der Straßenverhältnisse wird der Fahrer bzw. das autonome Fahrzeug dabei in Echtzeit über Gefahren und Gegenmaßnahmen informiert.

[infobox headline=“Das Wichtigste in Kürze“]

  • Um das autonome Fahren zu ermöglichen müssen mehrere Technologien sowie deren Datenflüsse kombiniert, ins Fahrzeugsystem integriert und gemanagt werden.
  • Die Videokameras des Fahrzeugs spielen eine bedeutende Rolle: Das gesamte Umfeld 360 Grad um das Fahrzeug herum kann überwacht werden, zusätzlich kommt eine Innenraumüberwachung zum Einsatz. 
  • Radarsensoren (radio direction and ranging) senden und empfangen Radiowellen, um die Umwelt abzutasten.
  • Sensoren auf LiDAR Basis (light detection and ranging) funktionieren ähnlich wie Radar, allerdings ist die Technologie exakter und die Reichweite geringer.
  • Durch die Kombination, Anreicherung und schnelle Verarbeitung der Datenmenge der Sensoren wird das autonome Fahren ermöglicht – Man spricht von Sensorfusion.
  • Die Grundvoraussetzung des autonomen Fahren ist die Konnektivität, doch mit wachsender Konnektivität steigt auch das Risiko für Cyber-Crime.

[/infobox]

Welche Entwicklungen stehen noch an?

Konnektivität ist die Grundvoraussetzung für Autonomes Fahren. Ein autonom fahrendes Fahrzeug mit all seinen Sensoren wird auch mit einem Server des Herstellers verbunden sein. So können beispielsweise Verkehrs- und Wetterdaten in Echtzeit berücksichtigt und die Software des Fahrzeugs ständig aktualisiert und optimiert werden. Gerade für die Cyber-Security des Fahrzeugs ist diese Vehicle-to-Backend-Connectivity (V2B) ausschlaggebend. Um einen Cyber-Angriff schnellstmöglichst zu stoppen, sind Over-the-Air (OTA)-Updates unumgänglich. Desweiteren werden die autonomen Fahrzeuge mit der Infrastruktur vernetzt sein, die sogenannte Vehicle to Infrastructure-Connectivity (V2I) sowie untereinander, also Vehicle to Vehicle (V2V). Um die Positionen der autonomen Fahrzeuge zu überwachen und den Verkehr sicher zu steuern, wird in der Zukunft auch die Vehicle-to-Satellite-Connectivity (V2S) mehr und mehr in den Fokus rücken. Auch eine weitere Vernetzung, genannt Vehicle-to-Everything (V2X), ist möglich. Für die Datenmengen, die konnektiv über die verschiedenen Kanäle ausgetauscht werden, reicht der heutige Mobilfunkstandard nicht aus. Erst wenn der schnellere Mobilfunkstandard 5G eingeführt wird, können sich die Fahrzeuge auch untereinander vernetzen (V2V). Jedes Auto könnte dann ein Signal senden um von anderen Verkehrsteilnehmern bereits außerhalb der Sensorreichweite erkannt zu werden. Verkehrsflüsse ließen sich so optimieren und sicherer gestalten. Mit wachsender Konnektivität steigt aber auch das Risiko für Cyber-Crime. Ein autonomes Fahrzeug muss behandelt werden wie ein Computer auf Rädern und benötigt von Grund auf ein ausgereiftes end-to-end Cyber-Security Konzept. 

Ausblick

Um das vollautonome Fahren (Level 5) zu ermöglichen, ist ein ganzes Paket an unterschiedlichen Technologien notwendig. Für die Automobilindustrie ist das Autonome Fahren momentan an Komplexität nicht zu übertreffen. Es geht nicht nur um die Technologien im Fahrzeug. Viele weitere Faktoren, wie das Management der Datenmengen, festgelegte Normen, datenschutzrechtliche Vorgaben, Cyber-Security-Themen, die momentan vorzufindenden Standards, wie der Mobilfunkstandard, sowie der Ausbau der Infrastruktur müssen gleichzeitig betrachtet oder ausgebaut und in optimaler Weise zueinander in Beziehung gesetzt werden. Warum es in den nächsten Jahren eher unrealistisch ist, dass wir im öffentlichen Straßenverkehr vollautonome PKW vorfinden werden und weshalb sich vollautonome Fahrzeuge voraussichtlich erst im Bereich der Nutzfahrzeuge etablieren werden, klären wir in einem unserer nächsten Artikel.  Wir freuen uns auf einen regen Austausch zum Thema. Kontaktieren Sie gerne unsere Experten bei Magility!