Beiträge

Israels Startup Ecosystem – Innovationsschmiede für die Welt

Die Startup Szene ist Israel ist im weltweiten Vergleich einmalig, die pulsierende Stadt Tel Aviv ist deren Mittelpunkt. Was macht die dortige Startup Kultur so besonders?

Es geht den Firmengründern dort hauptsächlich um das Ausprobieren von Ideen und um das kreative Lösen von zukünftigen gesellschaftlichen Herausforderungen. Es geht vorrangig nicht um den Aufbau großer Konzerne, sondern um das Gründen von innovativen Unternehmungen und das Umsetzen einer Vision. Das macht Tel Aviv heute zu einer attraktiven dynamischen Gründer-Metropole mit frischem Wind für innovative Gedanken und Vorhaben, voll von kreativen Persönlichkeiten und deren ‘pushy’ Unternehmertum.

Höchste Startup Dichte weltweit

Nirgendwo anders auf der Welt gibt es ein derartig florierendes Ecosystem für innovative Neugründungen. In Israel werden jährlich etwa 1400 neue Startups gegründet. Zwar scheitern etwa 80 Prozent davon, es bleibt aber immer noch eine beträchtliche erfolgreicher Startups bestehen von denen einige zu größeren Unternehmen heranwachsen. Viele der dort gegründeten Startup-Erfolgsunternehmen konnten in der Vergangenheit hohe Verkaufspreise durch Exits an ausländische Technologieunternehmen verzeichnen.

Wem Tel Aviv bisher noch nicht als Innovationsmotor der Startup Szene bekannt war, der muss sich spätestens jetzt mit der pulsierenden Mittelmeerstadt auseinandersetzen.

Rahmenbedingungen für den Erfolg

Warum gerade Israel? Welche Rahmenbedingungen begünstigen die zahlreichen Gründungen?

Fragt man Startup-Gründer aus Israel, erhält man häufig die Antwort, dass Israel selbst erst ein junger Staat sei und man als Israeli daher von Anbeginn an das Gründen an sich aktiv lernt. Außerdem müssten die Menschen dort stetig improvisieren, was auch der Natur des Gründens entspricht. Saul Singer, Buchautor des Werkes “Start-Up Nation Israel” fasst zusammen:

Wir sind ein kleines Land. Wir haben keine natürlichen Ressourcen. Und wir leben inmitten in einer uns feindlich gesinnten Nachbarschaft. Damit mussten wir immer klarkommen. Wir mussten diese Herausforderungen stets bewältigen – auch mit Innovationen. Lange Jahre ging es dabei vor allem um unsere Verteidigung. Erst später wurden wir zur Start-Up-Nation. Es ist ganz einfach: Wir mussten erfinderisch sein, um zu überleben.“

Lösungsorientierter Erfindergeist, das ist es, was Israel bis heute ausmacht. Der große Traum vieler junger Israelis ist es heute, ein eigenes Unternehmen zu gründen.

Die Welt verändernde Technologien kommen aus Israel

Singer fasst zusammen, dass Israel in seiner gesamten Geschichte, seit Gründung des Staates bis heute nur von drei Generationen geprägt wurde. Die erste Gründergeneration des Staates Israel machte die Natur bewohnbar und gründete Kibbuze. Die zweite Generation kämpfte in mehreren Kriegen gegen die arabischen Nachbarländer und die jetzige Generation führt das Land durch den Innovationsmotor der Startups. Diese Innovationen sind jedoch nicht nur für Israel wichtig, sie könnten sogar die ganze Welt verändern. Der USB Stick stammt aus Tel Aviv, genauso wie die neueste Gesichtserkennungssoftware von Apple und auch die Sicherheitssysteme gegen Cyberangriffe bei vernetzten Autos, die heute auf den Straßen rollen.

Wichtige Technologien entwickeln und sie weltweit einsetzbar machen – das ist die Vision vieler israelischer Startups. Visionär sind diese Unternehmen und deren Bescheidenheit zählt zur Erfolgsformel. Und damit sind sie wirklich sehr erfolgreich.

Markteintritt und Vertrieb entscheidende Kompetenz

magility begleitete bereits Startups aus Israel beim Wachstum der eigenen Firma. Den Markteintritt schaffen und sich erfolgreich im europäischen Markt positionieren – das steht im Mittelpunkt der Arbeit von magility für israelische Technologie Startups. Zwar bringt Israel sehr viele Startups hervor, die Märkte für die dort entwickelten Produkte liegen jedoch ausschließlich außerhalb des Landes. Daher waren die USA und die EU, im Schwerpunkt Deutschland die größten Zielmärkte.

Europäische Unternehmen erkennen Chancen

Immer mehr deutsche und europäische Unternehmen erkennen die Chancen und Möglichkeiten durch die Zusammenarbeit mit israelischen Startups. Deutschland wird mehr und mehr Absatzmarkt und Zielmarkt für Firmenverkäufe. Doch sowohl Europa als auch die USA sind geografisch weit entfernt und unterscheiden sich auch im kulturellen Geschäftsgebaren von Israel. Deswegen brauchen israelische Startups sogenannte ‘Mittler’. Mittler kennen den Zielmarkt und haben gute Kontakte zu relevanten Entscheidungsträgern.

magility begleitete bereits israelische Startups aus dem Automotive Bereich, dem Maschinenbau sowie im Anwendungsfeld von Künstlicher Intelligenz. Internationaler Footprint, Agilität im Handeln und konsequente Markterschließung sind heute mehr denn je die Schlüsselerfolgsfaktoren für Startup Unternehmen. Durch die fortwährende Begleitung und Beratung der Startups durch magility konnten einige davon bereits hohe Verkaufspreise bei europäischen Konzernen erzielen und sich als wichtige Marktteilnehmer in den europäischen Zielmärkten etablieren.

Kontaktieren Sie uns gerne für weitere Informationen bezüglich der Begleitung von Startups und B2B Markterschließung – gerne auch außerhalb von Israel!

 

Brain to Vehicle - Steuern mit Gedanken. Foto: Unsplash

Brain to Vehicle Technologie – Der Fahrer denkt, das Auto lenkt

Fahrerassistenzsysteme stehen aktuell hoch im Kurs. Länger schon existiert die Idee, Fahrzeuge per Gedanken zu steuern. Bei der Brain-to-Vehicle Technologie lässt sich das Fahrzeug durch das Gehirn des Fahrers steuern, statt physische Befehle zu erteilen. Es handelt sich dabei durchaus nicht um Zauberei sondern um angewandte Wissenschaft. Doch wie funktioniert die Gedankensteuerung und was bedeutet diese neue Technologie für das autonome Fahren?

Brain Driver – Steuerung via Gehirn

Bereits 2011 war der Wissenschaftler Henrik Matzke in den Schlagzeilen. Auf dem Tempelhofer Feld in Berlin wurde vorgeführt, wie er ein Auto steuert, ohne die Hände am Lenkrad oder die Füße am Pedal zu haben. „Projekt Brain Driver“ hieß das wissenschaftliche Projekt von Autonomos, mittlerweile ein Tochterunternehmen von Tomtom, dem Hersteller von Navigationsgeräten. Schon damals konnte bewiesen werden, dass ein Fahrzeug auch ohne aktiv lenkenden Fahrer navigiert werden kann. Möglich wird dies durch die Messung der Hirnströme sowie Radar- und Lasersensoren, die die Umgebung erfassen. Über das menschliche Gehirn, sozusagen einem ‘Human Computer’ im Auto, kann das Fahrzeug elektronisch gelenkt oder ein Pedal getreten werden. So konnte Henrik Matzke schon vor vielen Jahren ohne Berührung oder Sprachbefehle mit 60 km/h über die Teststrecke in Berlin fahren.

Doch wie funktioniert die Technik genau?

Es handelt sich bei der Technologie nicht um Gedankenübertragung. Der Fahrer trägt eine Kappe mit Sensoren, wie sie auch bei einem EEG (Elektroenzephalogramm) eingesetzt wird. Aus den Hirnströmen können dann Muster abgeleitet werden. Der Bordcomputer ermittelt daraus den Befehl des Fahrers und übermittelt ihn an die Fahrzeugmechatronik, welche durch die Aktuatorik reagiert. Um das Fahrzeug zu manövrieren, braucht es im Wesentlichen nur die Befehle schneller, langsamer, rechts, links, wie etwa bei einem Computerspiel.

Brain to Vehicle – Autobauer experimentieren

Aktuell stattet Nissan einige Autos mit der „Brain to Vehicle Technologie“ aus. Das Assistenzsystem verspricht, laut Nissan, das weltweit erste System zur Echtzeiterkennung und -analyse von Gehirnaktivitäten im Zusammenspiel mit dem Autofahren zu sein. Die Idee dahinter ist, dass das System Vorhersagen treffen und das Fahrzeug folglich auf Gefahren und Manöver schneller reagieren kann als der Fahrer selbst. Die Reaktionszeit wird optimiert, um menschlich langsamen Versagen zuvorgekommen. Durch diese Technologie  verspricht man sich eine Verbesserung der Safety. Auch bei dieser “Brain to Vehicle Technologie” muss der Fahrer noch eine mit Sensoren ausgestattete Kappe tragen, welche relevanten Gehirnströme misst.

Gehirn-Computer-Schnittstelle – Fraunhofer IAO forscht

Auch das Fraunhofer IAO forscht und entwickelt an einer neuro-adaptiven Gehirn-Computer-Schnittstelle (BCI), die auf menschliche Emotionen reagiert. Hier klingt das Ganze aber noch etwas zurückhaltender. Aktuell könne das System noch nicht angemessen auf menschliche Emotionen reagieren. Es wird weiterhin an zuverlässig nutzbaren Methoden geforscht, um Emotionen aus den Hirnströmen der Nutzer zu erkennen und entsprechende Handlungen abzuleiten. Algorithmen suchen in der Gehirnaktivität von Probanden nach Mustern, die sie ans System weitergeben können. Daraus ist ein erstes Produkt – eine App – entstanden, die die jeweilige aktuelle Emotion live anzeigt. „Wir sind auf dem Gebiet technologisch schon sehr weit, wie die Beispiele zeigen. Auch beim automatisierten Fahren spielen nicht-physische Befehle eine große Rolle und bringen neue Entwicklungen für die Automobilbranche. An den Algorithmen wird aber noch geforscht und KI ist hier natürlich auch ein wichtiges Thema“, schätzt der Geschäftsführer von Magility, Dr. Michael Müller den aktuellen Stand der Technologie ein.

Die Zukunft des BCI – Wie filtert der Computer die richtigen Gedanken?

In wissenschaftlichen Experimenten und Studien funktionieren die Experimente im Zusammenhang mit automatisiertem Fahren bereits, allerdings unter kontrollierten Bedingungen. Was aber, wenn wir gestresst sind, die Unterstützung des Systems gar nicht brauchen oder das System unsere Gedanken falsch interpretiert? Würden wir uns beim Fahren freiwillig eine Sensorkappe aufsetzen, die permanent unsere Hirnströme misst? Sicher ist bereits, dass Computer wiederkehrende Gedankenmuster auswerten und in Fahrbefehle übersetzen können. In der Vision vom autonomen Fahren ist die Gehirnsteuerung ein Experiment, die durch das fahrerlose Fahrzeug aber ohnehin überflüssig wird. Denn dann übernimmt die Maschine das Steuer und der Mensch kann sich entspannt zurücklehnen.

 

Biometrische Authentifizierung - Was bringt das für die Automotive-Branche? Bild: CC0

Biometrische Authentifizierung – Wie bringen sie uns in der Automobilindustrie weiter?

Biometrische Authentifizierungsverfahren versprechen mehr Sicherheit als Zahlenkombinationen, PINs oder Passwörter. Anhand biologischer Merkmale können wir in Zukunft zweifelsfrei unsere persönlichen Daten schützen, Autos starten oder unsere Identität beweisen. Computer werden die Merkmale eindeutig und zuverlässig entschlüsseln können. Welche Vorteile entstehen durch die biometrische Authentifizierung für die Automobilindustrie und welche Risiken birgt die neue Technologie?

Was bedeutet Biometrie

Anhand von biologischen Charakteristika, wie Fingerabdruck, Augeniris oder Stimme können schon heute Benutzer identifiziert werden. Ein Scanner liest die biologischen Merkmale aus und wandelt sie in digitale Information um, so dass ein Computer sie entschlüsseln und verifizieren kann. Biometrie ist also die digitale Auswertung von biometrischen Merkmalen zur eindeutigen Identifizierung einer Person.

Was hat das mit Fahrzeugen zu tun?

Die biometrische Authentifizierung wird bereits an verschiedenen Stellen angewendet. Am Flughafen oder um Smartphones und Computer zu entsperren. Jedes Premium-Smartphone hat mittlerweile einen Fingerabdrucksensor, der es ermöglicht das Telefon anhand des Fingerabdrucks zu entsperren. Doch wo wird das Verfahren der biometrischen Authentifizierung noch angewendet?

Fahrzeug startet durch den Fingerabdruck

Vor einigen Jahren nutzte die Filmindustrie es noch als perfektes Science Fiction Szenario, durch Fingerabdrücke und Gesichtscans Türen zu öffnen, hinter denen geheime Treffen stattfanden. Die Anwendung ist weniger spektakulär, dafür aber höchst nützlich und naheliegend. Im Connected Car zum Beispiel, spielt die biometrische Authentifizierung eine stetig wachsende Rolle. Autos können mittels Irisscanner gestartet und der Carsharing-Wagen durch einen Fingerabdruckscan ausgeliehen werden. Biometrische Authentifizierung ersetzt an dieser Stelle den Schlüssel. Das kann im Alltag nützlich sein, da kein physischer Schlüssel mehr mitgenommen oder übergeben werden muss. Eine große Rolle werden die Verfahren aber vor Allem für Künstliche Intelligenzen spielen, wie die von Amazon, Apple oder Mercedes. Etwa dadurch, dass sie nur auf eine individuelle Stimme reagieren oder sich nur von ausgewählten Nutzern bedienen lassen. Momentan funktionieren die meisten Stimmerkennungs-Systeme, die auf dem Massenmarkt vertrieben werden, zwar schon recht gut, allerdings erkennen sie noch nicht wer spricht. Diese Tatsache ist eine beträchtliche Sicherheitslücke. Erst durch ein biometrisches Authentifizierungsverfahren können die Potenziale der digitalen Assistenten richtig genutzt werden.

Bequemes Verfahren aber heikel bezüglich des Datenschutz

Aktuell ist das Verfahren vor allem bequem. Unter dem Aspekt der Cyber Security, bei sicherheitskritischen Anwendungen, allerdings noch nicht zu empfehlen. Biometrische Daten gehören zu den personenbezogenen Daten. Die Erhebung und Speicherung muss also den strengen Datenschutzrichtlinien entsprechen.

Fazit: Die Technologie muss reifen

„Die Technologie wird sich vor allem durchsetzen, wenn sie sich durch bessere Sicherheit beweisen kann, als die bekannten Verfahren sie derzeit bieten“, kommentiert Dr. Michael Müller, Geschäftsführer der magility GmbH die biometrische Authentifizierung. Solange werden wir noch mit PINs, Passwörtern und Schlüsseln arbeiten. Das ist aber nur noch eine Frage der Zeit. Durch Firmen wie beispielsweise VocalZoom wird sich das schon bald ändern. Die HMC-Sensoren von VocalZoom ermöglichen die Verwendung von Sprache als Authentifizierungsfaktor für eine wachsende Palette von personalisierten Online- und mobilen Finanz-, Gesundheits-, Hausautomations- und anderen sicheren Cloud-basierten Diensten.

 

Neuromorphic Computing ist die nächste Generation der Künstlichen Intelligenz und bringt auch technologische Fortschritte in der Automotive-Industrie. Foto: CCO

Neuromorphic Computing – Neuronale Netze mit enormer Leistung

Die Zukunft der Künstlichen Intelligenz heißt Neuromorphic Computing. Dabei sind die Computer nach Vorbild des menschlichen Gehirns konstruiert, wobei die Funktionsweise von menschlichen Neuronen nachempfunden wird. Ziel der Neuromorphic Technologie ist es, Sinnesorgane nachzubilden oder zu simulieren, wie beispielsweise die Netzhaut des Auges, das Innenohr oder auch Teile des Gehirns. Langfristig sollen diese Computer Entscheidungen treffen oder sogar ins menschliche Nervensystem integriert werden können. Vor allem in der Industrie wird diese neue Technologie in Zukunft große Beachtung finden. Als autonome Roboter, im Bereich autonomem Fahren oder auch der Sensorik. Doch was bedeutet Neuromorphic Computing und was wird es uns in Zukunft bringen?

Die Zukunft heißt Neuromorphic Computing

Perspektivisch werden kognitive Computer entwickelt, die komplexe Daten analysieren können und anhand von erlerntem Wissen Vorhersagen treffen. Zentral dafür sind neuromorphe Chips, also Mikrochips, die nach Vorlage menschlicher Nervennetze gefertigt werden. Damit sollen diese Chips auch die Sensorik des Menschen abbilden. Unterstützt werden die Chips dafür mit spezifischer Hardware, die etwa Gerüche oder Geräusche aufnehmen kann. Die Chips unterscheiden sich von der gegenwärtigen Technik durch höhere Energieeffizienz und geringeren Platzbedarf.

Neuer Chip von Intel ist dem Gehirn nachempfunden

Neuromorphic Computing statt Deep Learning. Ein Beispiel dafür ist der Testchip Loihi von Intel. Insgesamt soll der Chip 130.000 Neuronen sowie 130 Millionen Synapsen haben. Dadurch ist Loihi leistungsfähiger als bisherige Modelle und kann stetig dazulernen. Laut Intel lässt sich der selbstlernende Chip in fast allen Bereichen anwenden. Im Bereich Automotive, in der Industrie, in autonomen Robotern, maschinellem Sehen oder maschinellem Hörverstehen. Entsprechende Algorithmen zur sparsamen Codierung, zur Wegfindung oder zum Wörterbuch lernen, haben Intel und andere Unternehmen in der Vergangenheit bereits umgesetzt. Der neue Chip wurde auf der CES 2018 in Las Vegas vorgestellt.

Gegenwärtige KIs

Aktuelle KIs wie Apple’s Siri oder Alexa senden Daten an ein Rechenzentrum, gleichen diese ab und bekommen eine Rückmeldung. Sie basieren auf Clouds, da die Rechenleistung der Elektronik gegenwärtig noch nicht ausreicht um die verarbeitungsintensiven Algorithmen auszuführen, die für maschinelles Lernen benötigt werden. Die typischen Prozessoren, die in den meisten Smartphones verbaut sind, könnten kein System wie Siri auf dem Gerät ausführen. Die Rechenleistung der Chips wird aber in den nächsten Jahren weiter steigen, bei weniger Energieverbrauch.

Forschungszentrum für Neuromorphic Computing in Baden-Württemberg

Eines der größten Forschungszentren für Neuromorphic Computing entsteht derzeit in Baden-Württemberg. In Heidelberg werden Millionen investiert um die Technologie und Forschung in den nächsten Jahren voranzutreiben. Ziel der Forschung ist der Aufbau eines großen neuromorphen Systems mit besonders ausgeprägten Lernfähigkeiten, die in interdisziplinärer Zusammenarbeit mit theoretischen Neurowissenschaftlern entwickelt werden.

Durch Neuromorphic Computing entstehen zahlreiche neue Geschäftsmodelle und Möglichkeiten von denen wir bisher nur träumen konnten. Wir von Magility, als ihr Partner für neue digitale Geschäftsmodelle, beraten Sie gerne.

CES Las Vegas – Volocopter, MBUX und Künstliche Intelligenz

Die Consumer Electronics Show (CES) in Las Vegas zeigte letzte Woche die aktuellen Tech-Trends, auch für Mobilität und Automotive. Vieles was vor wenigen Jahren noch als Science Fiction abgetan wurde ist auf der CES 2018 real geworden. Magility war vor Ort, um sich über die neusten Trends, Visionen und Start-ups zu informieren.

Fliegende Taxis bei der CES

Mobilität der Zukunft ist eines der heißen Themen der CES 2018. Das fahrerlose Elektroauto ist natürlich ein Dauerbrenner. Aber in diesem Jahr wurde auch die fliegende Variante in Las Vegas vorgestellt. Zu den Stars der Messe zählt das badische Start-up Volocopter. Das Unternehmen baut ein fliegendes E-Taxi made in Karlsruhe. „Der Raum in den Städten wird immer knapper, in Zukunft wird daher auch der Luftraum mehr genutzt werden. Volocopter ist ein zukunftsweisendes Start-up in Sachen E-Mobility“, unterstreicht Dr. Michael Müller, Geschäftsführer der magility GmbH die Innovationskraft des badischen Unternehmens.

Weltpremiere für Mercedes-Benz User Experience

Daimler feiert Weltpremiere auf der CES und stellt sein neues Multimediasystem MBUX (Mercedes-Benz User Experience) vor. Das intuitive und lernfähige Betriebssystem geht ab 2018 in der A-Klasse in Serie.

Besonders ist hierbei die Lernfähigkeit dank künstlicher Intelligenz. MBUX ist individualisierbar und stellt sich auf den Nutzer ein. Es schafft so eine emotionale Verbindung zwischen Fahrzeug, Fahrer und Passagieren. Zugleich sind Updates „over the air“ möglich. Außerdem läutet es eine neue Ära bei der Mercedes me Connectivity ein. Die Navigationsdarstellung mit Augmented-Reality-Technologie sowie die intelligente Sprachsteuerung mit natürlichem Sprachverstehen sind weitere Neuheiten. Statt „hey Alexa“ fühlt sich das System mit „hey Mercedes“ angesprochen.

Künstliche Intelligenz und UX

Schaut man sich die Automobilhersteller insgesamt an, zeigt sich, dass in Zukunft viel getouched, geswiped und kommuniziert wird. Große Displays im Auto (siehe MBUX) lassen sich wie Smartphones bedienen und sprechen vor allem eine junge Zielgruppe an, die ans touchen und swipen längst gewöhnt ist. Künstliche Intelligenzen wie Amazons Alexa verbreiten sich stetig und eröffnen eine riesigen Markt für Anwendungen, die das Leben smarter und einfacher machen.

Brain Machine Inferfaces (BMI´s)

Auch Gehirn-Computer Schnittstellen (BMI´s)  erhielten auf der CES Einzug in die Welt des autonomen Fahrens. Nissan stellte auf der Messe ein ins Fahrzeug integriertes  brain-to-vehicle Interface vor. Das Interface erkennt durch einen Helm der drahtlos mit dem Fahrzeug verbunden ist Gehirnaktivitäten, die im Zusammenhang mit der Bewegungsaktivität des Fahrers stehen. Diese werden simultan an das Fahrzeug übertragen. Das Fahrzeug übersetzt und nutzt die Signale um das Fahrverhalten an die Erwartungen des Fahrzeughalters anzupassen, bevor dieser körperlich in Aktion tritt. Hierdurch wird personalisiertes autonomes Fahren möglich und das Fahrerlebnis noch smarter. Der Helm wird von der Startup Firma Bitbrain aus Spanien überwiegend von Neurologen weiterentwickelt.

Smart Future

Bei der CES in Las Vegas wurde die ganze Bandbreite an neuen Technologien vorgestellt. Smartphones, Smartwatch, Smart Home – das Angebot ist unermesslich und so verliert man sich schon mal in der Masse. „Für mich ist es immer wieder spannend zu sehen, wo wir gerade stehen und wo der Weg hinführt. Im Zuge der digitalen Transformation brauchen wir natürlich immer einen Überblick über Technologien und Visionen“, fasst Müller die CES zusammen. Und so hat sich der Weg nach Las Vegas auch in diesem Jahr gelohnt.

 

Deep Learning verspricht neue Durchbrüche beim autonomen Fahren. Foto: CC0

State of the Art: Deep Learning und autonomes Fahren

Im Sinne von Moor’s Law hat sich die Digitalisierung in den letzten Jahrzehnten unglaublich beschleunigt. Was zunächst wie eine schier endlose Aufgabe schien war aufgrund der exponentiellen Steigerung von Speicherkapazität und Prozessorleistungen schneller Realität als von Kritikern geahnt. Ein aktuelles Thema bei dem die Prognosen auseinandergehen ist die Künstliche Intelligenz und das Deep Learning. Sind wir bereits im Zeitalter der intelligenten Maschinen angekommen oder sind wir erst auf dem Weg dahin. Wahrscheinlich ist es nur eine Frage des Perspektive. Deshalb lohnt es sich auf Praxisbeispiele zu schauen. Viele Unternehmen versuchen bereits jetzt ihre Daten zu nutzen und daraus Erkenntnisse und Geschäftsmodelle zu kreieren. Ein Start-up aus dem Bereich ist das Berliner KI-Unternehmens Merantix. Zusammen mit großen Unternehmen arbeitet das Unternehmen an großen KI-Projekten. Auch im Bereich Automotive.

 

Drei Gründe für den Durchbruch neuronaler Netzwerke

Als Hauptgründe für den Durchbruch von neuronalen Netzwerken gilt: die Verfügbarkeit großer Mengen an Trainingsdaten, leistungsfähige Computerinfrastruktur und Fortschritte in der Wissenschaft. Außerdem übertrifft Deep Learning nicht mehr nur in klassischen Methoden, sondern mittlerweile auch in der Klassifizierung von Bildern oder der Gesichtserkennung, was Maschinen bislang kaum möglich war. Daraus resultiert Potenzial für disruptive Geschäftsmodellen, die mithilfe von Deep Learning und Machine Intelligence reale Problem beheben.

KI-Pioniere aus Berlin

Merantix ist ein Forschungslabor und Unternehmen im Bereich Künstliche Intelligenz. Das Berliner Unternehmen sucht zusammen mit mittelständischen und großen Unternehmen deren Potenziale, Daten zu nutzen um neue Geschäftsmodelle zu finden. Das Stichwort dabei lautet: Deep Learning. Laut Merantix basiert die Entwicklung der künstlichen Intelligenz in den letzten Jahren auf dem Erfolg des Deep Learnings*.

Diagnose vom Computer – Röntgenbilder

Konkret eruiert das KI-Start-up riesige Datensätze. Große Mengen an Trainingsdaten werden ausgewertet sodass die Maschine lernt auf bestimmte Auffälligkeiten zu achten. Ein konkretes Beispiel stammt aus dem Bereich Health Care. Merantix baut einen Service, unterstützt durch künstliche Intelligenz, der automatisch Röntgenbilder diagnostiziert. Um die Deep Learning Systeme zu trainieren werden Standardmarken aus Sprachprotokollen extrahiert. Im Ergebnis soll die KI-Diagnostik Effizienz und Qualität sicherstellen.

Deep Learning und autonomes Fahren

In Kooperation mit BOSCH arbeitet das Unternehmen an der Evaluierung und Verbesserung von Deep Learning Tools beim autonomen Fahren. Es werden neuronale Netze geschaffen und trainiert, die Objekte wie Ampeln, Verkehrszeichen und andere Fahrzeuge erkennen. Die Trainingsdaten stammen aus Sensordaten (in der Regel Bilder und Videos) von Fahrassistenzsystemen. Das System visualisiert die Charakteristik von geschulten neuronalen Netzwerken basierend auf aktueller Forschung.

Quo vadis: Deep Learning

Konkrete Beispiele aus dem Beriech zeigen, dass mit neuronalen Netzen und verfügbaren Trainingsdaten bereits praktischer Nutzen erzielt werden kann. „Für das autonome Fahren wird Deep Learning und Künstliche Intelligenz unerlässlich sein“, unterstreicht Dr. Michael Müller, Geschäftsführer der magility GmbH die Aktualität des Themas.

 

*Deep Learning bezeichnet eine Klasse von Optimierungsmethoden künstlicher neuronaler Netze, die zahlreiche Zwischenlagen zwischen Eingabeschicht und Ausgabeschicht haben und dadurch eine umfangreiche innere Struktur aufweisen.

Robotik und Automatisierung steigern die Produktivität in der Industrie. Foto: CC0

Robotik – Produktionssteigerung durch Digitalisierung

Die Robotik erobert die Welt. Vor allem Automobilhersteller, Zulieferer und Systemintegratoren beschleunigen durch Innovationen diesen Trend. Deutschland ist dabei Rekordhalter von Industrierobotern in Europa. Auf 10.000 Mitarbeiter kommen über 300 Roboter. Nur asiatische Länder können das überbieten. Doch wo stehen wir im Bereich Robotik, was sind die Herausforderungen und wie sind die Prognosen?

Die Zukunft ist automatisiert

Roboter, Autonome Maschinen und Künstliche Intelligenz (KI). Das sind die Schlagworte im Zusammenhang mit Robotik. Während in der Produktion, Fertigung und anderen Industriebereichen Roboter nicht mehr wegzudenken sind, entwickelt sich die digitale Technik stetig weiter. Die Vision von der Verknüpfung von Robotik mit KI lautet, dass neben der Automatisierung von Arbeitsprozessen wie wir sie längt kennen, Maschinen Entscheidungen und Schlussfolgerungen aufgrund von Erfahrungen treffen können.

„Im Bereich Robotik wird sehr viel geforscht. Als Innovationsstandort Deutschland arbeiten wir vor allem an durchsetzungsfähigen Technologien. Dies geschieht hauptsächlich in Zusammenarbeit mit Universitäten und Unternehmen, die sehr viel Energie und Mittel investieren um die Forschung voranzutreiben und Fachkräfte auszubilden. Gerade hier liegt die Stärke“, so Dr. Michael Müller, Geschäftsführer der magility GmbH.

Mensch-Roboter-Kollaboration

Zwar lautet die Prophezeiung, dass intelligente Maschinen die Arbeit autonom übernehmen würden. Zunächst aber wird es viel häufiger der Fall sein, dass Menschen in Kombination mit Robotern arbeiten um Abläufe zu optimieren oder zu präzisieren. Ein Beispiel dafür sind Operationsroboter, die Chirurgen ermöglichen noch präziser und genauer zu arbeiten. Aber es werden auch beispielsweise LKWs auf der Autobahn autonom fahren und auf Landstraßen von einem Fahrer gelenkt. Das Maschinen den Menschen komplett verdrängen ist bis auf weiteres Science Fiction.

Wie wird sich die Arbeitswelt ändern?

60 Prozent aller bezahlten Tätigkeiten mit heute vorhandenen Technologien sind zu 30 Prozent automatisierbar, schätzt McKinsey. Das betrifft nicht nur die Industrie sondern viele Wirtschaftszweige. Gleichzeitig sind nur wenige Menschen besorgt um ihren Arbeitsplatz (Siehe Statista-Grafik). Die Arbeitswelt wird sich wandeln, das steht fest. Dennoch bringt Technik immer auch neue Arbeitsplätze und Arbeitsbereiche mit sich. Auch die nächste Generation von Robotern, von autonomen und selbstlernenden Maschinen und Künstlicher Intelligenz werden neue Arbeitsplatze in Entwicklung, Herstellung, Installation, Betrieb und Service hervorbringen. In Bereichen wie Big Data, Cloud-Services, App-Entwicklung und Verkauf, Internet-Dienste, Cyber Security und der Vernetzung im Internet of Things. 

Quo vadis Robotik

Big Data und Machine Learning, dass sind die entferntesten Visionen. Bis dahin werden sehr viele andere Herausforderungen zu bestehen sein. Denn am Ende erfüllt die Technik keinen Selbstzweck sondern soll Abläufe rationalisieren und wirtschaftlicher machen. Gerade was die Produktion angeht herrscht ein enormer Konkurrenzkampf vor allem mit dem fernen Osten. Dort werden mit High-Tech Maschinen zu Dumping-Preisen produziert. Am Ende geht es vor allem darum, dass der Wirtschaftsstandort Deutschland konkurrenzfähig, attraktiv und innovativ bleibt. Daran arbeiten wir auch als magility jeden Tag.

 

Nicht zuletzt müssen wir uns in Teilen sowohl als Gesellschaft als auch in unseren Arbeitsweisen teils neu erfinden. Hierfür brauchen wir Expertise und profunde Erfahrung in der Begleitung von Transformationsprozessen, mit professionellen Kommunikationsstrategien und Anpassung von unternehmensweiten Prozessen. Wir sind Ihre Digitalisierungsexperten auf diesem Weg der Transformation!

 

Technologische Singularität. Sind Roboter bald schlauer? Bild: Creative Commons

Technologische Singularität – Zukunft ist jetzt

Häuser in 3D drucken, Autos die von selbst den Stau umfahren und Roboter die den Haushalt führen. Wir stehen erneut vor einem Paradigmenwechsel. Die Technologische Singularität beschreibt den Zeitpunkt, ab dem Maschinen intelligenter sein werden als Menschen. Bis dahin stellt sich aber erst einmal die Frage: Welche Aufgaben können und sollen Roboter überhaupt übernehmen?

Zeitalter der Automatisierung

Mit der industriellen Revolution an der Wende zum 20. Jahrhundert wurden Maschinen eingeführt, die Tätigkeiten übernahmen, die zuvor als Handwerk galten. Viele Neuerungen standen bevor. Der Mensch ist trotzdem nicht aus den Fabriken verschwunden. Er verrichtet nur nicht mehr selbst die Arbeit sondern steuert die Maschinen. Automatisierung in Form von Robotern und Anlagen sind kein neues Phänomen in der Automobilindustrie. Seit Jahren nimmt die Zahl der Roboter in der Fertigung zu. Im Jahr 2015 kamen in der Automobilindustrie in Deutschland auf 10.000 Mitarbeiter 1.147 Roboter. Damit kommt Deutschland nach Japan und Südkorea unter die Top drei.

Künstliche Intelligenz vs. Intelligenz

Bei der Technologischen Singularität geht es aber nicht mehr um Automatisierung sondern darum, dass Maschinen auch lernen können und den Menschen an Intelligenz übertreffen. Doch die Begriffe Intelligenz und Lernen werden im Zusammenhang mit Maschinen sehr gewagt verwendet. Maschinen sind sehr stark darin Lösungen für logische Aufgaben zu finden. Wozu sie (noch) nicht in der Lage sind ist Sinnzusammenhänge herzustellen. Computer haben eine enorme und immer weiter wachsende Rechenkapazität, aber keine Möglichkeit zur Abstraktion und Emotion.

Ein Computer wird nie eine Frage beantworten die mit „warum?“ beginnt, außer sie wurde vorher von einem Menschen eingegeben. Künstliche Intelligenz ist also nicht gleich Intelligenz.

Maschinen

Maschinen verfügen über Algorithmen, die auf eine gewisse Umweltkonfigurationen reagieren. Fällt Regen gehen bei einem Fahrzeug zum Beispiel die Scheibenwischer an. Die Maschine reagiert auf Umweltreize und wird darin immer präziser. Das liegt an komplexer werdenden Algorithmen. Damit können Roboter auch immer komplexere und filigranere Aufgaben in Produktionsabläufen übernehmen. Sie rechnen fehlerfrei, können Werte aus verschiedenen Datenquellen zusammenführen – schlau sind sie aber nicht.

Der Sinn der Arbeit

In der Science-Fiction wird Maschinen schon lange Leben eingehaucht. Technologische Singularität würde aber mehr bedeuten als die Übernahme der Arbeit und Produktion durch Maschinen. Wenn Maschinen die Produktion von Konsumgütern übernehmen bleibt die Frage wohin die Rendite fließt. Würde sie bei den relativ wenigen Besitzern der Maschinen bleiben würde das bedeuten, dass der Rest der Gesellschaft keine Mittel mehr hätte um die produzierten Konsumgüter zu kaufen. Tatsächlich muss auch in Zukunft immer wieder der Nutzen und die Folgen für unsere Gesellschaft vs. dem technologischem Fortschritt gegeneinander abgewogen werden. Zeitgleich müssen Lösungen gefunden werden, dass technologischer Fortschritt gewinnbringend für eine ganze Gesellschaft eingesetzt werden kann. Aus Rendite die durch Maschinen erwirtschaftet wurde und wenig bis kein Humankapital braucht könnten beispielsweise neue Gesellschaftsfinanzierungen wie das bedingungslose Grundeinkommen ermöglicht werden. Technologie und künstliche Intelligenz könnten zu deutlich verbesserten Lebensbedingungen für ganze Gesellschaften führen, sofern diese verantwortungsvoll und mit Weitblick eingesetzt werden.

Künstliche Intelligenz (KI) ist das Potenzial der Zukunft. Foto: Creative Commons

Künstliche Intelligenz in der Automobilindustrie

Künstliche Intelligenz (KI) wird immer zentraler in der Diskussion ums autonome Fahren. Damit aus Big Data und maschinellem Lernen eine intelligente Machine wird ist ein komplexer Vorgang an dem aktuell auf Hochtouren gearbeitet und geforscht wird. Schon bald solle Künstliche Intelligenz menschliche Kapazitäten erreichen, prophezeien Optimisten. Daher stellt sich schon jetzt die Frage, wie KI für Fahrzeuge, den Verkehr und Unternehmen genutzt werden kann und welche Vorteile man aus der Beziehung von Mensch und Maschine gewinnen kann? Dazu steigen immer mehr Start-ups in den Wettbewerb ein um erste praktische Lösungen und Anwendungen zu entwickeln.

Geschäftsmodelle ableiten

„Das Thema KI ist ein kritischer Erfolgsfaktor in der Automobilindustrie“ ist die Einschätzung von Digitalisierungsexperte Dr. Michael Müller, Geschäftsführer von Magility. Denn für eine flächendeckende Realisierung von autonomem Fahren ist die KI derzeit unerlässlich.
Neben der Entwicklung der KI selbst geht es aktuell darum Geschäftsmodelle abzuleiten. Laut Prognose von LMC Automotive werden im Jahr 2035 48 Millionen voll- und teilautomatisierte Fahrzeuge produziert werden. Dafür werden digitale Services immer relevanter. Von der Software bis zur entsprechenden Cyber Security werden neue Dienstleistungen relevant mit denen sich auf weiteren Feldern Gewinne generieren lassen. Weitere vielversprechende Möglichkeiten finden sich innerhalb von Daten (das Rohmaterial der KI), dem Zugang zu Kunden (dank der Auswertung von Daten, können Kunden viel gezielter angesprochen werden), Chancen für Unternehmen, die Qualität ihres Outputs zu steigern aber auch ihre Prozesse zu optimieren.

Deep-Learning-Netzwerk

Ein erster Case aus der Praxis dazu ist ein Deep-Learning Netzwerk, dass alle Fahrzeuge miteinander vernetzen will. Es geht dabei um Deep-Learning- Algorithmen, die die optische Objekterkennung und den Dialog zwischen Menschen und Maschinen zukünftig optimieren sollen. Mit diesem System kann sich das Fahrzeug Situationen sowie die Reaktion des Fahrenden merken und ins Netzwerk speisen. So wird das erlernte „Wissen“ nicht nur gespeichert sondern auch an andere Fahrzeuge weitergegeben.

Start-ups kommen mit Ideen

Am „Gehirn des Autos“ arbeitet nicht nur Bosch sondern auch ein Start-up aus den USA. Dabei geht es darum die über autointernen Sensoren gesammelten Daten gewinnbringend auszuwerten und nutzbar zu machen. Denn bereits jetzt sind viele Autos mit Sensoren und Kameras ausgestattet, die in Echtzeit Daten generieren. Die Schwachstelle ist jedoch bislang die Auswertung. Ganz konkret werden in diesem Fall dem Rechner Regeln vorgegeben, insbesondere im Hinblick auf richtiges und falsches Verhalten.  Die KI lernt dann aus diesen Regeln selbstständig, jedoch ist nach wie vor die Programmierung des Lernprozesses selbst unklar.

Mensch vs. Maschine

Das Potenzial liegt vor allem in der Rechenleistung. Während der Mensch sehr schnell und gut darin ist parallele Prozesse zu meistern ist die Maschine vor allem gut darin sich Lösungen zu errechnen. So zielt die Vision zunächst darauf ab, das die KI Routineaufgaben übernehmen kann oder über Algorithmen als Assistent zu dienen. Zudem kann KI an den Stellen sinnvoll eingesetzt werden an denen ohnehin viele Daten generiert werden, zum Beispiel in Fahrzeugen. um diese auszuwerten und zu nutzen.

Es gilt aber: Nur wenn Mensch und Maschine gemeinsam an Problemen arbeiten kann Künstliche Intelligenz ihr volles Potenzial entfalten. Künstliche Intelligenz ist kein Selbstzweck sondern das Weiterdenken von Möglichkeiten um Prozesse zu vereinfachen und zu optimieren.

Künstliche Intelligenz. Das Auto denkt mit. Foto: creative commons

Künstliche Intelligenz – Das Auto denkt mit

Wie beeinflusst die Künstliche Intelligenz (KI) die Mobilität von morgen? Eine große Frage die derzeit immer wieder im Zusammenhang mit der E-Mobilität und autonomem Fahren aufkommt. Zunächst sind autonom denkende Machinen eine Vision und der Weg dahin noch weit. Algorithmen, die Intelligenz simulieren gibt es aber schon heute. Fragen die rund um das Thema Künstliche Intelligenz vor allem in Verbindung mit autonomem Fahren aufkommen sind daher: Nutzen wir bereits Konzepte der KI? Wie intelligent werden die Fahrzeuge der Zukunft? Und vor allem: Was bedeutet das für den Menschen?

Vision von der Mobilität der Zukunft

Die Vision der Künstlichen Intelligenz ist, dass Mensch und Maschine miteinander interagieren. Das Fahrzeug wäre in diesem Fall ein Computer oder eine Schaltzentrale, die dazu fähig ist Daten zu sammeln, diese zu verknüpfen und damit in der Lage zu sein dazuzulernen. Perspektivisch könnte das Fahrzeug in Gefahrensituationen selbständige Entscheidungen treffen, etwa welchem Hindernis ausgewichen werden soll. Der Weg dahin ist aber noch lang. Erst einmal geht es darum ein kognitives Fahrzeug zu entwickeln, dass als Schaltzentrale fungiert und die Verkehrslage verschiedener Mobilitätsträger analysiert.

Status Quo – Aus Daten individuelle Services generieren

Aktuell bedeutet Künstliche Intelligenz im Bereich Automobil und e-mobility, dass durch Kameras, Sensoren und den verbundenen Recheneinheiten Daten und Informationen gesammelt werden, die den Fahrer unterstützen. So übernimmt die Künstliche Intelligenz nicht das Steuer, schaltet sich aber ein, sollte der Mensch etwa in der Dunkelheit einen Radfahrer übersehen. Das Fahrzeug erkennt die Gefahr mithilfe vieler technischer Details, die sofort ausgewertet werden und dem Fahrer eine Warnung zukommen lässt. Denkbar ist auch, dass das Auto automatisch abbremst wenn es eine Gefahr wahrnimmt, der Fahrer selbst aber nicht reagiert.

Nächste Schritte

Der nächste Schritt ist es, Services zu entwickeln, die dem Fahrer mehr Komfort bieten. Etwa für angenehme Temperatur zu sorgen, die passende Musik zu spielen, den Fahrer bei langen Fahrten an Pausen zu erinnern oder zu unterhalten. Das Fahrzeug soll das Verhalten des Fahrers analysieren, seine Bedürfnisse deuten und direkt die passenden Services liefern. Das kognitive Fahrzeug würde einen selbstbestimmten Zugang zu einer individualisierten Künstlichen Intelligenz ermöglichen, die den Menschen unterstützt, ihn unterhält und ihn sogar intellektuell herausfordern könnte.

Hohe Umsatzerwartungen beim Thema Künstliche Intelligenz

Die Technik auf diesem Gebiet entwickelt sich rasant. Auch wenn es bis zur Interaktion zwischen Mensch und autonomem Fahrzeugen noch dauern wird. Ein großer Markt ist die Künstliche Intelligenz in jedem Fall. Das Statistikportal Statista prognostiziert beim Umsatz mit Unternehmensanwendungen im Bereich künstliche Intelligenz in Europa einen Anstieg von ungefähr 93 Millionen US-Dollar im Jahr 2016 auf 7.867 US-Dollar im Jahr 2025.