Internet der Dinge: Die Zeit drängt

Iot made in germany?

Gartner prognostiziert 20 Milliarden Geräte im „Internet der Dinge“ (Internet of Thing, IoT) bis 2020. Cisco geht sogar von 50 Milliarden Geräten aus. Die deutsche Industrie schläft nicht und entwickelt weltweit einzigartige Referenzmodelle und Standards für diese neue vernetzte Welt. Die Gefahr, gegenüber der hochdynamischen US-amerikanischen Softwareindustrie den Kürzeren zu ziehen, ist dennoch nicht gebannt.  

Autor: Dr. Norbert Jesse, Geschäftsführer der Quinscape GmbH

In dem Mehrklang aus Sensorik, Mikroelektronik, Kommunikationstechnologie und Software sind die Sensoren der originäre Stressauslöser: Sie werden künftig riesige Datenmengen in das Internet pumpen. Möglich wird dies durch die gewaltigen Fortschritte in puncto Energieverbrauch, Datenauflösung und Kompaktheit der Sensoren. Zudem schleicht sich Intelligenz in die Sensorikmodule ein, die eine Adaption oder Selbstkalibrierung ermöglicht. Damit wird die Kontrolle von Dimensionen wie Luft- und Wasserqualität, Verkehrssituation, Temperatur, Maschinenverschleiß oder Druckzustand einfacher, präziser und preiswerter. Bald wird das Internet zu einem ganz beträchtlichen Teil sensorgetrieben sein.

Faszinierende Welt der Sensorik

Für den Produktionsstandort Deutschland spielt der industrielle Einsatz von Sensoren im Internet der Dinge eine herausragende Rolle. Schon heute faszinieren die Anwendungsbeispiele. Sie reichen von der Analyse von Sensorendaten aus Hochgeschwindigkeitszügen bis hin zur Auswertung von zehntausenden wartungsrelevanten Sensoren in einem Airbus A 380. Beeindruckend ist auch die Optimierung der Maschinenwartung im Flughafen Schiphol auf Basis einer kontinuierlichen Zusammenführung der Nutzungs- und Verschleißdaten, zum Beispiel von Aufzügen und Kofferbändern inklusive der Bewegungsdaten von Menschen.

Diese Projekte sind die Vorboten einer Welt, in der die Vernetzung von physikalischen Assets zu massiven Verwerfungen und Chancen führt – je nach Betrachtungswinkel. Eine nutzungsabhängige Preisbildung, die Remote-Steuerung von Maschinen durch Hersteller oder eine vorausschauende Wartung sind nur einige Optionen für drastisch andere Geschäftsmodelle.

Aus softwaretechnischer Sicht sind konventionelle IT-Konzepte und -architekturen vielfach damit überfordert, die exponentiell wachsende Flut an Daten „aufzufangen“, zu organisieren und auszuwerten. Unter dem Begriff „Big Data“ stehen seit geraumer Zeit jedoch offene Technologien für die Verarbeitung von Massendaten (auch) in Echtzeit zur Verfügung – egal ob im Unternehmen oder in der Cloud. So weit, so gut. Allerdings fehlt es an Standards für eine weitreichende semantische Anreicherung von Sensordaten – zum Beispiel zum Sensortyp, zum Hersteller, zum Standort oder zu Zugriffs- und Verwertungsrechten. Weiterhin sind Datenströme nicht selten verrauscht oder unvollständig und erfordern intelligente Filterkonzepte. Und um physikalische, chemische oder biologische Sensordaten zu fusionieren, ist ein ebenso tiefes technisches wie algorithmisches Wissen erforderlich. Schlussendlich sind auch neue Softwarelösungen erforderlich, um die Komplexität einer hochgradigen Vernetzung einzufangen.

Standards und Initiativen fürs Internet der Dinge

Die deutsche Industrie verfügt über ein herausragendes produktionstechnisches Knowhow und führende Kompetenz in der Vernetzung von Wertschöpfungsketten. Dieser Leistung verdanken wir ganz entscheidend unseren Wohlstand. Die Voraussetzungen sind exzellent, um dem Wettbewerb auch im Zeitalter von IoT voraus zu sein. Proprietäre Plattformen von Unternehmen wie Bosch und Trumpf sind allerdings nur ein erster Schritt. Die Standardisierungsarbeiten zu einem Referenzarchitekturmodell Industrie 4.0 (RAMI 4.0) und auch die Initiative „Industrial Data Space“ verfolgen weitaus ambitioniertere Ziele. RAMI 4.0 versteht sich als service-orientierte Architektur, die alle Maschinen und bedeutsame Komponenten in einem Schichten- und Lebenszyklusmodell verbindet. Die Initiative Industrial Data Space entwickelt einen intelligenten Datenraum für den sicheren Datenaustauch und die einfache Vernetzung von Daten in geschäftlichen Netzwerken. Beide Initiativen sind weltweit einzigartig in ihrem Anspruch.

 

Die deutsche Industrie schläft also nicht – aber die Zeit drängt. Immerhin existiert alleine im Cloud-Umfeld eine Fülle an Angeboten, überwiegend betrieben durch US-amerikanische Unternehmen, die eine unkomplizierte Verbindung von Sensoren mit leicht skalierbaren IT-Ressourcen in der Cloud erlauben und Software für Data Mining und Deep Learning gleich mitliefern. Datenanalysen für Windkraftanlagen oder Apps für Schließsysteme von Hotelketten als Anwendungen mittlerer Komplexität sind kein Hexenwerk. Es gibt ein nicht geringes Risiko, dass die deutsche Wirtschaft auch im Kontext des Internets der Dinge von der hochdynamischen Softwareindustrie in den USA überrollt wird. Das Ziel muss es sein, möglichst offene Referenzsysteme zu entwickeln, die ausgelegt sind für die spezifischen Anforderungen unserer produzierenden Unternehmen.

Der Autor

Dr. Norbert Jesse ist Gesellschafter und Geschäftsführer der Quinscape GmbH. Seine Interessenschwerpunkte liegen in den Bereichen Wissensmanagement, Big Data, Internet of Things und Analytics. Er unterrichtet an der TU Wien und ist Gastprofessor der University for Business and Technology (UBT) in Pristina, der Hauptstadt des Kosovo.

Email-Kontakt: Norbert.Jesse@quinscape.de

 

1 Antwort

Trackbacks & Pingbacks

  1. […] liefern die Software für Data Mining und Deep Learning gleich mit “, schreibt Jesse in seinem Gastbeitrag für den Blog der Initiative Deutschland Digital (IDD). Es bestehe weiterhin das Risiko, dass die deutsche Wirtschaft auch im Kontext des Internets der […]

Dein Kommentar

Want to join the discussion?
Feel free to contribute!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.