Wie geht es weiter mit dem Internet der Dinge? Vier Dinge, die Sie im Auge behalten sollten

article in Englisharticle in French

Wie geht es weiter mit dem Internet der Dinge?

Kaum jemand zweifelt daran, dass schon in naher Zukunft immer mehr „Dinge“ vernetzt werden. Dadurch entstehen viele neue Daten. Sehr viele neue Daten. Vor allem aber werden nicht mehr die Verbraucher Herren der Technologie sein, sondern die Industrie: Gesundheitsdienstleister, Energieriesen, Transportwesen, Luftfahrt usw. Die zunehmende Verbreitung intelligenter Geräte und Sensoren schafft neue Wertschöpfungsmöglichkeiten, birgt aber gleichzeitig auch Herausforderungen für Unternehmen, die sich diese Technologie zunutze machen möchten. Doch obwohl dieser Datenboom das Potenzial hat, die Industrie in einer Weise nach vorne zu bringen, die man nie für möglich gehalten hätte, verfügen zurzeit nur wenige Unternehmen über die passenden Technologien oder Geschäftsmodelle, um die Leistungsfähigkeit des Internet of Things (IoT) wirklich nutzen zu können.

Was also müssen Unternehmen über die flächendeckende Verbreitung von Sensoren und vernetzten Geräten wissen und wie können sie sich vorbereiten, ohne das Risiko einzugehen, von womöglich dynamischeren und flexibleren Mitbewerbern überholt zu werden? Wir wollen hier vier Aspekte erwähnen, die solche Unternehmen im Blick behalten sollten:

Smart Meters für einen klügeren Planeten

Betrachten wir zunächst einmal den Einfluss intelligenter Zähler – so genannter „Smart Meters“ (in der Art, wie sie die Talend Data Masters-Sieger m2ocityund Springg verwenden) – auf das Datenwachstum. Jedes einzelne Gerät erzeugt pro Jahr ca. 400 MB an Daten. Klingt nicht nach so sehr viel, oder? Trotzdem kommt dabei schon ein recht ansehnlicher Bestand zusammen. Eine aktuelle Studie des amerikanischen Medienunternehmens Bloomberg prognostiziert, dass 2017 bereits 680 Mio. Smart Meters weltweit installiert sein werden. Und diese werden ein Datenaufkommen von sage und schreibe 280 Petabyte pro Jahr generieren!

Vielleicht fragen Sie sich jetzt, was das mit einem „klügeren Planeten“ zu tun hat. Dann sollten Sie sich einmal Springg ansehen. Springg ist ein internationales Softwareunternehmen, das sich auf die Übermittlung landwirtschaftlicher Daten sowie die Entwicklung entsprechender Software- und Sensortechnologien spezialisiert hat. Mithilfe von Talend-Software kann Springg die Daten auswerten, die durch die Messung von Bodenproben durch mobile Labore des Unternehmens in aller Welt erfasst werden. Anhand dieser Informationen kann Springg Landwirte zu ihren Böden und verwendeten Düngemitteln beraten, wodurch diese ihre Ertragsziele drastisch steigern können. So trägt Springg zur Ernährung der Welt bei.

Daten in den Wolken

Suchen Sie nach weiteren Bereichen, in denen das maschinengenerierte Datenaufkommen zunimmt? Dann richten Sie den Blick gen Himmel. Nach einem Bericht von Wikibon ist die Zeit in der Luftfahrtindustrie reif für Innovationen im Bereich der Big Data Analytics. Bei jedem Flug können abhängig von seiner Dauer bis zu 40 Terabyte Daten erzeugt werden. Mithilfe dieser Daten lassen sich Flugbewegungsmuster analysieren, Düsenfunktionen optimieren, neue Routen entwickeln und Ausfallzeiten senken. Dies führt zu einer datengestützten Entscheidungsfindung in der Art, wie sie den E-Commerce bereits revolutioniert hat. Fluggesellschaften, die in der Lage sind, ihre Big Data in Echtzeit zu analysieren und umzusetzen, werden am Ende einen erheblichen Wettbewerbsvorteil haben.

Nennen wir als Beispiel Air France/KLM. Jeder einzelne Airbus A380 des Unternehmens ist mit knapp 24.000 Sensoren ausgestattet, die über Smart Meters 1,6 Gigabyte Daten pro Flug generieren. Mithilfe dieser Daten werden Pannen bereits erkannt, bevor sie auftreten: Die Smart Meters ermöglichen eine Erkennung potenzieller Defekte bereits 10 bis 20 Tage vor ihrem Auftreten und folglich auch die frühzeitige Einleitung erforderlicher Reparaturmaßnahmen. Hierdurch wird vermieden, dass die Flugzeuge länger am Boden bleiben müssen als notwendig, was für das Unternehmen nicht nur teuer wäre, sondern sich auch auf Service und Rendite auswirken würde.

Machine Learning und Data Science

Daten sind das Lebenselixier Ihres Unternehmens. Es geht dabei nicht nur darum, so viel wie möglich davon zu sammeln, sondern Sie müssen sie auch analysieren und ihnen ihre Geheimnisse entlocken können. In dem Maße, wie Unternehmen zur Entscheidungsfindung auf Daten angewiesen sind, setzen sich Data Science und Machine Learning immer stärker durch. Machine Learning (maschinelles Lernen) ist eine Form der künstlichen Intelligenz: Computer können aus Beispielen lernen und auf Basis des Erlernten Entscheidungen treffen. Auf diese Weise lassen sich bestimmte Aufgaben im Bereich Data Science automatisieren. Und angesichts der schieren Masse von Daten, die von Millionen von IoT-Geräten generiert werden, ist eine solche Automatisierung gewiss durchaus sinnvoll! Spark MLlib etwa wird dank seiner zahlreichen Machine-Learning-Algorithmen, die Kundensegmentierung, Prognosen, Klassifizierungen, Regressionsanalysen und vieles mehr gestatten, immer beliebter. Die Kombination aus Machine Learning und den riesigen Datenbeständen wird für Unternehmen vieles einfacher machen, wenn es darum geht, die auf vernetzten Geräten erzeugten Informationen besser zu nutzen und die Nadeln im IoT-Heuhaufen zu finden.

Operationalisierung der Analytik

Überall liest man, dass wir nun im „Goldenen Zeitalter“ von Big Data leben. Insofern mag es etwas überraschend sein zu erfahren, dass die meisten Unternehmen das volle Potenzial der gesammelten Daten nicht ausschöpfen. Vielmehr wird, wie eine kürzlich von McKinsey publizierte Studie zeigt, heutzutage noch nicht einmal 1 Prozent aller IoT-Daten tatsächlich zur Entscheidungsfindung genutzt. WIE BITTE?

Weshalb fragen Sie? Schließlich werden IoT-Daten heute in erster Linie für Alarmsysteme oder Echtzeitsteuerung genutzt, nicht jedoch für Optimierungen, Predictive Analytics oder Prescriptive Analytics. Außerdem ist die Implementierung von Machine Learning in der Realität kein Kinderspiel. Daten müssen organisiert und bereinigt werden. Es kann sehr lange dauern – bis zu mehrere Monate –, bis ein Modell Produktionsreife erreicht hat. Das gilt vor allem, wenn sich die Analysemodelle häufig ändern (was eine Menge Updates notwendig macht), die Programmierung zum großen Teil manuell erfolgt usw. All dies sind Umstände, die Unternehmen, die auf Daten setzen wollen, nicht unbedingt begeistern werden. Doch es gibt eine Lösung! Unternehmen setzen native Open-Source-Technologien wie Talend auf der Basis von Spark, Spark Streaming und Spark Machine Learning zur Big-Data-Integration in Echtzeit ein und erhalten so entscheidungsrelevante Daten – ganz ohne manuelle Codierung.

Machen Sie mit

Möchten Sie mehr zu Talend 6.1 und den neuen Funktionen für Machine Learning und Big Data in Echtzeit erfahren? Sehen Sie dieses On-Demand-Webinar.

Share

Leave a comment

Neuen Kommentar schreiben

More information?