Analytics for the masses: Fünf Dinge, die Sie berücksichtigen sollten

article in English

Bessere Entscheidungen treffen

Wir alle treffen täglich tausende Entscheidungen, viele unbewusst oder auf der Grundlage weniger Informationen. Oft blitzschnell. Auch in der Arbeitswelt. Wir verlassen uns also häufig auf unsere Intuition und das Bauchgefühl.

Zwar ist unsere Intuition häufig besser als ihr Ruf. Aber gerade im beruflichen Umfeld sind ständig wichtige Entscheidungen zu treffen, die auf  harten Fakten und deren sorgfältiger Analyse beruhen  sollten. Wunsch und Realität gehe leider noch weit auseinander: Studien belegen, dass  nicht einmal ein Drittel aller befragten Unternehmen  ihre letzte große Entscheidung auf Basis von systematischer Datenanalysen getroffen haben.

Datengetriebene Unternehmen sind sich der Bedeutung ihrer Daten bewusst und betrachten sie als zentrale Grundlage für Entscheidungen. Für sie ist die systematische Datenanalyse der Königsweg, um sich im Wettbewerb durchzusetzen. Was uns zum Thema „Analytics for the masses“ bringt, denn Entscheidungen werden in der Realität dezentral getroffen, d. h. viele Personen in vielen Abteilungen tragen dazu bei, das Feld für Entscheidungen zu bestellen.

Die gute Nachricht ist, dass immer mehr Daten verfügbar sind. Die Datenmengen vermehren sich explosionsartig (40% jährlich in der nächsten Dekade) und dies sollte der datenbasierenden Entscheidung doch eigentlich zugutekommen. Studien zeigen aber, dass auch heute, in der Zeit hoch-perfomanter IT, die große Mehrzahl aller Entscheidungen ohne ausreichende Datengrundlage getroffen werden – mit teilweise verheerenden Konsequenzen. Insofern liegt weiterhin eine unternehmerische Chance in der besseren Entscheidungsfindung auf Basis von Daten.

Talend Real-Time Big Data Sandbox: kostenlose Trial jetzt herunterladen

Was hält uns nun davon ab, bessere Entscheidungen auf Basis möglichst aller verfügbaren Daten zu treffen? Eine ganze Menge. Hier sind fünf Aspekte, die Sie berücksichtigen sollten:

1. Datensilos

Unternehmen sind hochgradig vernetzte organisatorische Gebilde und  die erarbeitete Datenmenge  steigt exponentiell. Nichts desto trotz existieren in Unternehmen weiterhin Datensilos, also Geschäftsbereiche, die zusammen gehören, aber nicht zusammen betrachtet werden. In unterschiedlichen Fachabteilungen entstehen isolierte Datentöpfe für nur scheinbar wenig zusammenhängende Themen. Beziehungen zwischen Daten werden nicht hergestellt, unterschiedliche Strukturen und inkonsistente Stammdaten verhindern einen gesamtheitlichen Blick auf die Daten als Entscheidungsgrundlage. Durch neuartige, häufig externe Datenquellen (Big Data, bspw. im Umfeld Social Media) wird diese Herausforderung eher noch größer.

Erforderlich zur Bewältigung dieser Herausforderung sind professionelle Werkzeuge für die Datenintegration unter Berücksichtigung von Big Data und Master Data Management, wie sie die Talend Plattform bietet. Gleichermaßen muss eine Infrastruktur für das Speichern von Daten geschaffen werden, die ergänzend zum klassischen Data Warehouse neuere Konzepte und Technologien aus dem Umfeld Big Data implementiert.

2. Datenqualität

„Garbage in, garbage out” gilt leider auch für Entscheidungen, die auf Daten basieren – speziell dann, wenn Entscheider über keine angemessenen Informationen über die Datenqualität verfügen. Umfragen bestätigen, dass die Qualität von Daten nach wie vor eine der größten Hemmnisse für die Durchführung von werthaltige Analysen darstellt. Und auch im Bereich Big Data dominiert bei Analysen der Aufwand für die Bereinigung der Daten.

Ein mehrstufiger Ansatz ist erforderlich, der die Anforderungen rund um Datenqualität gesamtheitlich adressiert. Einerseits ist es essentiell, sich kontinuierlich einen Überblick über die Qualität der Daten zu verschaffen. Andererseits müssen die unzuverlässigen Daten beseitigt bzw. bereinigt werden. In manchen Fällen geschieht dies automatisiert, z. B. durch regelbasierende Ansätze. In anderen Fällen wird die Expertise der Fachabteilung benötigt, die manuell in den Prozess der Datenbereinigung eingreift. Wichtig und zielführend ist es, einen übergreifenden Prozess zu etablieren, um die Datenqualität nachhaltig zu verbessern.

3. Self-Service-Chaos

Self Service hat sich im Bereich Analytics mit Werkzeugen wie Tableau, Qlik und Spotfire durchgesetzt, allerdings häufig getrieben durch Fachabteilungen und deren Ziel, eher lokale Probleme zu lösen. Insofern liegt eine Herausforderung für die IT-Abteilung darin, die im Unternehmen kursierenden Werkzeuge „einzufangen“, zu standardisieren und zentralisiert bereitzustellen, um gerade die Poweruser zu befähigen, eigenständig Entscheidungen auf Basis von Daten zu treffen.

Gleichermaßen wird Self Service auch in der Datenvorbereitung immer wichtiger, denn die Kompetenz hierfür liegt in der Fachabteilung. Diese Herausforderung – ein professionelles Werkzeug für die Datenvorverarbeitung durch die Fachabteilung im Self Service – adressiert „Talend Data Preparation“. Letzten Endes kommt dies primär der Datenqualität zugute.

4. Analytics for the Masses – Wunsch und Realität

Studien belegen, dass 75% der Wissensarbeiter kein Interesse daran haben, mit einem Analytics-Werkzeug zu arbeiten. Und damit der Werbung der Hersteller trotzen. Die gedankliche Trennung zwischen der regulär genutzten Software (bspw. einem CRM-System) und der Analyseprogramme behindert die Verwendung von Daten! Analysen werden von Powerusern erstellt, nicht vom regulären Business User.

Eine Abhilfe für die Trennung verspricht hier „embedded Business Intelligence“, wie es speziell von Jaspersoft propagiert wird. Es geht hier um die Einbettung von Analyse-Artefakten in die Programme der Anwender, so dass diese automatisch „angesprochen“ werden - sei es in Form einfacher Charts oder leicht zu nutzender Self-Services, die vorkonfektioniert sind auf  den jeweiligen Anwendungsfall und Kontext.

5. Kultur und Qualifizierung

Die richtige Unternehmenskultur ist entscheidend für datengetriebene Analysen und Entscheidungsprozesse. Wird dies als Entmachtung des Entscheiders interpretiert oder dominieren politische Faktoren, so etabliert sich dieser Ansatz niemals nachhaltig in der Fläche. Insofern ist es essentiell, dass dieses neue Paradigma „von Oben“ vorgelebt und ein Stück weit eingefordert wird.

Demzufolge muss der Entscheider über die entsprechende Kompetenz verfügen und die Entscheidungssituation sowie die Daten und deren Analyse grundsätzlich verstehen. Natürlich kann nicht jeder Mitarbeiter zum Vollzeit „Data Scientist“ werden. Es ist aber durchaus schon heute Realität, dass Wissensarbeiter immer wieder punktuell diese Rolle einnehmen – und bedarfsweise auf entsprechende Unterstützung im Unternehmen zugreifen.

Ausblick

Obgleich das Thema Big Data kaum präsenter sein könnte, besteht weiterhin großes Potenzial, Daten  besser in Unternehmen zu nutzen. Moderne Technik leistet hier einen wesentlichen Beitrag. Konkret adressiert die Talend-Plattform eine Vielzahl der hier skizzierten Probleme, darunter die Datenintegration inklusive Big Data, die Datenqualität, das Master Data Management und einen Self-Service für die Datenvorverarbeitung.

Über die Technik sollte aber keinesfalls die Bedeutung der Kultur und Qualifizierung der Mitarbeiter vergessen werden. Schlussendlich wird nur ein umfassender Ansatz zum nachhaltigen Erfolg führen. Dass dies möglich ist, machen datengetriebene Unternehmen wie GE, Coca-Cola, Uber und Air Frankce vor und setzen damit ihre Konkurrenz unter Druck. Letztlich macht diese  Entwicklung, vor keiner Branche  auch nicht vor kleineren und mittelständischen Unternehmen Halt.

Related Resources

Kostenloser Bericht: Nutzen Sie die Vorteile von Big Data in Ihrem Unternehmen

Gartner CDO Survey: Governance and Analytics Top Priorities for 2016

Products Mentioned

Talend Big Data Integration

Über den Autor Dr. Gero Presser

Dr. Gero Presser ist Mitgründer und geschäftsführender Gesellschafter der in Dortmund ansässigen QuinScape GmbH. QuinScape positioniert sich als am deutschsprachigen Markt führender Systemintegrator für die Plattformen Talend, Jaspersoft/Spotfire, Kony und Intrexx und betreut mit 100 Mitarbeiter namhafte Kunden im Mittelstand, im Konzernumfeld und der öffentlichen Verwaltung.

Gero Presser hat über Entscheidungstheorie im Umfeld der Künstlichen Intelligenz promoviert und ist bei QuinScape verantwortlich für den Aufbau des Geschäftsfelds Business Intelligence mit den Schwerpunkten Analytics und Integration.

Share

Leave a comment

Neuen Kommentar schreiben

More information?