Vollständige Ressourcenbibliothek

Edge Analytics: Die Vor- und Nachteile unmittelbarer, lokaler Erkenntnisse

Laut Gartner werden 90 % der implementierten Data Lakes nutzlos sein und Experian geht davon aus, dass rund 32 % der Daten in US-Unternehmen ungenau sind. Doch Daten sind das wertvollste Gut für jedes Unternehmen und es wäre eine Schande, sie komplett zu löschen oder irgendwo in einem verlassenen Data Lake vor sich hindümpeln zu lassen. Data Scientists sollten ihre wachsenden Pools mit IoT-Daten stattdessen aktiv nutzen, um die von verschiedenen Endpunkten bereitgestellten Informationen zu analysieren und Schlussfolgerungen daraus zu ziehen, die zu besseren Geschäftsergebnissen führen.

Weitere Informationen

Was ist Datenaufbereitung?

Unter Datenaufbereitung versteht man die Bereinigung und Transformation von Rohdaten vor der eigentlichen Verarbeitung und Analyse. Der Prozess ist zwar zeitaufwendig, aber unerlässlich, um die Vorteile von Business-Intelligence zu realisieren. Und dank smarter Selfservice-Tools funktioniert die Datenaufbereitung heute so einfach und effizient wie nie zuvor.

Weitere Informationen

Was ist Datenmanagement?

Datenmanagement bzw. Datenverwaltung bezeichnet die professionelle Erstellung und Pflege eines Frameworks für die Aufnahme, die Speicherung, das Mining und die Archivierung von allen Daten, die für moderne Unternehmen von Bedeutung sind. Im Folgenden geht es um die sieben Typen des Datenmanagements, die Vorteile der richtigen Herangehensweise, drei wichtige Best Practices und die Frage, wie Unternehmen die richtigen Tools finden.

Weitere Informationen

Was ist Datenintegration?

Unter Datenintegration versteht man die Zusammenführung von Daten aus mehreren unterschiedlichen Quellen in einer einzigen Ansicht, die aussagekräftige und wertvolle Informationen bietet. Organisationen setzen über sämtliche Branchen hinweg auf Datenintegrationsinitiativen, um ihre Daten effektiver zu analysieren und so die strategische Entscheidungsfindung und die Wettbewerbsfähigkeit zu verbessern.

Weitere Informationen

Was ist Datenverarbeitung?

Bei der Datenverarbeitung geht es darum, Rohdaten in ein besser lesbares Format umzuwandeln, das von Computern interpretiert und von Mitarbeitern in der gesamten Organisation genutzt werden kann.

Weitere Informationen

Die Zukunft von Big Data

Big Data ist ein Sammelbegriff für alles, was mit der Erfassung, Analyse und Nutzung riesiger Mengen digitaler Informationen zur Prozessoptimierung zu tun hat. Es verändert die Art wie wir leben, einkaufen und unseren Alltag bewältigen – und das in einem rasanten Tempo. Hier erfahren Sie, was genau sich hinter dem Begriff Big Data verbirgt und wie Sie möglichst viel aus Ihren Big Data herausholen können.

Weitere Informationen

ETL-Tests: Ein Überblick

ETL-Tests beziehen sich auf Prüfungen während des ETL-Prozesses, um die Genauigkeit von Daten zu validieren, zu verifizieren und sicherzustellen sowie Dubletten und Datenverluste zu verhindern. Erfahren Sie mehr über die 8 Phasen von ETL-Tests, 9 Arten von Tests, häufige Herausforderungen, wie Sie das beste Tool finden und mehr.

Weitere Informationen

Was ist ein Data Lake?

Ein Data Lake ist ein zentrales Repository, das Big Data aus verschiedenen Quellen im Rohformat speichert. Aufgrund der Vorteile des Data Lake-Formats verabschieden sich viele Organisationen von ihren Data Warehouses. Erfahren Sie, worin sich Data Lakes von anderen Speichern unterscheiden, warum sie immer beliebter werden und wie Sie anfangen können, einen Data Lake zu erstellen.

Weitere Informationen

Was ist Business Intelligence (BI)?

Unter Business Intelligence (BI) versteht man die Prozesse, Technologien, Kenntnisse und Anwendungen, die eingesetzt werden, um fundierte, datengestützte Geschäftsentscheidungen zu treffen. Dies umfasst die Datenerfassung, Datenaggregierung, Analyse und aussagekräftige Präsentation für eine effektive Entscheidungsfindung.

Weitere Informationen

Was ist Datenredundanz?

Eine Datenredundanz liegt vor, wenn in einem Datenbank- oder Datenspeichersystem dieselben Daten gehalten werden. Identische Daten können in zwei unterschiedlichen Feldern innerhalb einer einzigen Datenbank oder zwei unterschiedlichen Punkten in mehreren Softwareplattformen oder Umgebungen vorliegen. Erfahren Sie, wie Sie mit MDM Datenredundanz und damit zusammenhängende Probleme vermeiden können.

Weitere Informationen

AI vs. maschinelles Lernen vs. Deep Learning

Unter Artificial Intelligence (AI) versteht man Maschinen, die menschliche Intelligenz nachahmen, um bestimmte Aufgaben durchzuführen. Maschinelles Lernen (ML) ist eine Unterdisziplin von AI, bei der Computer anhand von Big Data lernen, ohne dass sie entsprechend programmiert sind. Deep Learning (DL), ein Teilbereich von ML, bildet Abstraktionen von Datensätzen, um Bedeutung zu konstruieren.

Weitere Informationen

Was ist Data-Profiling?

Data-Profiling eröffnet neue Geschäftschancen. Unternehmen, die Data-Profiling für die Organisation und Analyse ihrer Daten nutzen, können ihr Erfolgspotenzial steigern und sich klare Wettbewerbsvorteile sichern.

Weitere Informationen

Was ist Stammdatenverwaltung?

Die Stammdatenverwaltung (Master Data Management, MDM) sorgt dafür, dass Organisationen immer mit einer einzigen Version aktueller, „wahrer“ Daten arbeiten können – und auf der Grundlage dieser Informationen Entscheidungen treffen können. Erfahren Sie, welche Vorteile MDM Unternehmen bietet, auf welche Herausforderungen Sie sich einstellen sollten und wie die ersten Schritte aussehen.

Weitere Informationen

Was ist Hadoop?

Hadoop ist ein Java-basiertes Open Source-Framework zum Speichern und Verarbeiten von Big Data. Die Daten werden dabei auf preiswerten Commodity-Servern gespeichert, die in Clustern verbunden sind. Sein verteiltes Dateisystem ist fehlertolerant und ermöglicht eine parallele Verarbeitung.

Weitere Informationen

Data Lake vs. Data Warehouse

Sowohl Data Lakes als auch Data Warehouses sind etablierte Begriffe, wenn es um das Speichern von Big Data geht. Doch beide Begriffe sind nicht gleichzusetzen. Ein Data Lake ist ein großer Pool mit Rohdaten, für die noch keine Verwendung festgelegt wurde. Bei einem Data Warehouse dagegen handelt es sich um ein Repository für strukturierte, gefilterte Daten, die bereits für einen bestimmten Zweck verarbeitet sind.

Weitere Informationen

Was ist MapReduce?

MapReduce ist ein Programmiermodell bzw. Muster im Hadoop-Framework, das für den Zugriff auf Big Data im Hadoop File System (HDFS) verwendet wird. Die Map-Funktion nimmt die Eingabedaten, erstellt Paare, verarbeitet sie und generiert einen weiteren Satz an Zwischenpaaren als Ausgabe.

Weitere Informationen

Was ist ein Data Mart?

Ein Data Mart ist eine subjektorientierte Datenbank, die für die Anforderungen einer bestimmten Benutzergruppe konzipiert ist. Data Marts bieten Zugriff auf Informationen in einem Data Warehouse oder operativen Datenspeicher innerhalb von Tagen statt Monaten oder länger und beschleunigen so die Geschäftsprozesse.

Weitere Informationen


Seiten werden angezeigt of 2