Real-Time Big Data Platform

Nutzen Sie Echtzeit- und Streaming-Analysen, um schneller denn je wertvolle Erkenntnisse zu gewinnen.

Kostenlose Testversion

Profitieren Sie von Echtzeit-Datenströmen.

Nutzen Sie das Potential von Echtzeit- und Streaming-Analysen durch serverloses Spark Streaming und maschinelles Lernen. Talend Real-Time Big Data Integration generiert nativen Code, der sich in Ihrer Cloud sowie in hybriden oder Multi-Cloud-Umgebungen bereitstellen lässt. So können Sie noch heute mit Spark Streaming anfangen, um aus all Ihren Batch-Datenpipelines zuverlässige und aussagekräftige Echtzeit-Erkenntnisse zu gewinnen.

Was ist neu bei der Big Data Talend-Fall’18?

Real-Time Big Data Platform Funktionen

Lizenz

  • Subskriptionslizenz mit Garantie und Haftungsausschluss
  • 2 kostenlose Data Preparation-Lizenzen und 2 kostenlose Data Stewardship-Lizenzen mit jeder beliebigen Talend-Subskription
  • Verfügbar als Cloud-Service und herunterladbare Software

API Development

  • Contract-basierter API-Designer
  • Automatisches API-Mocking
  • API-Testautomatisierung
  • Gehostete API-Dokumentation
  • API-Contract-Import in Talend Studio
+ Mehr anzeigen

Design- und Produktivitätstools

  • Generiert nativen MapReduce- und Spark-Batch-Code
  • Generiert nativen Spark-Streaming-Code
  • Grafisches Mapping für komplexe JSON-, XML- und EDI-Daten auf Spark
  • Spark- und MapReduce-Job-Designer
  • Dynamische Distributionsunterstützung
  • Hadoop-Job-Scheduler mit YARN
  • Kerberos für Hadoop-Sicherheit
  • Aufnahme, Laden und Entladen von Daten in einen Data Lake
  • Grafische Designumgebung
  • Teamarbeit durch gemeinsames Repository
  • Continuous Integration/Continuous Delivery
  • Grafisches Mapping für komplexe JSON-, XML- und EDI-Daten
  • Audit, Jobvergleich, Wirkungsanalyse, Testen, Debugging und Tunen
  • Metadata Bridge für Metadatenimport/-export und zentrales Metadatenmanagement
  • Distant Run und Parallelisierung
  • Dynamisches Schema, wiederverwendbare Joblets und Referenzprojekte
  • ETL- und ELT-Unterstützung
  • Wizards und interaktiver Data-Viewer
  • Versionierung
  • Change data capture (CDC)
  • Automatische Dokumentation
+ Mehr anzeigen

Datenqualität und Governance

  • Datenprofiling und -analyse mit grafischer Aufbereitung und aufgeschlüsselten Daten
  • Automatische Behebung von Datenqualitätsfehlern und Regeldurchsetzung
  • Datenbereinigung und Maskierung
  • Datenqualitätsportal mit Überwachung, Reporting und Dashboards
  • Semantische Erkennung mit automatischer Mustererkennung
  • Umfassendes Survivorship
  • Data-Sampling
  • Anreicherung, Harmonisierung, Fuzzy Matching und Deduplizierung
+ Mehr anzeigen

Konnektoren

  • Cloud: Amazon Web Services (AWS), Microsoft Azure, Google Cloud Platform und weitere
  • Unterstützte Big-Data-Distributionen: Amazon EMR, Azure HDInsight, Cloudera, Google Dataproc, Hortonworks, MapR

Komponenten

  • Hadoop-Komponenten: HDFS, HBase, Hive, Pig, Sqoop
  • Dateiverwaltung: Öffnen, Bewegen, Komprimieren, Entpacken ohne Skripten
  • Steuerung und Orchestrierung von Datenströmen und Datenintegrationen mit Masterjobs
  • Mappen, Aggregieren, Sortieren, Anreichern und Zusammenführen von Daten
  • Unterstützte Standards: REST, SOAP, OpenID Connect, OAuth, SAML, WSDL, SWAGGER(tm) und weitere
  • Unterstützte Transports/Protokolle: HTTP, JMS, MQTT, AMQP, UDP, Apache Kafka, WebSphere MQ und weitere
  • Enterprise Integration Patterns für Servicevermittlung, Routing und Messaging
+ Mehr anzeigen

Datenaufbereitung und Stewardship

  • 2 kostenlose Lizenzen mit einer Subskription
  • Import, Export und Kombination von Daten aus beliebigen Datenbanken sowie Excel- oder CSV-Dateien
  • Import, Export und Kombination von CSV-, Parquet- und AVRO-Dateien**
  • Export nach Tableau
  • Selfservice-on-Demand-Zugriff auf autorisierte Datensätze
  • Gemeinsame Nutzung von Datenaufbereitungen und Datensätzen
  • Operationalisierung von Aufbereitungen in beliebigen Daten- oder Big-Data-Integrationsflows
  • Operationalisierung von Aufbereitungen in beliebigen Cloud-Integrationsflows
  • Ausführung von Aufbereitungsaufgaben auf Apache Beam*
  • Automatische Erkennung, Standardisierung, automatisches Profiling, intelligente Vorschläge und Datenvisualisierung
  • Personalisierung von Semantiktypen für automatisches Profiling und Standardisierung
  • Intelligentes und selektives Sampling sowie vollständige Durchläufe
  • Nachverfolgung und Maskierung von Daten mit rollenbasierter Sicherheit
  • Bereinigungs- und Anreicherungsfunktionen
  • Data-Stewardship-App für Datenkuratierung und -zertifizierung
  • Definition von Datenmodellen, Datensemantik und Profildaten. Definition und Anwendung von Regeln
  • Zusammenführung und Abgleich von Daten, Behebung von Datenfehlern und Datenarbitrierung (Klassifizierung und Zertifizierung)
  • Orchestrierung und Zusammenarbeit bei Kampagnenaktivitäten
  • Definition von Benutzerrollen, Workflows und Prioritäten, Zuweisung und Verteilung von Aufgaben, Kennzeichnung und Kommentare
  • Einbettung von Governance- und Stewardship-Funktionen in Datenintegrationsflows und Verwaltung abgelehnter Transaktionen
  • Einbettung von Zertifizierung und Fehlerbehebung durch Fachkräfte in MDM-Prozesse
  • Abgleichentscheidungen, die nicht automatisch verarbeitet werden können
  • Skalierbare Datendeduplizierung mit maschinellem Lernen
  • Audit und Nachverfolgung von Maßnahmen zur Behebung von Datenfehlern. Überwachung des Kampagnenfortschritts. Rückgängigmachen/Wiederherstellen auf Basis von Geschäftsanforderungen
+ Mehr anzeigen

Verwaltung und Monitoring

  • Hochverfügbarkeit, Lastverteilung, Failover für Jobs
  • Deployment-Manager und Teamzusammenarbeit
  • Verwaltung von Benutzern, Gruppen, Rollen, Projekten und Lizenzen
  • Ausführungsplan, zeit- und ereignisgesteuerter Scheduler
  • Prüfpunkte, Fehlerbehebung
  • Kontextmanagement (Entw., QS, Prod.)
  • Activity-Monitoring
  • Statische IP-Adressen*
  • Protokollexport nach S3 für Jobs*
  • Umgebungen (2 für Einstiegsprodukte, unbegrenzt für Plattformen)*
+ Mehr anzeigen

Big-Data-Qualität

  • Datenbereinigung, -profiling, -maskierung, -abgleich und Parsing auf Spark und Hadoop
  • Maschinelles Lernen für Datenabgleich und Deduplizierung
  • HDFS-Datei-Profiling

ESB-Verwaltung (herunterladbare Software)

  • Integriertes Artefakt-Repository
  • Identitätsmanagement und Autorisierung

Agile Anwendungsintegration (herunterladbare Software)

  • Erstellung von Routen, Daten und Web-/REST-Services mittels Drag-and-drop
  • Übermittlung und Routing von Nachrichten und Ereignissen basierend auf Enterprise Integration Patterns (EIPs)

Erweitertes Data-Profiling

  • Betrugsmustererkennung mithilfe des Benfordschen Gesetzes
  • Erweiterte Statistiken mit Indikatorschwellenwerten
  • Spaltensatzanalyse
  • Erweiterte Vergleichsanalyse
  • Zeitspalten-Korrelationsanalyse
+ Mehr anzeigen

Kunden-Erfolgsstorys

Vertrieb kontaktieren

Für Informationen zur Sammlung und Nutzung Ihrer persönlichen Informationen, zu unseren Datenschutz- und Sicherheitsrichtlinien und zu Ihren Datenschutz-Rechten, lesen Sie bitte unsere Datenschutzrichtlinie.