Die Big Data-Vision von Tableau


Übersicht | Lerninhalt: 

Tableau hat sich dasZiel gesetzt, Benutzer dabei zu unterstützen, ihre Daten sichtbar und (be)greifbar zu machen. Dieser Weg, so unsere Grundüberzeugung, ist nur gangbar, wenn Daten demokratisiert werden, also wenn „die Personen, die die Daten kennen, berechtigt sind, Fragen zu den Daten zu stellen“. Wissensarbeiter sollten einfach und selbstverständlich auf ihre Daten zugreifen können, ganz gleich, wo diese gespeichert sind. Dieselben Wissensarbeiter sollten zudem ihre Daten analysieren und daraus Erkenntnisse ziehen können, ohne die Hilfe einer kleinen Elite aus Informatikspezialisten und Entwicklern in Anspruch nehmen zu müssen.

Unabhängig vom Datenvolumen ist die Visualisierung von Daten wichtig, da sie Informationen in Erkenntnisse und Maßnahmen verwandeln kann. Besondere Bedeutung hat die Visualisierungstrategie für Big Data, da die mit dem Speichern, Vorbereiten und Abfragen von Daten verbundenen Kosten viel höher sind. Unternehmen müssen daher gut strukturierte Datenquellen nutzen und Best Practices konsequent anwenden, um ihren Wissensarbeitern direkte Abfragen in Big Data zu ermöglichen. In jüngster Zeit hat der Bereich Big Data erhebliche Innovationen durchlaufen. Somit steht eine Vielzahl von Optionen zur Verfügung, von denen jede ihre eigenen Stärken besitzt. Tableau verfolgt die Vision, jede beliebige Big Data-Plattform zu unterstützen, die für unsere Benutzer relevant wird, und sie dabei zu unterstützen, mit ihren Daten in Echtzeit zu interagieren.

Hier können Sie ersten Seiten des Whitepapers lesen. Auf der rechten Seite können Sie das vollständige Whitepaper herunterladen.


Die Tableau-Strategie für (Big) Data

Tableau hat sich dasZiel gesetzt, Benutzer dabei zu unterstützen, ihre Daten sichtbar und (be)greifbar zu machen. Dieser Weg, so unsere Grundüberzeugung, ist nur gangbar, wenn Daten demokratisiert werden, also wenn „die Personen, die die Daten kennen, berechtigt sind, Fragen zu den Daten zu stellen“. Wissensarbeiter sollten einfach und selbstverständlich auf ihre Daten zugreifen können, ganz gleich, wo diese gespeichert sind. Dieselben Wissensarbeiter sollten zudem ihre Daten analysieren und daraus Erkenntnisse ziehen können, ohne die Hilfe einer kleinen Elite aus Informatikspezialisten und Entwicklern in Anspruch nehmen zu müssen.

Unabhängig vom Datenvolumen ist die Visualisierung von Daten wichtig, da sie Informationen in Erkenntnisse und Maßnahmen verwandeln kann. Besondere Bedeutung hat die Visualisierungstrategie für Big Data, da die mit dem Speichern, Vorbereiten und Abfragen von Daten verbundenen Kosten viel höher sind. Unternehmen müssen daher Datenquellen mit einer soliden Architektur nutzen und Best Practices konsequent anwenden, um ihren Wissensarbeitern direkte Abfragen in Big Data zu ermöglichen. In jüngster Zeit hat der Bereich Big Data erhebliche Innovationen durchlaufen. Somit steht eine Vielzahl von Optionen zur Verfügung, von denen jede ihre eigenen Stärken besitzt. Tableau verfolgt die Vision, jede beliebige Big Data-Plattform zu unterstützen, die für unsere Benutzer relevant wird, und sie dabei zu unterstützen, mit ihren Daten in Echtzeit zu interagieren.

Zur Umsetzung dieser Big Data-Vision konzentriert sich Tableau auf sechs Säulen:

  1. Breiter Zugang zu Big Data-Plattformen: Ein Bestandteil unserer Vision ist die speicherortunabhängige Analyse von Big Data. Tableau unterstützt gegenwärtig mehr als 40 verschiedene Datenquellen sowie zahlreiche weitere Quellen, die über unsere Erweiterungsoptionen zugänglich gemacht werden können. Unsere Anwender profitieren auch von neuen Datenquellen auf dem Markt, sodass wir diese fortlaufend in unser Produkt integrieren werden, um die Hürde für den Zugriff auf Daten niedrig zu halten. Derzeit werden die folgenden Konnektoren im Rahmen des Big Data-Ökosystems unterstützt:
    • Hadoop: Cloudera Impala & Hive, Hortonworks Hive, MapR Hive, Amazon EMR mit Impala &
    • Hive, Pivotal HAWQ, IBM BigInsights
    • NoSQL: MarkLogic, Datastax
    • Spark: Apache Spark SQL
    • Cloud: Amazon Redshift, Google BigQuery
    • Betriebsdaten: Splunk
    • Schnelle analytische Datenbanken: Actian Vectorwise & ParAccel, Teradata Aster, HP Vertica, SAP Hana, SAP Sybase, Pivotal Greenplum, EXASOL EXASolution
  2. Self-Service-Visualisierung von Big Data für Geschäftsanwender: Geschäftliche Nutzer können ihre Daten mit Drag&Drop-Vorgängen visualisieren, ohne komplexe Anweisungen in SQL, Java-Code oder MapReduce schreiben zu müssen. Tableau vereinfacht die Aufgaben bei der Datenanalyse: Anwender erhalten schneller als je zuvor visuelle Erkenntnisse zu ihren Daten.
  3. Hybride Datenarchitektur zur Optimierung der Abfrageperformance: Tableau unterstützt Direktverbindungen mit Datenquellen oder importiert Daten in den Arbeitsspeicher. Die direkte Konnektivität eignet sich optimal für Verbindungen mit schnellen, interaktiven Abfrage-Engines und großen Datensätzen. Langsamere Datenquellen lassen sich aufwerten und beschleunigen, indem ein Datenextrakt erstellt und in die speicherresidente Daten-Engine importiert wird.
  4. Datenverschmelzung für Analysen mehrerer Datenquellen: Verteilte Daten sind häufig eine noch größere Herausforderung als Big Data. Die Daten der Analysten befinden sich nur selten in einem kompakten Datenpaket an einer Stelle. In der Regel verteilen sich die Daten auf mehrere Standorte sowie auf unterschiedliche Technologien und Plattformen. Mit Tableau können Anwender die verschiedensten Datenquellen erschließen, indem sie Big Data mit anderen Datenquellen verschmelzen von Big Data mit anderen Datenquellen (z. B. Salesforce-, MySQL-, Excel-Dateien), sodass die Datenbestände nicht verschoben werden müssen.
  5. Insgesamt verbessserte Plattform-Abfrageperformance: Angesichts der wachsenden Datenvolumen investiert Tableau fortlaufend in grundlegende Verbesserungen der Abfrageperformance, mit denen eine Interaktion mit Daten in Echtzeit unterstützt wird.. Ganz aktuell wurden die Funktionen für parallele Abfragen, Abfrageverschmelzung und Zwischenspeicherung externer Abfragen integriert. Tableau nutzt nun auch die Vektorisierung bei Prozessoren, die dafür ausgelegt sind.
  6. Leistungsfähige und einheitliche visuelle Schnittstellen mit Daten: Tableau bietet benutzerfreundliche Analysetools für das Filtern von Daten, die Erstellung von Prognosen sowie Trendlinienanalysen. Tableau kann darüber hinaus die Benutzeraktionen deuten und die beste Möglichkeit für die Darstellung der Daten anhand visueller Best Practices auswählen. Tableau stellt zudem eine einheitliche visuelle Schnittstelle mit Daten bereit, die für alle Datenquellen gleich ist, nachdem eine Datenverbindung hergestellt wurde.

Unsere Vision steht im Einklang mit der Gesamtentwicklung der Datenlandschaft von heute. Es ist zur neuen Normalität geworden, dass viele Kunden mit den unterschiedlichsten Big Data-Technologien arbeiten. Neben den Data Warehouses sind inzwischen Technologien wie Hadoop und Spark aufgrund ihrer Speicher- und Verarbeitungsmöglichkeiten Bestandteil der Datenarchitektur. Parallel dazu zeigt sich, dass bei Data Warehouses entsprechend ihrer Hadoop-Bereitstellungen eine Restrukturierung erfolgt. Häufig werden NoSQL-Datenbanken aufgrund ihrer flexiblen Datenmodelle, der geringen Latenzzeit und dem anwendungsspezifischen Design als Backend für Anwendungen gegenüber relationalen Datenbanken bevorzugt. Allgegenwärtig sind mittlerweile auch die Cloud-Datenquellen, da Geschäftsprozesse vorzugsweise in Cloud-fähigen CRM- und ERP-Systemen verwaltet werden. Das nutzungsabhängige Abrechnungsmodell wird für Datenspeicherung und -verarbeitung in der Cloud immer beliebter. Angesichts der vielfältigen und flexiblen Backends benötigen Benutzer ein Frontend-Tool wie Tableau, das sich flexibel mit Big Data-Plattformen, Cloud-Datenquellen und relationalen Datenbanken verbinden lässt und Methoden zur raschen und flexiblen Datenanalyse bereitstellt.

Möchten Sie weiterlesen? Hier das ganze Whitepaper herunterladen!

Weiterlesen …

Das könnte Sie auch interessieren ...