Notre vision du Big Data


Présentation | Ce que vous allez découvrir : 

Tableau s'est donné pour mission d'aider les utilisateurs à visualiser et à comprendre leurs données. Nous pensons fondamentalement que cela repose sur la démocratisation des données. Autrement dit, il faut donner aux utilisateurs qui connaissent bien les données les moyens de les interroger et de les analyser. Tout travailleur du savoir doit être en mesure d'accéder facilement à ses données, peu importe leur emplacement. Ces mêmes utilisateurs doivent également pouvoir analyser leurs données et découvrir les informations exploitables qu'elles renferment sans faire appel aux rares élites que sont les spécialistes de la science des données (les « data scientists ») et les développeurs informatiques.

La visualisation des données est cruciale, quel que soit leur volume, car elle permet de traduire des informations en découvertes et décisions. Cette approche de la visualisation des données massives revêt une importance particulière en raison des coûts très élevés que représentent le stockage, la préparation et l'interrogation de ces données. Par conséquent, les entreprises doivent tirer parti de sources de données optimisées et appliquer les meilleures pratiques de manière rigoureuse pour permettre à ces travailleurs du savoir d'interroger directement cette gigantesque quantité de données. Le Big Data a donné lieu à de nombreuses innovations ces dernières années. Les options disponibles aujourd'hui sont par conséquent variées et présentent des avantages différents. Chez Tableau, nous considérons qu'il faut soutenir toute plate-forme Big Data qui devient importante pour nos utilisateurs et les aider à interagir en temps réel avec leurs données.

Nous vous proposons ici quelques pages extraites du début du livre blanc. Téléchargez le PDF via le formulaire ci-contre à droite pour lire la suite.


La stratégie de Tableau pour le Big Data

Tableau s'est donné pour mission d'aider les utilisateurs à visualiser et à comprendre leurs données. Nous pensons fondamentalement que cela repose sur la démocratisation des données. Autrement dit, il faut donner aux utilisateurs qui connaissent bien les données les moyens de les interroger et de les analyser. Tout travailleur du savoir doit être en mesure d'accéder facilement à ses données, peu importe où elles résident. Ces mêmes utilisateurs doivent également pouvoir analyser leurs données et découvrir les informations exploitables qu'elles renferment sans faire appel aux rares élites que sont les spécialistes de la science des données (les « data scientists ») et les développeurs informatiques.

La visualisation des données est cruciale, quel que soit leur volume, car elle permet de traduire des informations en découvertes et décisions. Cette approche de la visualisation des données massives revêt une importance particulière en raison des coûts très élevés que représentent le stockage, la préparation et l'interrogation de ces données. Par conséquent, les entreprises doivent tirer parti de sources de données optimisées et appliquer les meilleures pratiques de manière rigoureuse pour permettre à ces travailleurs du savoir d'interroger directement cette gigantesque quantité de données. Le Big Data a donné lieu à de nombreuses innovations ces dernières années. Les options disponibles aujourd'hui sont par conséquent variées et présentent des avantages différents. Chez Tableau, nous considérons qu'il faut soutenir toute plate-forme Big Data qui devient importante pour nos utilisateurs et les aider à interagir en temps réel avec leurs données.

Pour atteindre cet objectif en matière de Big Data, Tableau s'appuie sur 6 piliers :

  1. Accès étendu aux plates-formes Big Data : notre vision consiste en partie à faciliter l'analyse des données massives, peu importe où elles sont stockées. Tableau prend en charge plus de 40 sources de données différentes à ce jour, et bien plus grâce aux capacités évolutives de nos produits. À mesure que de nouvelles sources de données font leur apparition et se révèlent incontournables pour nos utilisateurs, nous les intégrons à notre produit pour faciliter encore plus l'accès aux données. Nos connecteurs permettant une connexion native à l'écosystème Big Data incluent notamment :
    • Hadoop : Cloudera Impala et Hive, Hortonworks Hive, MapR Hive, Amazon EMR avec Impala et
    • Hive, Pivotal HAWQ, IBM BigInsights
    • NoSQL : MarkLogic, Datastax
    • Spark : Apache Spark SQL
    • Cloud : Amazon Redshift, Google BigQuery
    • Données opérationnelles : Splunk
    • Bases de données analytiques rapides : Actian Vectorwise et ParAccel, Teradata Aster, HP Vertica, SAP Hana, SAP Sybase, Pivotal Greenplum, EXASOL EXASolution
  2. Visualisation en libre-service dans un environnement Big Data : les utilisateurs professionnels peuvent visualiser leurs données par le biais du glisser-déposer, sans devoir recourir à du code SQL ou Java complexe ou à des tâches MapReduce. Tableau simplifie l'analyse des données : les utilisateurs peuvent découvrir visuellement des informations exploitables plus rapidement que jamais.
  3. Architecture hybride pour l'optimisation des performances des requêtes : Tableau permet de se connecter à des sources de données en direct ou de les importer dans la mémoire. La connexion en direct est efficace avec des moteurs de requête interactifs rapides et les ensembles de données volumineux. Néanmoins, il est également possible d'accélérer les sources de données lentes en créant un extrait des données et en l'intégrant dans le moteur de données en mémoire.
  4. Fusion des données pour analyser plusieurs sources de données : les données distribuées sont souvent plus problématiques que le Big Data. En effet, elles sont rarement regroupées au même endroit, mais plutôt disséminées sur plusieurs plates-formes aux technologies différentes. Tableau permet d'accéder à plusieurs sources de données en fusionnant les Big Data avec d'autres sources (par exemple Salesforce, MySQL ou les fichiers Excel), ce qui permet aux entreprises de conserver leurs données à leurs emplacements d'origine.
  5. Performances globales des requêtes : à mesure que le volume des données augmente, Tableau met au point des solutions visant à améliorer les performances des requêtes et ainsi faciliter l'interrogation en direct des données. Ces solutions incluent notamment l'exécution de requêtes en parallèle, la fusion des requêtes ou le cache externe des requêtes. Par ailleurs, Tableau tire également parti de la vectorisation pour les processeurs qui la prennent en charge.
  6. Interface puissante et homogène pour les données : Tableau propose des outils permettant notamment de filtrer les données et d'exécuter des analyses avec des prévisions ou des courbes de tendance à l'aide d'actions simples. Le logiciel interprète également les actions de l'utilisateur et sélectionne la manière optimale de représenter les données en fonction des meilleures pratiques visuelles. Tableau propose aussi une interface visuelle unique et homogène pour toutes les sources de données lors de la connexion aux données.

Notre vision est parfaitement adaptée à l'évolution du paysage global des données. Il est devenu courant que de nombreux clients gèrent un ensemble disparate de technologies Big Data. Hadoop ou Spark par exemple font désormais partie de l'architecture des données, tout comme les entrepôts, en raison de leur capacité à stocker et traiter les données. En parallèle, les clients dimensionnent leurs entrepôts de données en fonction de leurs déploiements Hadoop. Les bases de données NoSQL sont fréquemment choisies comme dorsales au détriment des bases de données relationnelles pour les applications, en raison de leurs modèles de données flexibles, de leur faible latence et de leur conception spécifique aux applications. Enfin, les sources de données dans le cloud sont omniprésentes, alors que les systèmes CRM et ERP dans le cloud sont généralement choisis pour la gestion des processus métiers et que le modèle de tarification à la carte gagne en popularité pour le stockage et le traitement de données dans le cloud. Avec des structures dorsales aussi diversifiées et flexibles, les utilisateurs ont besoin d'un outil frontal tel que Tableau pour se connecter en toute flexibilité aux plates-formes Big Data, aux sources de données dans le cloud et aux bases de données relationnelles, afin de disposer de toute la souplesse nécessaire pour analyser leurs données.

Vous souhaitez en savoir plus ? Téléchargez l'intégralité du livre blanc !

Continuer la lecture…



Les ressources suivantes peuvent vous intéresser...