Les 10 grandes tendances de la BI pour 2018

Regarder la bande-annonce


Les solutions d'aide à la décision évoluent rapidement. Il est possible que ce qui fonctionne aujourd'hui ait besoin d'être amélioré demain. Du traitement du langage naturel à l'essor des contrats d'assurance pour les données, des clients et des équipes de Tableau nous ont aidés à identifier les 10 tendances décisives qui feront parler d'elles en 2018. Que vous soyez une Data Rockstar, un héros de l'IT ou un dirigeant en train de bâtir son empire BI, ces tendances mettent en lumière les priorités stratégiques qui peuvent vous aider à aller de l'avant.

1 N'ayez pas peur de l'intelligence artificielle

Découvrez comment le machine learning profite à l'analyste

La culture populaire encourage une vue dystopique de ce que le machine learning est capable de faire. Mais au fil des avancées de la recherche et de la technologie, le machine learning devient rapidement un accessoire essentiel pour l'analyste. En réalité, c'est son meilleur outil.

Supposons que vous deviez observer rapidement les conséquences d'un changement de prix sur un produit donné. Pour cela, vous devez exécuter une régression linéaire sur vos données. Avant Excel, R ou Tableau, tout cela devait être fait manuellement, ce qui prenait des heures. Grâce au machine learning, vous pouvez maintenant voir la consommation pour ce produit en quelques minutes, si ce n'est quelques secondes. En tant qu'analyste, vous n'avez plus à vous préoccuper de cette tâche fastidieuse et vous pouvez passer à la question suivante : la consommation plus élevée pour certains mois est-elle liée à un facteur extrinsèque comme un jour férié ? Un nouveau produit a-t-il été lancé ? Une couverture médiatique a-t-elle influencé l'achat ou la visibilité du produit ? Vous n'avez plus à vous demander si vous avez passé suffisamment de temps à peaufiner votre modèle de régression.

Le machine learning vous aide à déblayer une tonne de données lorsque vous avez besoin d'aide pour trouver une réponse.

Le machine learning aide l'analyste de deux manières. Premièrement, l'efficacité. Dans l'exemple ci-dessus, l'analyste ne perd plus un temps précieux à effectuer des calculs mathématiques de base. Il peut donc se concentrer davantage sur les implications commerciales et les étapes logiques suivantes. Deuxièmement, le machine learning facilite l'exploration des données et permet de mieux s'immerger dans l'analyse. L'analyste n'a plus à s'interrompre pour cruncher des chiffres et il peut passer directement à la question suivante. Comme le dit si bien Ryan Atallah, ingénieur logiciel, « Le machine learning vous aide à déblayer une tonne de données lorsque vous avez besoin d'aide pour trouver une réponse ».

Le machine learning peut indéniablement aider l'analyste, mais il faut bien comprendre qu'il n'est utile que si les résultats sont clairement définis. D'après Andrew Vigneault, responsable des équipes produit chez Tableau, « Le machine learning montre ses limites lorsque vos données sont subjectives ». Par exemple, si vous menez une enquête de satisfaction auprès de la clientèle, le machine learning ne peut pas toujours comprendre les expressions qualitatives.

Par ailleurs, l'analyste doit comprendre les indicateurs de réussite afin d'obtenir des informations réellement exploitables à partir des données. En d'autres termes, alimenter la machine en données ne suffit pas à produire des résultats utiles. Seul un être humain peut déterminer si le contexte fourni est suffisant. Autrement dit, le machine learning ne peut pas fonctionner isolément, sans que l'on comprenne le modèle et la nature des entrées/sorties.

Le risque de voir l'analyste remplacé par le machine learning est une inquiétude compréhensible, mais cette technologie l'aidera en réalité à être plus performant, plus précis, et à contribuer davantage à la réussite de son entreprise. Au lieu de craindre cette technologie, tirez pleinement parti des possibilités qu'elle offre.

IDC prévoit un chiffre d'affaires de 46 milliards de dollars d'ici 2020 pour les systèmes d'intelligence artificielle et de machine learning.

En 2020, l'intelligence artificielle aura une incidence positive sur l'emploi : elle sera à l'origine de 2,3 millions d'emplois alors qu'elle n'en éliminera que 1,8 million. (Gartner)

Ce sujet est-il tendance ?

Votez icià droite pour indiquer si d'après vous le machine learning sera l'une des grandes tendances de 2018.

2 L'influence des arts libéraux

L'impact humain des arts libéraux dans le secteur de l'analytique

Alors que les analystes talentueux sont toujours autant recherchés et que les entreprises s'efforcent de renforcer les compétences de leurs ressources internes, nous avons peut-être tous depuis le début une multitude de talents à portée de main. Nous savons combien l'art et la mise en récit ont influencé le secteur de l'analytique des données. Cela ne nous surprend pas. Ce qui est plus surprenant, c'est la manière dont les utilisateurs qui connaissent l'art de la mise en récit (ou storytelling), compétences propres aux arts libéraux, sont en train de reprendre les aspects techniques de la création d'un tableau de bord analytique, qui étaient auparavant réservés aux utilisateurs confirmés et à l'IT. De plus, les employeurs cherchent de plus en plus à recruter des personnes capables d'utiliser les données et les enseignements que l'on peut en tirer pour apporter du changement et piloter la transformation au sein de leur entreprise par l'art et la persuasion, et pas simplement sur la base de l'analytique pure.

À mesure que les plates-formes technologiques deviennent plus faciles à utiliser, l'on se focalise moins sur les spécialisations techniques. Tout le monde peut manipuler les données sans avoir le niveau de compétences qu'il fallait autrefois. C'est dans ce contexte que les personnes ayant des compétences plus diverses, y compris dans le domaine des arts libéraux, font la différence dans les secteurs et les structures en manque de spécialistes des données. Alors que l'analytique des données occupe de plus en plus une place prioritaire, ces pionniers des arts libéraux aideront les entreprises à comprendre que donner les outils adéquats à leurs employés représente un réel avantage compétitif.

Outre le souhait grandissant de recruter la nouvelle génération d'analystes, nous constatons également que plusieurs entreprises du secteur des technologies sont dirigées ou fortement influencées par des fondateurs ayant suivi un cursus dans les arts libéraux. C'est le cas notamment des fondateurs et dirigeants de Slack, LinkedIn, PayPal, Pinterest et d'autres entreprises technologiques à succès.

Il faut un certain niveau de compétence pour créer un tableau de bord et analyser des données, mais il y a une chose qui ne s'enseigne pas, c'est la façon de raconter une histoire avec les données.

Le livre « the Fuzzy and the Techie » de Scott Hartley illustre parfaitement l'intégration des arts libéraux dans une entreprise évoluant principalement dans le secteur des technologies. Nissan a embauché Melissa Cefkin, titulaire d'un doctorat en anthropologie, pour diriger les recherches sur l'interaction homme-machine, en particulier l'interaction entre les véhicules autonomes et les êtres humains. Dans ce domaine, la technologie a beaucoup évolué, mais certains problèmes subsistent dans des environnements mixtes homme-machine. À une intersection à quatre stops par exemple, un conducteur analyse généralement les situations au cas par cas, ce qui rend l'apprentissage de la machine quasiment impossible. Pour résoudre ce problème, Melissa Cefkin a dû s'appuyer sur ses connaissances en anthropologie afin d'identifier dans le comportement humain des modèles permettant d'apprendre aux véhicules autonomes à reproduire les mêmes types de comportements, puis à communiquer ces informations à la personne qui se trouve à bord du véhicule.

À mesure que l'analytique évolue davantage vers l'art que la science, la priorité n'est plus à la simple production de données, mais bien à l'élaboration d'histoires guidées par les données aboutissant inévitablement à des prises de décision. Les données suscitent plus d'intérêt que jamais. Le storytelling et la présentation des données prennent tout naturellement une importance croissante. L'âge d'or de la mise en récit est là, et nous avons tous dans nos équipes un spécialiste prêt à découvrir la prochaine information utile.

Les diplômés en arts libéraux rejoignent les équipes techniques 10 % plus vite que les techniciens. (LinkedIn)

Un tiers des PDG du Fortune 500 sont diplômés en arts libéraux. (Fast Company)

Ce sujet est-il tendance ?

Votez icià droite pour indiquer si d'après vous l'impact des arts libéraux sera l'une des grandes tendances de 2018.

3 La promesse du traitement du langage naturel

<

La promesse du traitement du langage naturel

En 2018, les outils de traitement du langage naturel gagneront du terrain et seront non seulement plus sophistiqués, mais aussi omniprésents, y compris dans des domaines que cette discipline n'avait pas encore atteints à mesure que les développeurs et ingénieurs apprendront à la connaître. Alexa d'Amazon, Google Home et Cortana de Microsoft ont connu une popularité grandissante, et les utilisateurs s'attendent maintenant à pouvoir parler à leurs logiciels et à ce que ceux-ci comprennent les ordres. Par exemple, demandez à Alexa de « jouer Yellow Submarine » et vous entendrez ce titre des Beatles dans la cuisine pendant que vous préparez le dîner. Ce même concept s'applique aux données, de sorte qu'il est plus facile pour tout le monde de poser des questions et d'analyser les données disponibles.

Selon Gartner, d'ici 2020, 50 % des requêtes analytiques seront générées via les recherches, le traitement du langage naturel ou la voix. Du jour au lendemain, il sera bien plus facile pour un PDG en déplacement de demander à son appareil mobile de lui indiquer le « Total des ventes pour les clients ayant acheté des produits de base à New York », puis de filtrer pour afficher les « commandes des 30 derniers jours » et de regrouper par « service du propriétaire du projet ». De la même façon, le proviseur de l'école de votre enfant pourra demander « quelle a été la moyenne des étudiants cette année », puis filtrer pour voir les « élèves de quatrième » et regrouper par « matière ». Le traitement du langage naturel permettra de poser des questions plus nuancées et de recevoir des réponses appropriées qui renseigneront mieux et amélioreront les décisions au quotidien.

[Le traitement du langage naturel] ouvre un peu les yeux des analystes et leur donne un peu d'aplomb et de confiance en leurs capacités.

De leur côté, les développeurs et ingénieurs réaliseront d'importants progrès dans l'apprentissage et la compréhension de la façon dont le traitement du langage naturel est utilisé. Ils étudieront la façon de poser les questions, ce qui va de la recherche d'une réponse instantanée (« quel produit s'est le mieux vendu ? ») à l'exploration (« je ne sais pas comment interpréter mes données, comment s'en sort mon service ? »). Comme le fait remarquer Ryan Atallah, ingénieur logiciel pour Tableau, « ce comportement est étroitement lié au contexte dans lequel la question est posée. » Si l'utilisateur final utilise son appareil mobile, il posera plus vraisemblablement une question qui produira une réponse instantanée, alors que s'il observe son tableau de bord confortablement assis à son bureau, il cherchera plutôt à explorer une question plus complexe.

Pour l'analytique, les plus gros progrès viendront de la compréhension des divers workflows que peut améliorer le traitement du langage naturel. Vidya Setlur, ingénieur logiciel chez Tableau, explique que « l'ambiguïté est un problème difficile ». La compréhension des workflows devient donc plus importante que les données utilisées pour une question spécifique. Lorsqu'une question peut être posée de plusieurs façons, par exemple, « Quel représentant a fait le plus de ventes ce trimestre ? » ou « Qui a fait le plus de ventes ce trimestre ? », l'utilisateur final cherche avant tout à obtenir une réponse et ne se préoccupe pas de la meilleure façon de poser la question.

Par conséquent, l'opportunité viendra non pas de l'utilisation du traitement du langage naturel dans toutes les situations, mais de sa disponibilité dans les bons workflows, de manière à ce qu'il devienne un automatisme.

D'ici 2019, 75 % des employés utilisant quotidiennement des applications d'entreprise dans leur travail auront accès à des assistants personnels intelligents afin de renforcer leurs compétences et leur expertise. (IDC)

D'ici 2021, plus de 50 % des entreprises dépenseront chaque année davantage pour la création de robots et de chatbots que pour le développement d'applications mobiles classiques. (Gartner)

Ce sujet est-il tendance ?

Votez icià droite pour indiquer si d'après vous le traitement du langage naturel sera l'une des grandes tendances de 2018.

4 Le débat sur le multi-cloud

Multi-cloud : le débat fait rage

Si votre entreprise envisage et évalue une stratégie multi-cloud pour 2018, sachez qu'elle n'est pas la seule.

D'après François Ajenstat, directeur produit, « Les entreprises se bousculent pour envoyer leurs données dans le cloud et déplacer leurs applications principales. Qu'ils optent pour le lift and shift ou le replatforming, les clients adoptent le cloud bien plus rapidement qu'autrefois. »

D'après une étude Gartner récente, « 70 % des entreprises opteront pour une stratégie multi-cloud d'ici 2019, contre moins de 10 % aujourd'hui ». Les clients craignent de plus en plus de se retrouver prisonniers d'une solution logicielle existante qui ne correspond pas à leurs futurs besoins. En revanche, le changement de solution et la migration sont devenus relativement plus faciles grâce à des API semblables et à l'utilisation de standards ouverts comme Linux, Postgres, MySQL et autres.

Votre entreprise s'intéresse probablement aussi à la manière dont les data centers sont conçus et fonctionnent. Votre service IT évalue les environnements d'hébergement en fonction du risque, de la complexité, de la vitesse et du coût, facteurs qui ne facilitent pas la recherche d'une solution unique pour tous vos besoins.

L'évaluation et la mise en œuvre d'un environnement multi-cloud peuvent permettre de déterminer qui offre les performances et l'assistance les mieux adaptées à votre situation. D'après le Boston Herald, GE a revu sa stratégie d'hébergement cloud pour exploiter à la fois Microsoft Azure et Amazon Web Services. Son intention était de comprendre quel environnement d'hébergement était le plus performant et de voir quel contrat leur permettait de minimiser les coûts répercutés sur les clients.

Cette stratégie multi-cloud ou cloud hybride devient de plus en plus importante pour aider à réduire les risques et offrir davantage de choix et de flexibilité aux clients.

La tendance multi-cloud s'accompagne d'une prise de conscience saine des bénéfices et des difficultés de la migration vers ce type d'environnement. Bien que la flexibilité reste un atout, un environnement multi-cloud augmente les coûts liés à la répartition des charges de travail entre plusieurs fournisseurs. Il faut par ailleurs qu'une équipe de développeurs interne connaisse plusieurs plates-formes et mette en place des processus de gouvernance supplémentaires en fonction des différents environnements à prendre en charge.

De plus, une stratégie multi-cloud pourrait potentiellement diminuer le pouvoir d'achat d'une entreprise. Lorsqu'il y a plusieurs fournisseurs, les remises sur quantités sont moins importantes. Cela aboutit à moins d'achats, avec des tarifs moins intéressants.

Les sondages et statistiques, comme l'étude de Gartner citée plus haut, indiquent une augmentation de l'adoption du multi-cloud. Cela ne renseigne pas en revanche sur le taux d'adoption d'une plate-forme donnée. Souvent, les entreprises utilisent un fournisseur pour la plupart de leurs besoins, et quelques autres seulement pour le reste. Mais dans la plupart des cas, elles mettent en œuvre un deuxième environnement d'hébergement cloud comme système de secours en cas d'inefficience ou de panne de l'environnement principal.

Si l'on s'attend à une adoption accrue du multi-cloud en 2018, les professionnels devront chercher à savoir si leur stratégie tient compte du taux d'adoption de chaque plate-forme cloud, de l'utilisation en interne, des charges de travail demandées et des coûts de mise en œuvre.

D'ici 2019, 70 % des entreprises mettront en œuvre une stratégie de multi-cloud. (Gartner)

74 % des directeurs financiers et techniques pensent que le cloud computing sera l'élément qui aura l'incidence la plus mesurable sur leur activité en 2017. (Forbes)

Ce sujet est-il tendance ?

Votez icià droite pour indiquer si d'après vous le multi-cloud sera l'une des grandes tendances de 2018.

5 L'essor des CDO

L'essor des CDO

Les données et l'analytique deviennent incontournables dans les entreprises. C'est indiscutable. À mesure que les entreprises évoluent, elles donnent la priorité à un nouveau niveau de responsabilité et de direction stratégique en ce qui concerne leur analytique.

Auparavant, la plupart des tâches liées à l'aide à la décision étaient confiées au directeur des systèmes d'information (DSI), qui supervisait la normalisation, la consolidation et la gouvernance des données dans toute l'entreprise, ce qui nécessitait un reporting homogène. De ce fait, les initiatives BI (gouvernance des données, élaboration de modèles analytiques, etc.) se retrouvaient en concurrence avec les autres initiatives stratégiques (par exemple, l'architecture IT, la sécurité des systèmes ou la stratégie réseau) dont le DSI avait la charge, ce qui compromettait la réussite et l'impact de l'aide à la décision.

Cela occasionnait parfois un fossé entre le DSI et les utilisateurs métier en raison du dilemme entre l'accès rapide aux informations exploitables d'une part, et la sécurité et la gouvernance des données d'autre part. Aussi, pour tirer des enseignements utiles à partir des données grâce à des investissements dans des outils analytiques, les entreprises sont de plus en plus conscientes de la nécessité d'impliquer la direction afin de développer une culture analytique. La solution consiste de plus en plus souvent à désigner un Chief Data Officer (CDO) ou un Chief Analytics Officer (CAO) chargé de transformer les processus métier, de surmonter les barrières culturelles et de montrer la valeur de l'analytique à tous les niveaux de l'entreprise. Cela permet au DSI de se recentrer sur des aspects plus stratégiques tels que la sécurité des données.

Mon travail consiste à fournir des outils et des technologies et à donner à l'équipe les moyens de travailler efficacement.

Le fait de désigner un CDO ou un CAO chargé d'opérer un changement et de générer de meilleurs résultats démontre également la valeur stratégique des données et de l'analytique dans les entreprises modernes. La façon de déployer une stratégie analytique fait désormais l'objet d'une discussion proactive au niveau des cadres dirigeants. Au lieu d'attendre que les utilisateurs métier demandent un rapport en particulier, le CDO s'interroge sur la manière d'anticiper ou de s'adapter rapidement à ces demandes.

Les entreprises consacrent davantage d'argent et de ressources à la mise en place d'une équipe compétente sous la responsabilité de ce cadre dirigeant. Selon Gartner, d'ici 2020, 80 % des grandes entreprises auront totalement mis en œuvre un service pour le CDO. À l'heure actuelle, cela représente 38 employés en moyenne, mais 66 % des entreprises interrogées s'attendent à une augmentation du budget alloué à ce service.

Josh Parenteau, directeur de la veille stratégique chez Tableau, fait remarquer que le rôle du CDO est « axé sur les résultats ». Il déclare « qu'il ne s'agit pas simplement de stocker des données dans un entrepôt de données en espérant que quelqu'un s'en serve un jour, mais de définir précisément leur utilisation et de s'assurer d'en retirer de la valeur ». Cette focalisation sur les résultats est essentielle, d'autant plus qu'elle est en phase avec les trois objectifs principaux énoncés dans l'enquête Gartner de 2016 sur les CDO, à savoir une meilleure connaissance du client, un avantage compétitif accru et une amélioration de l'efficacité. Ces objectifs poussent des entreprises comme Wells Fargo, IBM, Aetna et Ancestry à mettre en place des CDO dans le but d'optimiser leur stratégie de données. Le rôle de Chief Data Officer deviendra dès lors essentiel en 2018.

90 % des grandes entreprises disposeront d'un CDO d'ici 2019. (Gartner)

D'ici 2020, 50 % des entreprises de premier plan auront un CDO avec une influence et une autorité similaires à celles de leur DSI.

Ce sujet est-il tendance ?

Votez icià droite pour indiquer si d'après vous les CDO seront l'une des grandes tendances de 2018.

6 La gouvernance par le crowdsourcing

Le futur de la gouvernance des données passe par le crowdsourcing

L'aide à la décision moderne est passée du confinement des contenus et des données à la mise à disposition de données gouvernées et fiables, que des utilisateurs métier peuvent exploiter où qu'ils soient afin d'en tirer des enseignements utiles. Et alors que les utilisateurs apprennent à utiliser les données dans davantage de situations, leur contribution à l'élaboration de meilleurs modèles de gouvernance devient un atout majeur au sein des entreprises.

Cela va sans dire que l'analytique en libre-service a révolutionné le monde de l'aide à la décision. Grâce à ce changement radical, quiconque a le potentiel de créer des analyses peut poser des questions cruciales et trouver les réponses. La gouvernance connaît le même bouleversement. Avec la généralisation de l'analytique en libre-service, un ensemble d'informations et de perspectives intéressantes commence à inspirer un renouveau dans la mise en œuvre de la gouvernance.

La gouvernance remplit deux fonctions : utiliser les connaissances de tous pour mettre les bonnes données à la disposition des bonnes personnes, et empêcher les utilisateurs non autorisés d'accéder aux données.

La gouvernance remplit deux fonctions : utiliser les connaissances de tous pour mettre les bonnes données à la disposition des bonnes personnes, et empêcher les utilisateurs non autorisés d'accéder aux données.

L'utilisateur métier ne souhaite en aucun cas être responsable de la sécurité des données. La mise en place de bonnes politiques de gouvernance lui permet de poser des questions et de trouver des réponses, tout en le laissant accéder aux données dont il a besoin, lorsqu'il en a besoin.

Les stratégies pour la BI et l'analytique adopteront le modèle de gouvernance moderne : les services IT et les ingénieurs Data s'occuperont de la curation et de la préparation de sources de données de confiance, ce qui permettra aux utilisateurs finaux d'explorer librement des données fiables et sécurisées grâce à la généralisation du libre-service. Les processus descendants qui impliquent uniquement le contrôle par l'IT laisseront place à un processus de développement collaboratif combinant les talents de l'IT et des utilisateurs finaux. Ensemble, ils identifieront les données essentielles à gouverner et créeront des règles et des processus qui maximiseront la valeur métier de l'analytique sans compromettre la sécurité.

45 % des data citizens déclarent que moins de la moitié de leurs rapports sont constitués de données de bonne qualité. (Collibra)

61 % des membres de la direction et des cadres dirigeants déclarent que les décisions qu'ils prennent dans leur entreprise sont rarement fondées sur les données. (PwC)

Ce sujet est-il tendance ?

Votez icià droite pour indiquer si d'après vous la gouvernance par le crowdsourcing sera l'une des grandes tendances de 2018.

7 L'assurance pour les données

La vulnérabilité provoque un essor des contrats d'assurance pour les données

Les données constituent un actif stratégique pour de nombreuses entreprises. Mais comment mesurer leur valeur ? Et que se passe-t-il lorsque des données sont perdues ou volées ? Comme nous avons pu le constater récemment avec les fuites de données qu'ont subies certaines grandes entreprises, la vulnérabilité peut nuire à l'image de la marque et parfois causer des dommages irréversibles.

Selon une étude de 2017 du Ponemon Institute, le coût total moyen d'une fuite de données est estimé à 3,62 millions de dollars.

Mais les entreprises font-elles tout leur possible pour protéger et assurer leurs données ? Depuis ces fuites de données, le marché de l'assurance contre les cybermenaces est en pleine expansion. Ce secteur a connu une croissance de 30 % d'une année sur l'autre et devrait générer un chiffre d'affaires annuel de 5,6 milliards de dollars de primes brutes souscrites d'ici 2020. (AON)

Dans le domaine des risques cybernétiques et de la confidentialité, l'assurance couvre la responsabilité de l'entreprise en cas de fuite de données entraînant la divulgation ou le vol des informations personnelles des clients.

Pourtant, malgré la croissance du marché et le risque constant de fuites de données, aux États-Unis seulement 15 % des entreprises ont souscrit une police d'assurance qui couvre les fuites de données et les cybermenaces. De plus, sur ces 15 %, la plupart sont de grandes institutions financières bien établies.

Vous devez décider quel risque vous êtes prêt à prendre. Quel est le risque réel pour votre activité ?

Les institutions financières ont clairement besoin de polices d'assurance. Mais la tendance est à la diversification pour toucher d'autres secteurs verticaux, car personne n'est à l'abri d'une fuite de données.

Doug Laney, analyste chez Gartner, est l'auteur du livre intitulé « Infonomics: How to Monetize, Manage, and Measure Information for Competitive Advantage » (Économie de l'information : comment monétiser, gérer et mesurer l'information pour obtenir un avantage concurrentiel). Il propose différents modèles, financiers et non financiers, pour évaluer la valeur des données dans tous les secteurs d'activité.

Les modèles non financiers sont axés sur la valeur intrinsèque, la valeur métier et la valeur de performance des données. Ces valeurs permettent de mesurer la singularité, la précision, la pertinence et le rendement interne d'une entreprise, ainsi que l'impact global sur leur utilisation.

Les modèles financiers sont axés sur le coût, la valeur économique et la valeur marchande des données. Ces valeurs peuvent mesurer le coût d'acquisition des données et leur administration en interne, ainsi que la valeur que représente la vente ou la mise à disposition sous licence de vos données.

La valeur des données, en tant que ressource, ne peut qu'augmenter : cette tendance suscitera de nouvelles questions et discussions sur la manière dont cette ressource brute aidera les entreprises à atteindre de nouveaux sommets et leur sera bénéfique à l'avenir. Et comme tout autre produit, à quoi bon produire cette ressource si elle peut être dérobée sans conséquence ?

Le coût total moyen d'une fuite de données est estimé à 3,62 millions de dollars. (Ponemon)

Aux États-Unis, seulement 15 % des entreprises ont une police d'assurance spécifique pour couvrir leurs données. (Ponemon)

Ce sujet est-il tendance ?

Votez icià droite pour indiquer si d'après vous les contrats d'assurance pour les données seront l'une des grandes tendances de 2018.

8 Le rôle d'ingénieur Data

L'importance accrue de l'ingénieur Data

Une chose est sûre : vous ne pouvez pas créer de tableau de bord si tous les graphiques ne sont pas prêts pour vous aider à comprendre l'histoire que vous essayez de communiquer. Autre principe qui vous est probablement familier : votre source de données ne peut pas être fiable si vous ne comprenez pas le type de données qui entrent dans le système ni la manière de les en faire sortir.

Les ingénieurs Data continueront de jouer un rôle clé dans la transition vers l'utilisation des données pour prendre de meilleures décisions. Entre 2013 et 2015, le nombre d'ingénieurs Data a plus que doublé. Depuis octobre 2017, il y a eu plus de 2 500 postes avec les mots « data engineer » à pourvoir sur LinkedIn, ce qui indique une demande croissante et constante pour cette spécialité.

Les ingénieurs Data jouent un rôle fondamental dans la mise en place du libre-service pour les plates-formes analytiques modernes.

En quoi consiste ce rôle et pourquoi est-il si important ? L'ingénieur Data est responsable de la conception, du développement et de la gestion des bases de données analytiques et opérationnelles d'une entreprise. Autrement dit, il est chargé d'extraire les données des systèmes de base de manière à les rendre utilisables et exploitables pour en tirer des enseignements utiles et prendre des décisions. Avec l'augmentation de la capacité de stockage et du volume des données disponibles, une personne qui a une bonne connaissance technique des différents systèmes et qui est en mesure de comprendre les attentes et les besoins de l'utilisateur métier devient plus que jamais indispensable.

Mais le rôle d'ingénieur Data requiert des compétences spécifiques. Il doit comprendre la base de données backend, ce que contiennent les données et la manière dont elles peuvent bénéficier à l'utilisateur métier. Il doit aussi mettre en œuvre des solutions techniques afin de rendre les données exploitables.

Voici ce que dit Michael Ashe, recruteur senior chez Tableau. « Je ne suis pas un débutant. Je travaille dans le recrutement technique depuis plus de 17 ans. Et cela ne me surprend pas que la capacité de stockage et le volume des données disponibles continuent d'augmenter. Il y a eu des progrès prodigieux dans ce domaine. Les données auront toujours besoin d'être peaufinées. Les entreprises doivent continuer d'assumer ce rôle. Elles doivent se plonger dans des données spécifiques afin de prendre leurs décisions. Le rôle d'ingénieur Data continuera de se développer, cela ne fait aucun doute. »

En 2016, une étude de Gartner a montré que les entreprises interrogées perdaient en moyenne 9,7 millions de dollars par an en raison de la mauvaise qualité de leurs données.

Les data scientists et les analystes peuvent passer jusqu'à 80 % de leur temps à nettoyer et préparer des données. (TechRepublic)

Ce sujet est-il tendance ?

Votez icià droite pour indiquer si d'après vous le rôle d'ingénieur Data sera l'une des grandes tendances de 2018.

9 Géolocalisation des objets

Vers l'innovation de l'IoT grâce à la géolocalisation des objets

Le moins que l'on puisse dire, c'est que la prolifération de l'Internet des objets a entraîné une croissance phénoménale du nombre d'appareils connectés dans le monde. Tous ces appareils interagissent entre eux et recueillent des données pour une plus grande expérience connectée. Gartner prédit que d'ici 2020, le nombre d'appareils IoT proposés aux consommateurs fera plus que doubler, « avec 20,4 milliards d'appareils IoT en ligne ».

Malgré cette croissance, les cas d'utilisation et la mise en œuvre des données IoT ne suivent pas la même tendance. Les entreprises sont préoccupées par la sécurité, mais la plupart ne possèdent pas les compétences organisationnelles requises ni l'infrastructure technique interne avec d'autres applications et plates-formes pour prendre en charge les données IoT.

Quand elles pensent « emplacement » ou « géospatial », beaucoup d'entreprises considèrent qu'il s'agit d'une dimension. C'est quelque chose qui mérite d'être analysé… la nouvelle tendance est que cela devient une information en entrée dans le processus analytique.

Nous observons une tendance encourageante : l'utilisation des données basées sur la géolocalisation et les bénéfices de leur exploitation grâce aux appareils IoT. Cette technologie, appelée « géolocalisation des objets », fournit un système de positionnement des appareils IoT et communique leur position géographique. Le fait de connaître la position d'un appareil IoT nous permet d'ajouter du contexte, mais aussi de mieux comprendre ce qui se passe et de mieux anticiper ce qui se passera dans un lieu particulier.

Différentes technologies sont utilisées par ceux qui cherchent à capturer ces données. Par exemple, les hôpitaux, les magasins et les hôtels ont commencé à utiliser la technologie BLE (Bluetooth à basse consommation) pour les services de géolocalisation en intérieur, là où les GPS peinent généralement à fournir le positionnement contextuel. Cela peut permettre la traçabilité des biens ou des personnes, voire l'interaction avec des appareils mobiles tels que des montres intelligentes ou des badges, pour une expérience personnalisée.

Comme cela se rapporte à l'analyse de données, les chiffres basés sur la géolocalisation peuvent être considérés comme des entrées et les résultats comme des sorties. Si les données sont disponibles, les analystes peuvent les incorporer à leurs analyses pour mieux comprendre ce qui se passe, où cela se produit, et à quoi ils peuvent s'attendre dans un endroit donné.

Les points de terminaison IoT atteindront les 30 milliards d'ici 2020. (IDC)

On peut s'attendre à une croissance fulgurante de l'IoT, qui générera plus de 5 milliards de dollars d'ici la fin de l'année 2020. (Gartner)

Ce sujet est-il tendance ?

Votez icià droite pour indiquer si d'après vous la géolocalisation des objets sera l'une des grandes tendances de 2018.

10 L'investissement de l'enseignement

Les universités mettent les bouchées doubles sur la data science et l'analytique

L'université d'État de Caroline du Nord est la première à proposer un Master en sciences analytiques (MSA) dans son Institut d'analytique avancée (IAA), un hub de données ayant pour mission de « former les meilleurs analystes du monde, qui maîtrisent les outils et méthodes complexes de modélisation des données à grande échelle et ont une passion pour la résolution de problèmes difficiles... ». Ce programme précurseur de l'État de Caroline du Nord est annonciateur d'investissements importants dans les cursus de data science et d'analytique.

Plus tôt dans l'année, l'Université de Californie (UC) à San Diego a mis en place une majeure et une mineure en data science en premier cycle, une première pour cet établissement. Mais elle ne s'est pas arrêtée là. L'université a également prévu de créer un institut en data science généreusement financé par un don d'un ancien étudiant. L'UC Berkeley, l'UC Davis et l'UC Santa Cruz ont suivi le mouvement et proposent davantage d'options en data science et en analytique. La demande a dépassé les attentes. Pourquoi ?

Je suis constamment surprise par les idées des étudiants, et je suis impressionnée par leur faculté à observer intuitivement les données et à jouer avec pour créer des visualisations.

Selon une étude récente de PwC, d'ici 2021 69 % des employeurs exigeront des compétences en data science et en analytique. En 2017, Glassdoor a également indiqué que la data science figurait en « tête de liste des emplois » pour la deuxième année consécutive. Alors que cette compétence est de plus en plus recherchée, il devient urgent de former des spécialistes très qualifiés. Mais la réalité est bien différente. Le même rapport PwC indique que seulement 23 % des diplômés universitaires auront les compétences attendues. Un sondage récent du MIT révèle que 40 % des managers peinent à recruter de bons analystes.

La maîtrise de l'analytique n'est plus un simple atout, elle est indispensable. En 2018, nous verrons émerger une approche plus rigoureuse de la formation des étudiants, afin qu'ils disposent des compétences requises pour répondre aux nouvelles exigences du marché du travail. Les entreprises continueront d'améliorer leurs données pour en tirer pleinement parti, aussi la demande de personnel très qualifié ne fera-t-elle qu'augmenter.

D'ici 2021, 69 % des employeurs exigeront des compétences en data science et en analytique. (PWC)

Un récent sondage du MIT révèle que 40 % des managers peinent à recruter de bons analystes. (MIT)

Ce sujet est-il tendance ?

Votez icià droite pour indiquer si d'après vous l'investissement de l'enseignement supérieur sera l'une des grandes tendances de 2018.

Téléchargez le PDF sur les 10 grandes tendances de la BI pour 2018