I 10 trend principali della business intelligence per il 2018

Guarda il teaser


Le soluzioni di business intelligence si evolvono così rapidamente che quello che funziona oggi potrebbe non essere più del tutto adeguato domani. Abbiamo intervistato clienti e personale di Tableau su vari temi, dall'elaborazione del linguaggio naturale alla diffusione delle polizze assicurative sui dati, per identificare i 10 trend principali per il 2018. Questi trend mettono in evidenza le priorità strategiche che potrebbero fare la differenza per un'azienda e interessano sia gli esperti di dati, che gli specialisti IT, che i dirigenti che stanno allestendo la propria infrastruttura di business intelligence.

1 Non temere l'intelligenza artificiale

L'apprendimento automatico offrirà più possibilità agli analisti

La cultura popolare sta alimentando una visione distopica delle possibilità offerte dall'apprendimento automatico. Invece, parallelamente al costante miglioramento della ricerca e della tecnologia, l'apprendimento automatico sta rapidamente diventando un prezioso supporto per l'analista. Si può in realtà considerare quasi il suo assistente.

Supponiamo che ti serva avere una visione immediata dell'impatto di una variazione di prezzo su un determinato prodotto. Per ottenerla, dovresti eseguire una regressione lineare dei dati. Quando non c'era Excel, R o Tableau, questa operazione doveva essere eseguita manualmente e richiedeva diverse ore. Grazie all'apprendimento automatico, ora puoi osservare il consumo di un prodotto nell'arco di pochi minuti, se non secondi. L'analista quindi non deve occuparsi dei calcoli veri e propri e può passare direttamente alla domanda successiva: i mesi con il maggior consumo erano associati a fattori estrinseci, come ad esempio la presenza di giorni festivi? Era stata rilasciata una nuova versione del prodotto? C'era stata una copertura mediatica che aveva influito sull'acquisto del prodotto o l'aveva fatto conoscere ai consumatori? Non ti capiterà mai di pensare che avresti dovuto dedicare più tempo a perfezionare il modello di regressione.

Quando hai bisogno di assistenza per ottenere una risposta, l'apprendimento automatico ti aiuta a vedere attraverso numerosi livelli di informazioni.

L'apprendimento automatico si rivela di aiuto per l'analista sotto due aspetti. Il primo è l'efficienza. Riprendendo l'esempio appena citato, l'analista non deve perdere tempo prezioso su calcoli matematici di base. Adesso ha più tempo per riflettere sulle implicazioni per l'azienda e sui prossimi passaggi logici. Il secondo consiste nella possibilità di esaminare i dati senza dover interrompere il flusso di analisi, perché non è più necessario dedicarsi ai calcoli e si può quindi passare direttamente alla domanda successiva. Per usare le parole di Ryan Atallah, Staff Software Engineer, "quando hai bisogno di assistenza per ottenere una risposta, l'apprendimento automatico ti aiuta a vedere attraverso numerosi livelli di informazioni".

Il potenziale dell'apprendimento automatico a vantaggio degli analisti è innegabile, ma è fondamentale capire anche che deve essere sfruttato quando i risultati sono definiti in modo chiaro. Come spiega Andrew Vigneault, Staff Product Manager di Tableau, "l'apprendimento automatico non dà grandi risultati quando i dati sono soggettivi". Ad esempio, se si svolge un sondaggio sulla soddisfazione dei clienti in merito a un prodotto, l'apprendimento automatico non sempre è in grado di comprendere i termini qualitativi.

Inoltre, l'analista ha bisogno di individuare i misuratori di riuscita per dare un senso ai dati e capire che azione intraprendere. In altre parole, inserire informazioni in un computer non è sufficiente per avere risultati utili. Soltanto un operatore umano è in grado di capire se è stato preso in considerazione un contesto sufficiente; questo significa che non è possibile utilizzare l'apprendimento automatico in isolamento, ossia senza conoscere il modello, gli input e gli output.

Sebbene l'uomo tema di essere sostituito, l'apprendimento automatico in realtà migliorerà le possibilità a disposizione degli analisti, rendendoli più efficienti, precisi e utili per l'azienda. Quindi invece di temere la tecnologia di apprendimento automatico, abbraccia le opportunità che ti offre.

IDC stima che i guadagni derivanti dall'intelligenza artificiale e da sistemi di apprendimento automatico si aggireranno attorno ai 46 miliardi di dollari entro il 2020.

Nel 2020, l'intelligenza artificiale diventerà un fattore di stimolo occupazionale, e creerà 2,3 milioni di posti di lavoro, facendone scomparire solo 1,8 milioni. (Gartner)

Quanto è caldo questo trend?

Esprimi il tuo voto a destrain basso per indicare quanto sarà caldo secondo te nel 2018 il trend dell'apprendimento automatico. Desideri aggiungere un undicesimo trend? Partecipa al sondaggio!

2 L'influenza delle discipline umanistiche

L'influenza delle discipline umanistiche sulla sfera analitica

Il settore dell'analisi dei dati è costantemente alla ricerca di figure competenti e le aziende hanno l'esigenza di rafforzare il proprio team di analisti; eppure tutti i talenti che ci servono sono probabilmente sempre stati lì, sotto i nostri occhi. Sappiamo già come l'arte e lo storytelling abbiano influenzato l'analisi dei dati. E non ci sorprende. Quello che ci sorprende, invece, è come gli aspetti tecnici legati alla creazione di dashboard analitiche, un tempo appannaggio dei reparti IT e di utenti esperti, oggi siano in mano a utenti abili nell'arte dello storytelling, un insieme di competenze che proviene principalmente da studi umanistici. Inoltre, le aziende stanno privilegiando sempre di più l'assunzione di personale che sappia utilizzare i dati e i risultati delle analisi per guidare i cambiamenti e favorire la trasformazione tramite l'arte e la persuasione, non solo in base all'analisi.

Man mano che aumenta la facilità d'uso delle piattaforme tecnologiche, diminuisce l'interesse verso le competenze tecniche. Chiunque può maneggiare i dati senza le approfondite competenze tecniche richieste in passato. Quindi entra in gioco chi possiede competenze più ampie, come quelle umanistiche, soprattutto in quei settori e quelle aziende con carenza di personale addetto alla gestione dei dati. Le aziende che considerano l'analisi dei dati una priorità sono sempre di più e questi addetti ai dati con formazione umanistica le aiuteranno a capire che mettere i dati nelle mani del personale è un vantaggio competitivo.

Non solo abbiamo riscontrato un ampio interesse nell'assunzione di una nuova generazione di addetti alla gestione dei dati, ma abbiamo anche osservato diversi casi di aziende del settore tecnologico che sono dirette o fortemente influenzate da fondatori con un background umanistico. Basti citare i fondatori e i dirigenti di Slack, LinkedIn, PayPal, Pinterest e di numerose altre aziende tecnologiche di grande successo.

Per creare una dashboard ed effettuare analisi, sono necessarie diverse competenze, ma c'è qualcosa che non si può proprio insegnare, ed è il modo di narrare una storia basandosi sui dati.

Un esempio calzante che riguarda l'introduzione di competenze umanistiche in un'azienda con una predominante componente tecnologica è riportato nel recente libro di Scott Hartley, intitolato "The Fuzzy and the Techie" (letteralmente "Gli umanisti e i tecnici"). Nissan ha assunto l'antropologa Melissa Cefkin per dirigere la ricerca sull'interazione uomo-macchina, e in particolare sull'interazione tra veicoli a guida automatica e uomo. La tecnologia alla base di questi veicoli ha fatto grandi progressi, ma rimangono diverse problematiche che riguardano gli ambienti misti uomo-macchina. Ad esempio, agli incroci di quattro strade che presentano un segnale di stop su tutte le direzioni (comuni negli Stati Uniti), un conducente umano di solito analizza le situazioni caso per caso, ma questo è quasi impossibile da insegnare a una macchina. Per affrontare questa situazione, la Cefkin aveva il compito di basarsi sul suo background antropologico per individuare nel comportamento umano schemi che potessero insegnare meglio ai veicoli a guida automatica come si comporta l'uomo, e anche comunicare le informazioni di ritorno al conducente.

Parallelamente all'evoluzione dell'analisi, che diventa sempre più arte e meno scienza, l'attenzione si è spostata dalla semplice comunicazione dei dati alla creazione di storie basate sui dati, che inevitabilmente incidono sul processo decisionale. Le aziende sfruttano i dati su scala molto più ampia rispetto al passato e il naturale sbocco sarà una maggiore enfasi sul data storytelling e sulla modellazione dei dati. L'età dell'oro del data storytelling è alle porte e da qualche parte nella tua azienda c'è uno storyteller pronto a svelare i prossimi risultati chiave.

I laureati in studi umanistici trovano lavoro nei settori tecnici in modo 10% più rapido rispetto ai laureati in discipline tecniche. (LinkedIn)

Un terzo dei 500 CEO selezionati da Fortune è laureato in discipline umanistiche. (Fast Company)

Quanto è caldo questo trend?

Condividi il tuo pensiero e vota a destrain basso per indicare quanto sarà caldo secondo te nel 2018 il trend della formazione umanistica. Desideri aggiungere un undicesimo trend? Partecipa al sondaggio!

3 La promessa dell'NLP

La promessa dell'elaborazione del linguaggio naturale

Il 2018 vedrà crescere l'elaborazione del linguaggio naturale in termini di prevalenza, complessità e diffusione. Mentre gli sviluppatori e gli ingegneri informatici continueranno a perfezionare la propria conoscenza dell'NLP, aumenterà anche l'integrazione di questa tecnologia in aree finora non coperte. La crescente diffusione di Amazon Alexa, Google Home e Microsoft Cortana ha nutrito le aspettative degli utenti di poter parlare con il proprio software, che a sua volta saprà cosa fare. Ad esempio, basta pronunciare un comando come "Alexa riproduci 'Yellow Submarine'" per ascoltare il famoso brano dei Beatles in cucina mentre si prepara la cena. Lo stesso concetto è valido anche per i dati, ed è sempre più facile per tutti porre domande e analizzare i dati a disposizione.

Gartner prevede che, entro il 2020, il 50% delle query analitiche sarà generato tramite la ricerca, la tecnologia NLP o i comandi vocali. Quindi per un CEO che si sposta per lavoro sarà improvvisamente molto più semplice interrogare al volo il proprio dispositivo mobile chiedendo ad esempio: "Vendite totali per clienti che hanno acquistato graffette a New York", per poi filtrare per "ordini negli ultimi 30 giorni" e raggruppare per "reparto del titolare del progetto". Oppure, il preside di un istituto potrebbe chiedere: "Qual è stato il voto medio degli studenti quest'anno", quindi filtrare per "studenti di terza media" e raggruppare per "materia dell'insegnante". La tecnologia NLP permetterà di formulare domande più complesse sui dati e ricevere risposte pertinenti da utilizzare per conoscere meglio la situazione e prendere le decisioni quotidiane.

[La tecnologia NLP] può aprire un po' di più gli occhi degli analisti e dare loro una maggiore sicurezza e fiducia nelle loro capacità.

Allo stesso tempo, sviluppatori e tecnici faranno grandi passi avanti per imparare e capire in che modo gli utenti usano l'elaborazione del linguaggio naturale. Esamineranno come pongono le domande, dai quesiti più diretti e immediati ("Qual è stato il prodotto più venduto?") alle formulazioni più articolate ("Non so cosa possono dirmi i dati... come sta andando il mio reparto?"). Come fa notare Ryan Atallah, Staff Software Engineer di Tableau, "questo comportamento è strettamente legato al contesto in cui viene posta la domanda". Se l'utente finale sta usando il cellulare, è più probabile che ponga domande dirette con una risposta immediata, mentre se è seduto alla scrivania e osserva una dashboard, probabilmente formulerà una domanda più articolata.

I vantaggi maggiori sul piano dell'analisi deriveranno dalla conoscenza dei diversi flussi di lavoro che possono beneficiare della tecnologia NLP. Secondo Vidya Setlur, Staff Software Engineer di Tableau, "l'ambiguità è un grande problema", pertanto la conoscenza dei flussi di lavoro diventa più importante del modo di porre una domanda. Quando una domanda può essere posta in diversi modi (ad esempio "Qual è il reparto vendite che ha raggiunto i migliori risultati in questo trimestre" oppure "Chi ha venduto di più questo trimestre?"), l'utente finale non vuole pensare a come chiedere quello che desidera, vuole solo ottenere la risposta.

Di conseguenza, l'opportunità nascerà non dall'uso di NLP in ogni situazione, ma dal suo impiego nei flussi di lavoro adatti, fino a diventare un'opzione del tutto naturale per chi la usa.

Entro il 2019, il 75% di chi utilizza quotidianamente applicazioni aziendali avrà accesso ad assistenti personali intelligenti che estenderanno capacità e competenze. (IDC)

Entro il 2021, più del 50% delle imprese spenderà ogni anno una cifra maggiore per la creazione di bot e chatbot che non per lo sviluppo delle tradizionali app per dispositivi mobili. (Gartner)

Quanto è caldo questo trend?

Condividi il tuo pensiero e vota a destrain basso per indicare quanto sarà caldo secondo te nel 2018 il trend della tecnologia NLP. Desideri aggiungere un undicesimo trend? Partecipa al sondaggio!

4 Il dibattito sull'approccio multicloud

Il dibattito sull'approccio multicloud non si placa

Se la tua azienda sta studiando una strategia multicloud e sta valutando di adottarla nel 2018, sappi che non è la sola.

"Una miriade di aziende sta spostando i propri dati e le proprie applicazioni chiave sul cloud", afferma Francois Ajenstat, Chief Product Officer. "A volte si tratta di un semplice spostamento, altre di una vera e propria ristrutturazione della piattaforma, ma la velocità con cui i clienti stanno adottando il cloud è senza precedenti".

Secondo un recente studio di Gartner, "entro il 2019 il multicloud diventerà la strategia comune del 70% delle imprese, in aumento rispetto al tasso odierno che è inferiore al 10%". I clienti sono sempre più consapevoli di non poter restare ancorati a una singola soluzione software legacy che non risponderà alle loro esigenze future. Tuttavia, il passaggio e la migrazione sono diventati relativamente più semplici grazie all'uso di API simili e di standard aperti come Linux, Postgres, MSQL e così via.

Probabilmente, la tua azienda sta esaminando anche come sono progettati e gestiti i data center. Il reparto IT sta valutando gli ambienti di hosting in base a rischio, complessità, velocità e costo, fattori che aumentano la difficoltà di trovare un'unica soluzione adatta alle esigenze dell'azienda.

Valutare e implementare un ambiente multicloud può essere un modo di capire chi fornisce il supporto e le prestazioni migliori per la tua situazione. Secondo il Boston Herald, GE ha riallineato la propria strategia di hosting cloud per sfruttare i vantaggi offerti sia da Microsoft Azure, che da Amazon Web Services, con l'intento di capire qual è l'ambiente di hosting più efficiente e quale contratto permette di addebitare costi inferiori ai clienti.

La strategia multicloud o cloud ibrida sta diventando sempre più importante per aiutare a ridurre i rischi e offrire più flessibilità e scelta ai clienti.

Ma il trend del multicloud non può essere separato dalla giusta consapevolezza dei meriti e delle sfide derivanti dal passaggio a questo tipo di ambiente. Se, da un lato, la flessibilità è un valore aggiunto, dall'altro l'ambiente multicloud comporta un aumento dei costi generali dovuto alla ripartizione dei carichi di lavoro aziendali tra più provider. Inoltre, un ambiente multicloud obbliga il team interno di sviluppatori a conoscere il funzionamento di più piattaforme e mettere in atto più processi di governance, a seconda dei diversi ambienti da supportare.

Non solo: una strategia multicloud potrebbe implicare un potenziale calo del potere di acquisto di un'azienda. Se infatti un'azienda effettua acquisti da più provider, non potrà probabilmente ottenere sconti sui volumi. Di conseguenza, si crea un modello secondo cui un'azienda acquista meno e a un prezzo peggiore.

Vari sondaggi e statistiche, tra cui lo studio già citato di Gartner, indicano che l'adozione della strategia multicloud è in aumento. Non indicano però in quale misura viene adottata una determinata piattaforma. In molti casi, le aziende si rivolgono a un unico provider per la maggior parte delle proprie esigenze e ad altri per quel poco che rimane. Il più delle volte, si implementa un secondo ambiente di hosting cloud come backup in caso di inadeguatezza o mancata disponibilità dell'ambiente principale.

Considerata la crescita della strategia multicloud prevista per il 2018, le aziende dovranno capire se la loro strategia è adatta a misurare la quota di impiego di ciascuna piattaforma, l'uso interno, le necessità dei carichi di lavoro e i costi di implementazione.

Il 70% delle imprese metterà in atto una strategia multicloud entro il 2019. (Gartner)

Il 74% dei Tech Chief Financial Officer pensa che il cloud computing avrà il maggior impatto sulla propria azienda nel 2017. (Forbes)

Quanto è caldo questo trend?

Condividi il tuo pensiero e vota a destrain basso per indicare quanto sarà caldo secondo te nel 2018 il trend della strategia multicloud. Desideri aggiungere un undicesimo trend? Partecipa al sondaggio!

5 La figura del CDO

La figura del Chief Data Officer

Dati e analisi stanno diventando cruciali per ogni azienda. È inconfutabile. Evolvendosi, le aziende decidono a cosa dedicarsi in modo prioritario in termini di analisi e a chi dare la responsabilità delle relative operazioni.

In passato, la maggior parte delle attività di business intelligence era nelle mani del Chief Information Officer (CIO), figura responsabile di supervisionare la standardizzazione, il consolidamento e la governance dei dati in tutta l'azienda, che necessitava di report coerenti. Questa situazione metteva le iniziative di BI (governance dei dati, creazione di modelli analitici, ecc.) in competizione con altre iniziative strategiche (architettura IT, sicurezza dei sistemi o strategia di rete) che rientravano sempre nella sfera del CIO, spesso frenando la riuscita e l'efficacia della business intelligence.

In alcuni casi, si creava un divario tra il CIO e l'azienda a causa della rapidità richiesta ai risultati di analisi rispetto alla sicurezza e alla governance dei dati. Pertanto, le aziende si stanno rendendo conto sempre di più che, per ottenere una panoramica dei dati attraverso investimenti nell'analisi e poterla tradurre in azioni concrete, è necessario creare una cultura analitica contando sullo staff dirigenziale. Un numero crescente di aziende ha risposto nominando un Chief Data Officer (CDO) o Chief Analytics Officer (CAO) con il compito di guidare il cambiamento dei processi aziendali, superare le barriere culturali e comunicare il valore delle analisi a tutti i livelli aziendali. In questo modo, i CIO possono concentrarsi maggiormente su altri aspetti, quali la sicurezza dei dati.

Il mio lavoro consiste nel mettere strumenti e tecnologie nelle mani del team.

Anche il fatto che vengano assunti CDO e/o CAO, con la responsabilità di controllare l'impatto sull'azienda e migliorare i risultati, dimostra il valore strategico dei dati e dell'analisi nelle aziende odierne. Attualmente si registra un fermento costruttivo a livello manageriale sulle modalità di distribuzione di una strategia analitica. Invece di attendere la richiesta di un report specifico, i CDO si chiedono come possono anticipare le richieste dell'azienda o adattarsi rapidamente ad esse.

Le aziende stanno investendo una quantità maggiore di denaro e risorse per organizzare al meglio un team super-efficiente coordinato da questa nuova figura manageriale. Secondo Gartner, l'80% delle grandi imprese avrà un ufficio specifico del CDO completamente operativo entro il 2020. Attualmente, tale ufficio è composto in media da 38 dipendenti, ma il 66% delle aziende intervistate prevede un aumento del budget destinato a questo comparto.

Josh Parenteau, Market Intelligence Director di Tableau, fa notare che il ruolo del CDO è "concentrato sui risultati". Afferma infatti che "non si tratta solo di inserire i dati in un data warehouse e sperare che qualcuno li utilizzi; il CDO ha il compito di definire come usare questi dati e garantire che producano valore". L'attenzione ai risultati è cruciale, specialmente perché è in linea con i primi tre obiettivi citati nel sondaggio sui CDO condotto da Gartner nel 2016, ossia maggiore conoscenza dei clienti, aumento del vantaggio competitivo e migliore efficienza. Questi obiettivi hanno portato aziende come Wells Fargo, IBM, Aetna e Ancestry a introdurre la figura del CDO con l'intento di migliorare la strategia di gestione dei dati, rendendo tale ruolo una figura aziendale chiave per il 2018.

Entro il 2019, il ruolo del CDO sarà presente nel 90% delle grandi imprese. (Gartner)

Entro il 2020, nel 50% delle aziende più importanti il CDO avrà gli stessi livelli di autorità e influenza strategica del CIO.

Quanto è caldo questo trend?

Condividi il tuo pensiero e vota a destrain basso per indicare quanto sarà caldo secondo te nel 2018 il trend della figura del Chief Data Officer. Desideri aggiungere un undicesimo trend? Partecipa al sondaggio!

6 La governance in crowdsourcing

Il futuro della governance dei dati è in crowdsourcing

Il moderno kit di business intelligence è passato dall'impiego di un set fisso di dati e contenuti alla possibilità per gli utenti aziendali di servirsi ovunque di dati attendibili e sottoposti a governance per capire e approfondire. Il personale impara a utilizzare i dati in un numero sempre crescente di situazioni, e di conseguenza il loro contributo a modelli di governance migliori è diventato un aiuto sorprendente per le aziende.

Affermare che l'analisi self-service ha stravolto il mondo della business intelligence è un eufemismo. Il paradigma si è spostato verso chiunque sia in grado di creare analisi che conducano a domande vitali per l'azienda e alle risposte. Lo stesso stravolgimento sta avvenendo per la governance dei dati. Con la diffusione dell'analisi self-service, prospettive e informazioni preziose iniziano a ispirare modi nuovi e innovativi di mettere in atto la governance.

Governance significa per lo più usare il buon senso per fare in modo che le persone giuste accedano ai dati giusti, e quelle sbagliate non possano accedere ai dati.

Governance significa per lo più usare il buon senso per fare in modo che le persone giuste accedano ai dati giusti, e quelle sbagliate non possano accedere ai dati.

L'ultima responsabilità da lasciare ai business user è la sicurezza dei dati. Con politiche di governance efficaci, i business user possono porre domande e fornire risposte e, contemporaneamente, trovare i dati di cui hanno bisogno nel momento opportuno.

Le strategie di BI e analitiche si baseranno sul modello di governance più recente: i reparti IT e i data engineer si occuperanno di curare e preparare origini dati attendibili, mentre gli utenti finali potranno esaminare in tutta libertà dati affidabili e sicuri grazie alla predominante modalità self-service. I processi che funzionano dall'alto verso il basso, rivolti esclusivamente al controllo IT, saranno abbandonati a favore di un processo di sviluppo collaborativo che combina le capacità dei tecnici IT e quelle degli utenti finali. Insieme identificheranno i dati più importanti da sottoporre a governance e creeranno regole e processi in grado di sfruttare al massimo il valore commerciale dell'analisi, senza compromettere la sicurezza.

Il 45% di chi usa i dati ha dichiarato che meno della metà dei report contiene dati di buona qualità. (Collibra)

Il 61% di top manager e dirigenti ha dichiarato che il processo decisionale della propria azienda si basa appena o raramente sui dati. (PwC)

Quanto è caldo questo trend?

Condividi il tuo pensiero e vota a destrain basso per indicare quanto sarà caldo secondo te nel 2018 il trend della governance dei dati in crowdsourcing. Desideri aggiungere un undicesimo trend? Partecipa al sondaggio!

7 Le polizze assicurative per la tutela dei dati

La vulnerabilità porta a un aumento delle polizze per la tutela dei dati

Per numerose aziende i dati sono un bene cruciale. Ma come si misura il loro valore? E cosa succede in caso di perdita o furto dei dati? Come abbiamo visto con recenti casi eclatanti di violazione dei dati, una minaccia ai dati aziendali può rivelarsi rovinosa e potrebbe causare danni irreparabili al brand.

Secondo uno studio del 2017 condotto dal Ponemon Institute, una violazione dei dati ha un costo totale medio stimato di 3,62 milioni di dollari.

Ma le aziende stanno facendo tutto il possibile per proteggere e assicurare i propri dati? In risposta alla violazione di dati, è in rapida crescita il mercato delle polizze assicurative contro gli attacchi informatici e la perdita di dati. Anno dopo anno, questo settore ha conosciuto una crescita del 30%, con una previsione di 5,6 miliardi di dollari di premi lordi annuali contabilizzati entro il 2020. (AON)

Le polizze legate alla sicurezza informatica e alla tutela della privacy coprono la responsabilità aziendale in caso di violazione dei dati qualora le informazioni personali dei clienti vengano divulgate o sottratte da un hacker.

Tuttavia, nonostante la crescita di questo settore e le continue minacce di violazione dei dati, soltanto il 15% delle aziende statunitensi ha sottoscritto una polizza assicurativa a copertura delle violazioni dei dati e degli attacchi informatici. Inoltre, questo 15% di aziende statunitensi assicurate è costituito per la maggior parte da grandi e solidi istituti finanziari.

Si deve decidere dov'è la criticità. Qual è il rischio reale per l'azienda?

La necessità di essere assicurati per gli istituti finanziari è palese. Ma il trend si espanderà su altre verticali, perché nessuno è immune alla minaccia di violazione dei dati.

Doug Laney, analista di Gartner, ha scritto di recente un libro intitolato "Infonomics: How to Monetize, Manage, and Measure Information for Competitive Advantage" (letteralmente "Infoconomia: come monetizzare, gestire e misurare le informazioni per il vantaggio competitivo"). L'autore propone diversi modelli possibili, finanziari e non, che le aziende di qualsiasi settore possono adottare per esaminare il valore dei propri dati.

I modelli non finanziari si concentrano sul valore intrinseco e commerciale dei dati e sul loro valore in termini di prestazioni. Questi valori permettono di misurare l'unicità, la precisione, la pertinenza, l'efficienza interna di un'azienda, nonché l'impatto complessivo legato all'utilizzo dei dati.

I modelli finanziari, invece, si concentrano sul valore di costo, economico e di mercato dei dati. Questi valori permettono di misurare il costo legato all'acquisizione dei dati, alla loro gestione interna, nonché alla loro vendita o concessione in licenza.

Se i dati vengono intesi come beni di consumo, il loro valore può solo aumentare e innescare nuove domande e dibattiti su come questa materia prima continuerà a proiettare le aziende verso traguardi e vantaggi sempre maggiori. E, come avviene per qualsiasi altro prodotto, che senso ha che i dati possano essere oggetto di furto senza alcuna conseguenza?

Il costo totale medio stimato di una violazione dei dati si aggira intorno ai 3,62 milioni di dollari. (Ponemon)

Solo il 15% delle aziende statunitensi è coperto da una polizza assicurativa specifica per i dati. (Ponemon)

Quanto è caldo questo trend?

Condividi il tuo pensiero e vota a destrain basso per indicare quanto sarà caldo secondo te nel 2018 il trend delle polizze assicurative che tutelano i dati. Desideri aggiungere un undicesimo trend? Partecipa al sondaggio!

8 Il ruolo del data engineer

Il maggiore rilievo del ruolo del data engineer

Non si può creare una dashboard senza aver prima realizzato tutti i grafici in modo tale da comprendere la storia che si sta cercando di comunicare. Questo è un assioma. E probabilmente sai anche che non puoi avere un'origine dati affidabile se prima non sai quale tipo di dati può essere inserito in un sistema e come i dati possono essere estratti.

I data engineer continueranno ad aiutare le aziende a utilizzare i dati per migliorare il processo decisionale. Tra il 2013 e il 2015, il numero di data engineer è più che raddoppiato. A ottobre 2017, su LinkedIn erano presenti oltre 2500 annunci di lavoro per data engineer, a indicare la crescente e continua domanda di questo profilo professionale.

Il ruolo dei data engineer è fondamentale per rendere possibile la natura self-service delle piattaforme analitiche più recenti.

Ma in cosa consiste questo ruolo e perché è così importante? Il data engineer è responsabile delle fasi di progettazione, creazione e gestione dei database operativi e analitici di un'azienda. In altre parole, si occupa di estrarre i dati dai sistemi fondamentali di un'azienda in modo da poterli riutilizzare e sfruttare per approfondimenti e per il processo decisionale. Con l'aumento del tasso di dati e della capacità di archiviazione, è sempre più cruciale la presenza di una figura che abbia una profonda conoscenza tecnica dei diversi sistemi o architetture e sia capace di comprendere gli obiettivi e le esigenze dell'azienda.

Il ruolo del data engineer racchiude anche una serie di competenze uniche. Deve capire come funziona il lato back-end, cosa si cela nei dati e come questi possono essere utili per i business user. Inoltre, deve sviluppare soluzioni tecniche per rendere fruibili i dati.

Riprendendo le parole di Michael Ashe, Senior Recruiter di Tableau, "Non sono un novellino. Mi occupo della selezione di personale tecnico da oltre 17 anni. E la crescita continua dei dati e della capacità di archiviazione non mi sorprende: ho visto enormi passi avanti in questo ambito. I dati avranno sempre bisogno di essere manipolati e le aziende devono entrare in questo ruolo, studiare a fondo dati specifici per prendere le decisioni legate alla loro attività. Il data engineer sarà sicuramente un ruolo sempre più ricercato".

Come rilevato da uno studio di Gartner del 2016, le aziende intervistate lamentavano in media perdite annue pari a 9,7 milioni di dollari a causa della cattiva qualità dei dati.

I data scientist e gli analisti possono dedicare anche l'80% del loro tempo alla pulizia e alla preparazione dei dati. (TechRepublic)

Quanto è caldo questo trend?

Condividi il tuo pensiero e vota a destrain basso per indicare quanto sarà caldo secondo te nel 2018 il trend del ruolo del data engineer. Desideri aggiungere un undicesimo trend? Partecipa al sondaggio!

9 Location of Things

Il Location of Things guiderà l'innovazione IoT

Affermare che la massiccia diffusione dell'Internet of Things (IoT) ha causato una crescita colossale del numero di dispositivi connessi nel mondo è un eufemismo. Tutti questi dispositivi interagiscono tra di loro e acquisiscono dati, fornendo un'esperienza più connessa. In realtà, Gartner prevede che i dispositivi IoT disponibili ai consumatori saranno più del doppio entro il 2020, "con 20,4 miliardi di dispositivi IoT online".

Nonostante questa crescita, i casi d'uso e l'implementazione dei dati IoT non hanno seguito lo stesso auspicabile andamento. Le aziende nutrono timori sul fronte della sicurezza, ma la maggior parte non dispone delle competenze organizzative adeguate né dell'infrastruttura tecnica interna con altre applicazioni e piattaforme che supportino i dati IoT.

Quando la gente pensa al concetto di posizione o geospaziale, in genere pensa a una dimensione, a qualcosa da analizzare... la tendenza è che sta diventando un input per il processo analitico.

Un trend positivo a cui stiamo assistendo riguarda l'utilizzo e i benefici derivanti dall'impiego dei dati di geolocalizzazione forniti dai dispositivi IoT. Questa categoria secondaria, nota come "Location of Things", consente ai dispositivi IoT di captare e comunicare la propria posizione geografica. Sapendo dove si trova un dispositivo IoT, è possibile aggiungere contesto, capire meglio cosa succede, e le previsioni si avvereranno in una posizione specifica.

Abbiamo notato che le aziende e gli enti interessati ad acquisire questo tipo di dati utilizzano diverse tecnologie. Ad esempio, ospedali, negozi e hotel sfruttano la tecnologia Bluetooth Low Energy (BLE) per i servizi di geolocalizzazione interna, poiché in genere risultava difficile fornire la posizione contestuale con il segnale GPS. È possibile utilizzare questa tecnologia per tracciare beni o utenti specifici, o addirittura per interagire con dispositivi mobili come smartwatch, badge o etichette per fornire esperienze personalizzate.

Per quanto riguarda l'analisi dei dati, le cifre basate sulla geolocalizzazione possono essere considerate un input a fronte di un ouput di risultati. Se sono disponibili dati, gli analisti possono integrare queste informazioni nelle loro analisi per capire meglio cosa sta succedendo, in quale luogo, e cosa possono aspettarsi in una certa area contestuale.

Gli endpoint IoT saranno 30 miliardi entro il 2020. (IDC)

È prevista una crescita esplosiva dell'IoT, con un giro di affari di oltre 5 miliardi di dollari entro la fine del 2020. (Gartner)

Quanto è caldo questo trend?

Condividi il tuo pensiero e vota a destrain basso per indicare quanto sarà caldo secondo te nel 2018 il trend del Location of Things. Desideri aggiungere un undicesimo trend? Partecipa al sondaggio!

10 Gli investimenti accademici

Le università raddoppiano i programmi dedicati alle scienze e all'analisi dei dati

La North Carolina State University è stata la prima a ospitare il programma Master of Science Analytics (MSA) presso l'Institute of Advanced Analytics (IAA), un hub di dati con l'obiettivo di "formare gli analisti più abili del mondo, in grado di padroneggiare metodi e strumenti complessi per la modellazione dei dati su larga scala, e appassionati del problem-solving avanzato". Primo nel suo genere, il programma ha anticipato l'investimento annunciato dall'università nel corso di studi in scienze e analisi dei dati.

Nei primi mesi di quest'anno, l'University of California a San Diego ha lanciato due novità: un corso di specializzazione e un orientamento secondario in Data Science. Ma non finisce qui. L'ateneo prevede anche, grazie a donazioni di ex-allievi, di creare un istituto di Data Science. Seguendo la stessa scia, anche altre università californiane a Berkeley, Davis e Santa Cruz hanno potenziato l'offerta formativa in Data Science e analisi con una domanda che ha superato le aspettative. Perché?

Le risposte degli studenti mi sorprendono sempre e resto colpita dalla loro capacità innata di leggere i dati, giocarci e ottenere delle visualizzazioni.

Secondo un recente studio di PwC, il 69% delle aziende entro il 2021 cercherà candidati con competenze in Data Science e analisi. Inoltre, nel 2017 Glassdoor ha riportato che "Data Science" per il secondo anno consecutivo era indicato tra i lavori più richiesti. Con l'aumento della domanda da parte delle aziende, la necessità di creare addetti ai dati qualificati diventa sempre più urgente e cruciale. Tuttavia, la realtà non è così idilliaca. Come segnalato dallo stesso studio di PwC, soltanto il 23% dei laureati disporrà del livello di competenze richiesto dai datori di lavoro. Secondo un recente sondaggio del MIT, il 40% dei manager ha difficoltà a trovare figure esperte in analisi.

Le competenze analitiche basilari non sono più un requisito facoltativo, ma obbligatorio. Nel 2018 si assisterà a un approccio più rigido mirato a garantire agli studenti le competenze necessarie per entrare nella realtà lavorativa odierna. E, parallelamente al lavoro di perfezionamento dei dati da parte delle aziende per trarne il massimo valore, sarà sempre presente e in crescita la domanda di personale specializzato in analisi dei dati.

Entro il 2021, il 69% delle aziende chiederà ai candidati competenze in Data Science e analisi come requisito fondamentale. (PwC)

Secondo un recente sondaggio del MIT, il 40% dei manager ha difficoltà a trovare figure esperte in analisi. (MIT)

Quanto è caldo questo trend?

Condividi il tuo pensiero e vota a destrain basso per indicare quanto sarà caldo secondo te nel 2018 il trend degli investimenti accademici. Desideri aggiungere un undicesimo trend? Partecipa al sondaggio!

Scarica la versione PDF dei nostri 10 trend principali della business intelligence per il 2018