Dez principais tendências de business intelligence para 2018

Assista ao teaser


Considerando o ritmo e a evolução das soluções de business intelligence, o que funciona hoje pode precisar ser aprimorado amanhã. Entrevistamos clientes e colaboradores da Tableau para identificar dez tendências promissoras que darão o que falar em 2018, do processamento de linguagem natural à popularização dos seguros de dados. Não importa se você é um prodígio dos dados, um herói da TI ou um executivo construindo um império de business intelligence: essas tendências ressaltam prioridades estratégicas que podem ajudar a catapultar sua organização para novos patamares.

1 Sem medo da inteligência artificial

Como o aprendizado de máquina otimizará o trabalho do analista

A cultura popular está difundindo uma ideia distópica daquilo que o aprendizado de máquina pode fazer. Porém, à medida que as pesquisas e tecnologias avançam, o aprendizado de máquina está rapidamente se tornando uma ferramenta valiosa para o analista. De fato, o aprendizado de máquina é o assistente ideal para o analista.

Imagine que você precisa consultar rapidamente o impacto de uma mudança de preço em determinado produto. Para isso, faria uma regressão linear nos seus dados. Antes do Excel, do R ou do Tableau, esse processo era completamente manual e levava horas. Graças ao aprendizado de máquina, agora é possível analisar o consumo de um produto em questão de minutos ou até segundos. Como analista, você não precisa fazer o trabalho pesado e pode passar diretamente para a próxima pergunta: o aumento das vendas em determinados meses é influenciado por um fator externo, como feriados? Houve um novo lançamento? A divulgação na mídia influenciou as compras ou o conhecimento do público sobre o produto? A última coisa que você quer é gastar mais tempo aperfeiçoando seu modelo de regressão.

O aprendizado de máquina ajuda a examinar o máximo de informações possível quando você precisa de ajuda para encontrar uma resposta.

O aprendizado de máquina ajuda o analista de duas maneiras. A primeira é a eficiência. No exemplo acima, o analista não precisa gastar seu tempo valioso com cálculos básicos. Agora ele tem mais tempo para pensar nas consequências comerciais e na forma mais lógica de proceder. Além disso, o aprendizado de máquina ajuda o analista a explorar e a permanecer no fluxo da análise de dados, pois ele não precisa mais interromper o processo para fazer cálculos. Em vez disso, ele pode passar diretamente para a próxima pergunta. Como descreve Ryan Atallah, engenheiro de software sênior: “O aprendizado de máquina ajuda o usuário a investigar o máximo de dados possível quando ele precisa de ajuda para chegar a uma resposta.”

A capacidade que o aprendizado de máquina tem de auxiliar o analista é inegável, mas é importante reconhecer que essa tecnologia deve ser adotada somente nos casos em que o analista deseja obter resultados concretos. “O aprendizado de máquina não é útil quando os dados são subjetivos”, afirma Andrew Vigneault, gerente de produtos sênior da Tableau. Por exemplo, em pesquisas de satisfação do cliente, nem sempre o aprendizado de máquina é capaz de identificar termos qualitativos.

Além disso, o analista precisa saber quais são as métricas de eficácia relevantes aos dados para poder utilizá-los para fins práticos. Em outras palavras, a inserção de dados em uma máquina não significa necessariamente que ela produzirá resultados úteis. Somente um ser humano pode saber se o contexto disponível é suficiente. Isso significa que o aprendizado de máquina não pode ser utilizado de forma isolada (sem uma compreensão do modelo e dos dados inseridos/resultantes).

Embora os analistas tenham medo de serem substituídos, na realidade, o aprendizado otimizará seu trabalho, aumentando sua eficiência, sua precisão e sua contribuição para a empresa. Em vez de temer a tecnologia de aprendizado de máquina, aproveite as oportunidades que ela apresenta.

A IDC prevê que os lucros gerados pela inteligência artificial e por sistemas de aprendizado de máquina totalizarão US$ 46 bilhões até 2020.

Em 2020, a inteligência artificial se tornará uma grande fonte de trabalhos, criando 2,3 milhões de empregos, mas eliminando apenas 1,8 milhões. (Gartner)

Quão “quente” é essa tendência?

Vote à direitaabaixo para indicar o quão “quente” você acha que o aprendizado de máquina será em 2018

2 O impacto das artes liberais

O impacto humano das artes liberais no setor da análise de dados

Ainda que o setor de análise de dados continue à procura de profissionais de dados qualificados e que as organizações se esforcem para potencializar sua equipe de análise, é possível dizer que sempre estivemos rodeados de talentos à nossa disposição. Já sabemos como a arte e o método de contar histórias contribuíram para o setor de análise de dados. Isso não é novidade. A verdadeira surpresa é o fato de que os aspectos técnicos da criação de painéis analíticos, antes acessíveis apenas para a equipe de TI e usuários avançados, agora estão sendo dominados por usuários que entendem a arte de contar histórias, uma habilidade proveniente sobretudo das artes liberais. Além disso, as organizações estão priorizando a contratação de profissionais que sabem utilizar os dados e as informações para desencadear mudanças positivas e estimular transformações através da arte e da persuasão, não apenas da análise em si.

À medida que as plataformas tecnológicas se tornam mais fáceis de usar, a especialização técnica deixa de ser prioridade. Todos podem explorar os dados sem ter os conhecimentos técnicos avançados que antes eram necessários. É aí que pessoas com conhecimentos mais amplos, incluindo sobre as artes liberais, entram no jogo e fazem a diferença quando faltam profissionais de dados em determinados setores e organizações. À medida que mais organizações passam a ver a análise de dados como uma prioridade comercial, esses guardiões dos dados com conhecimentos em artes liberais mostrarão às empresas que a capacitação da força de trabalho é uma vantagem competitiva.

Além das vantagens atraentes de contratar uma nova geração de profissionais de dados, também existem vários casos de empresas de tecnologia lideradas ou profundamente influenciadas por fundadores com formação em artes liberais. Entre eles, estão fundadores e executivos de marcas como Slack, LinkedIn, PayPal, Pinterest e várias outras empresas de tecnologia de sucesso.

É necessário ter algumas habilidades para criar um painel e fazer análises. Porém, existe algo que é realmente impossível de ensinar: como contar uma história com os dados.

Um ótimo exemplo de integração das artes liberais em uma empresa especializada principalmente em tecnologia é apresentado pelo livro de Scott Hartley “The Fuzzy and the Techie” publicado recentemente. A Nissan contratou a doutora em antropologia Melissa Cefkin para conduzir a pesquisa da empresa sobre interação entre humanos e máquinas e, em particular, sobre a interação entre pessoas e carros autoguiados. A tecnologia por trás dos veículos autoguiados evoluiu muito, mas ambientes compartilhados por máquinas e seres humanos ainda são um desafio. Utilizando um semáforo de cruzamento como exemplo, os seres humanos geralmente analisam as situações caso a caso, algo que é praticamente impossível de ensinar a uma máquina. Para ajudar a solucionar esse problema, Cefkin recebeu a missão de aplicar seus conhecimentos antropológicos para identificar padrões no comportamento humano que ajudassem a ensinar aos carros autoguiados os padrões que os seres humanos seguem e, posteriormente, retransmiti-los aos motoristas.

À medida que a análise evolui e se aproxima mais da arte do que da ciência, o foco está mudando da simples geração de dados para a criação de histórias impulsionadas por dados que, inevitavelmente, suscitam decisões. As organizações estão utilizando os dados em uma escala maior do que nunca, e essa progressão natural reflete uma maior ênfase na maneira de contar histórias e dar forma aos dados. A arte de contar histórias com os dados nunca foi tão importante e, em algum lugar de nossas empresas, existe um contador de histórias esperando para descobrir uma nova informação reveladora.

Profissionais com formação em artes liberais estão entrando para a força de trabalho técnica 10% mais rápido do que aqueles com formação técnica. (LinkedIn)

Um terço de todos os CEOs das empresas do ranking Fortune 500 têm diplomas em artes liberais. (Fast Company)

Quão “quente” é essa tendência?

Compartilhe sua opinião e vote à direitaabaixo para indicar o quão “quente” você acha que o impacto das artes liberais será em 2018

3 A promessa do NLP

A promessa do processamento de linguagem natural

Em 2018, a tecnologia de processamento de linguagem natural (NLP) se tornará não só mais sofisticada, como também mais difundida. À medida que os desenvolvedores e engenheiros continuam aperfeiçoando seus conhecimentos em NLP, a integração dessa tecnologia em áreas inexploradas também aumentará. A popularidade crescente de tecnologias como Amazon Alexa, Google Home e Microsoft Cortana elevou as expectativas das pessoas, que querem falar com o software e esperam que ele as entenda. Por exemplo, ao dizer o comando “Alexa, toque a música ‘Yellow Submarine’”, você poderá ouvir o sucesso dos Beatles enquanto prepara o jantar. Esse mesmo conceito também está sendo aplicado aos dados, permitindo que qualquer pessoa faça perguntas e analise os dados à sua disposição com mais facilidade.

A Gartner estima que, até 2020, 50% das consultas analíticas serão geradas por pesquisas, NLP ou voz. Isso significa que será muito mais fácil para um CEO em trânsito pedir a seguinte informação ao seu dispositivo móvel: “Total de vendas de clientes que compraram grampeadores em Nova York”, depois filtrar os dados por “pedidos nos últimos 30 dias” e agrupar pelo “departamento do responsável pelo projeto”. Até mesmo o diretor da escola do seu filho poderia perguntar: “Qual é a nota média dos alunos este ano”, depois filtrar as informações por “alunos da 8ª série” e agrupar por “disciplina do professor”. Com o NLP, as pessoas poderão utilizar os dados para fazer perguntas mais detalhadas e receber respostas relevantes que suscitam melhores ideias e decisões no dia a dia.

[O NLP] ajuda a abrir os olhos dos analistas e aumenta sua confiança naquilo que são capazes de fazer.

Ao mesmo tempo, os desenvolvedores e engenheiros aprenderão e entenderão melhor como as pessoas usam o NLP. Eles analisarão como elas fazem perguntas com objetivos distintos, desde a gratificação instantânea (“Qual produto teve mais vendas?”) à exploração (“Como está o desempenho do meu departamento?”). Como comenta Ryan Atallah, engenheiro de software sênior da Tableau: “Esse comportamento está diretamente vinculado ao contexto em que a pergunta é feita”. Se o usuário final estiver usando o celular, ele provavelmente fará uma pergunta esperando uma gratificação instantânea. Por outro lado, se ele estiver em sua mesa analisando um painel, provavelmente terá a intenção de explorar e examinar uma pergunta mais aprofundada.

As maiores vantagens analíticas serão obtidas através da compreensão dos diversos fluxos de trabalho que o NLP pode otimizar. Como observa também Vidya Setlur, engenheira de software sênior da Tableau, “a ambiguidade é um grande problema”. Por isso, é mais importante entender os fluxos de trabalho do que uma pergunta específica. Quando existem várias formas de fazer a mesma pergunta aos dados (por exemplo, “qual representante de vendas vendeu mais este trimestre?” ou “quem vendeu mais este trimestre?”), o usuário final não está interessado em pensar na forma “correta” de formular a pergunta: ele simplesmente quer a resposta.

Consequentemente, a oportunidade não aparece quando o NLP é aplicado a todas as situações, mas sim quando está à disposição nos fluxos de trabalho adequados, tornando-se um recurso que o usuário utiliza de forma natural e instintiva.

Até 2019, 75% dos profissionais que utilizam aplicativos empresariais em suas tarefas diárias terão acesso a assistentes pessoais inteligentes para ampliar suas habilidades e conhecimentos. (IDC)

Até 2021, mais de 50% das empresas gastarão mais por ano na criação de bots e bots de bate-papo do que no desenvolvimento tradicional de aplicativos móveis. (Gartner)

Quão “quente” é essa tendência?

Compartilhe sua opinião e vote à direitaabaixo para indicar o quão “quente” você acha que o processamento de linguagem natural será em 2018

4 O debate sobre a adoção de múltiplas nuvens

O debate sobre múltiplas nuvens continua

Se a sua organização está testando e considerando uma estratégia de múltiplas nuvens para 2018, ela não está sozinha.

“Várias empresas estão migrando seus dados e seus principais aplicativos para a nuvem”, afirmou Francois Ajenstat, diretor de produtos. “Seja com uma abordagem de migração sem modificações (‘lift and shift’) ou de redefinição de plataforma, os clientes estão adotando a nuvem em um ritmo mais acelerado do que nunca.”

De acordo com um estudo recente da Gartner, “a estratégia de múltiplas nuvens será adotada por 70% das empresas até 2019, um aumento significativo em relação à porcentagem atual, inferior a 10%.” Os clientes não querem depender de uma única solução de software ultrapassada que não atende às suas necessidades futuras. No entanto, a transição e as migrações estão relativamente mais fáceis com APIs semelhantes e com o uso de padrões abertos como Linux, Postgres, MySQL, entre outros.

É provável que sua organização também esteja repensando a forma como os data centers são arquitetados e operam. Seu departamento de TI está avaliando ambientes de hospedagem segundo critérios como risco, complexidade, velocidade e custo, fatores que dificultam a tarefa de encontrar uma única solução que atenda às necessidades da sua organização.

A avaliação e a implementação de um ambiente de múltiplas nuvens podem ajudar a determinar qual serviço oferece o desempenho e o suporte mais adequados para suas necessidades. De acordo com o Boston Herald, a GE realinhou sua estratégia de hospedagem na nuvem para utilizar simultaneamente o Microsoft Azure e o Amazon Web Services, com o objetivo de identificar o ambiente de hospedagem com melhor desempenho e determinar qual contrato oferece o menor custo a ser repassado aos clientes da empresa.

Essa estratégia de nuvem híbrida ou de múltiplas nuvens está se tornando cada vez mais importante para ajudar a reduzir os riscos e a oferecer mais opções e flexibilidade aos clientes.

Porém, a tendência de implementar múltiplas nuvens pressupõe a avaliação adequada das vantagens e dos desafios de migrar para esse tipo de ambiente. Embora a flexibilidade seja uma vantagem, um ambiente de múltiplas nuvens aumenta as despesas operacionais de dividir as cargas de trabalho da organização entre vários fornecedores. Um ambiente de múltiplas nuvens força a equipe de desenvolvedores internos a aprender a usar várias plataformas e a implementar processos de governança adicionais, dependendo dos diferentes ambientes que precisarão de suporte.

Além disso, uma estratégia de múltiplas nuvens pode diminuir o poder de compra de uma empresa ou organização. Ao dividir seu orçamento entre vários fornecedores, a empresa receberá menores descontos por volume. Isso cria um modelo em que a empresa adquire menos por um preço mais alto.

Pesquisas e estatísticas, como os dados da Gartner mencionados acima, indicam que a adoção de múltiplas nuvens está aumentando. No entanto, isso não indica o grau de adoção de plataformas específicas. Em grande parte dos casos de implementação de múltiplas nuvens, as organizações utilizam um fornecedor para a maioria das suas necessidades, deixado muito pouco a cargo da outra solução. Além disso, a maioria dos casos de uso consiste na implementação de um segundo ambiente de hospedagem em nuvem como backup para o caso de insuficiência ou falha do ambiente de hospedagem principal.

Apesar da previsão de que a adoção de múltiplas nuvens aumente em 2018, as organizações precisarão determinar, por meio de uma análise minuciosa, se sua estratégia é capaz de medir o grau de adoção de cada plataforma, o uso interno, as demandas das cargas de trabalho e os custos de implementação.

70% das empresas implementarão uma estratégia de múltiplas nuvens até 2019. (Gartner)

74% dos CFOs de empresas de tecnologia afirmam que a computação em nuvem atingirá seu máximo impacto mensurável nos negócios em 2017. (Forbes)

Quão “quente” é essa tendência?

Compartilhe sua opinião e vote à direitaabaixo para indicar o quão “quente” você acha que a estratégia de múltiplas nuvens será em 2018

5 O surgimento do diretor de dados

O surgimento do diretor de dados

Os dados e a análise estão se tornando um recurso primordial para todas as organizações. Isso é indiscutível. À medida que evoluem, as organizações passam a priorizar um novo nível de foco estratégico e responsabilidade no que diz respeito à análise de dados.

Antigamente, as iniciativas de business intelligence eram atribuídas em grande parte ao diretor de tecnologia da informação (CIO), que supervisionava os processos de padronização, consolidação e governança dos ativos de dados de toda a organização, o que exigia relatórios consistentes. Isso gerava um conflito entre as iniciativas de BI (governança de dados, criação de modelos analíticos etc.) e outras iniciativas estratégicas (como arquitetura de TI, segurança de sistemas ou estratégia de rede) sob a alçada do CIO. Tudo isso comprometia o sucesso e o impacto do BI.

Em alguns casos, há um descompasso entre o CIO e a empresa devido a uma incompatibilidade entre o ritmo em que as informações são criadas e as exigências de segurança/governança dos dados. Assim, para que os investimentos em análise gerem informações acionáveis, as organizações estão percebendo cada vez mais a necessidade de ter um membro da diretoria responsável por criar uma cultura de análise. Para um número cada vez maior de organizações, a solução é nomear um diretor de dados (CDO) ou um diretor de análise (CAO) para conduzir as mudança nos processos empresariais, derrubar barreiras culturais e divulgar os benefícios da análise em toda a organização. Isso permite que o CIO atribua um foco mais estratégico a necessidades como a segurança dos dados.

Meu trabalho é dar acesso a ferramentas e tecnologias e capacitar a equipe.

O fato de diretores de dados e/ou diretores de análise estarem sendo nomeados e responsabilizados pelo impacto comercial e pela melhoria dos resultados também demonstra o valor estratégico dos dados e da análise nas organizações modernas. Agora existe um diálogo proativo entre os diretores sobre como implantar uma estratégia de análise. Em vez de esperar que um relatório específico seja solicitado, o diretor de dados pergunta: “Como podemos antecipar as solicitações da empresa e nos adaptarmos rapidamente a elas?”

Para facilitar a formação de uma equipe altamente eficaz subordinada a esse membro da diretoria, as organizações estão investindo mais dinheiro e recursos. De acordo com a Gartner, 80% das grandes empresas terão um departamento de diretoria de dados totalmente implementado até 2020. Atualmente, o número médio de funcionários em departamentos desse tipo é de 38, mas 66% das organizações entrevistadas preveem um aumento no orçamento destinado a eles.

Josh Parenteau, diretor de inteligência de mercado da Tableau, observa que a função do diretor de dados tem um “foco nos resultados”. Ele afirma que “não se trata de simplesmente colocar os dados em um data warehouse e esperar que alguém os utilize: a função do diretor de dados é definir como eles devem ser utilizados e garantir que o valor seja agregado”. Esse foco nos resultados é fundamental, principalmente porque está alinhado aos três principais objetivos da pesquisa com diretores de dados realizada pela Gartner em 2016: maior envolvimento com o cliente, maior vantagem competitiva e maior eficiência. Esses objetivos estão incentivando empresas como a Wells Fargo, a IBM, a Aetna, e a Ancestry a nomear diretores de dados com a intenção de otimizar sua estratégia de dados. Isso torna o cargo de diretor de dados imprescindível para 2018.

Até 2019, 90% das grandes empresas terão um cargo de diretor de dados. (Gartner)

Até 2020, 50% das organizações líderes terão um diretor de dados com um nível de influência estratégica e autoridade semelhante ao do CIO.

Quão “quente” é essa tendência?

Compartilhe sua opinião e vote à direitaabaixo para indicar o quão “quente” você acha que o cargo de diretor de dados será em 2018

6 Governança através da contribuição coletiva

O futuro da governança de dados dependerá da contribuição coletiva

A abordagem moderna de business intelligence evoluiu de dados e conteúdos restritos para a ampliação do acesso de modo que todos os usuários corporativos possam usar dados confiáveis e governados para encontrar informações. À medida que as pessoas aprendem a utilizar os dados em mais situações, a contribuição delas para melhorar os modelos de governança ganha uma importância extraordinária dentro da organização.

Dizer que a análise de autoatendimento revolucionou o campo de business intelligence é pouco. O paradigma mudou para incluir qualquer pessoa capaz de criar análises que permitam fazer perguntas e obter respostas fundamentais em toda a organização. O processo da governança está passando pela mesma revolução. À medida que a análise de autoatendimento se expande, uma cadeia de informações e pontos de vista valiosos passa a inspirar formas inovadoras de implementar a governança.

Governança, no entanto, significa não só utilizar conhecimentos coletivos para colocar os dados certos à disposição das pessoas certas, como também impedir que pessoas erradas acessem os dados.

Governança, no entanto, significa não só utilizar conhecimentos coletivos para colocar os dados certos à disposição das pessoas certas, como também impedir que pessoas erradas acessem os dados.

O usuário corporativo definitivamente não quer ser responsável pela segurança dos dados. Boas políticas de governança permitem que o usuário corporativo faça perguntas, obtenha respostas e encontre os dados de que precisa quando precisa deles.

As estratégias de BI e análise incorporarão o novo modelo de governança: os departamentos de TI e engenheiros de dados irão administrar e preparar fontes de dados confiáveis e, à medida que o autoatendimento se tornar o padrão, os usuários finais terão a liberdade de explorar dados confiáveis e seguros. Processos hierarquizados que contemplam apenas o controle da TI serão substituídos por um processo de desenvolvimento colaborativo que combina o talento da equipe de TI e dos usuários finais. Juntos, eles identificarão os dados mais importantes que devem ser governados e criarão regras e processos para maximizar o valor comercial da análise sem comprometer a segurança.

45% dos profissionais dos dados afirmam que menos da metade de seus relatórios apresentam dados de boa qualidade. (Collibra)

61% dos líderes da diretoria/vice-diretoria afirmam que o processo de tomada de decisões de suas empresas é pouco ou raramente orientado pelos dados. (PwC)

Quão “quente” é essa tendência?

Compartilhe sua opinião e vote à direitaabaixo para indicar o quão “quente” você acha que a governança através da contribuição coletiva será em 2018

7 Seguros de dados

A vulnerabilidade resulta no aumento dos seguros de dados

Para muitas empresas, os dados são um ativo comercial essencial. Mas como o valor desses dados é calculado? E o que acontece quando os dados são perdidos ou roubados? Como mostram recentes violações de dados com grande repercussão na mídia, uma ameaça aos dados da empresa pode ser devastadora e causar danos irreparáveis à marca.

De acordo com um estudo realizado em 2017 pelo Ponemon Institute, o custo médio total de uma violação de dados foi estimado em US$ 3,62 milhões.

Mas será que as empresas estão fazendo tudo ao seu alcance para proteger e assegurar seus dados? Um setor que está crescendo rapidamente em decorrência das violações de dados é o mercado de seguros de dados cibernéticos. Esse setor teve um crescimento anual de 30% e deverá atingir um total bruto anual de prêmios de US$ 5,6 bilhões até 2020. (AON)

Um seguro cibernético ou de privacidade protege uma empresa contra os riscos de uma violação de dados em que as informações pessoais dos clientes são divulgadas ou roubadas por um hacker.

No entanto, mesmo com o crescimento desse mercado e diante da ameaça persistente de violações de dados, somente 15% das empresas dos EUA têm uma apólice de seguro com cobertura para violações de dados e segurança cibernética. Além disso, a maioria das empresas desses 15% de organizações asseguradas nos EUA é composta por grandes instituições financeiras renomadas.

É você quem decide onde estão os pontos mais delicados. Qual é o risco real da sua empresa?

O fato de que instituições financeiras precisam estar asseguradas é previsível. Porém, essa tendência se expandirá para outros mercados, pois ninguém está imune à ameaça de uma violação de dados.

O analista da Gartner Doug Laney escreveu recentemente um livro intitulado “Infonomics: How to Monetize, Manage, and Measure Information for Competitive Advantage” (Infonomia: como monetizar, gerenciar e avaliar as informações para obter vantagem competitiva). Ele apresenta modelos sólidos de como empresas de todos os setores podem estimar o valor de seus dados, tanto em modelos financeiros como não financeiros.

Os modelos não financeiros concentram-se no valor inerente, no valor comercial e no valor de desempenho dos dados. Esses valores permitem medir a exclusividade, a precisão, a relevância, a eficiência interna e o impacto geral do seu uso.

Os modelos financeiros concentram-se no valor de custo, no valor econômico e no valor de mercado dos dados. Esses valores permitem medir o custo de aquisição de dados, administração dos dados internamente e o valor de venda/licenciamento dos seus dados.

À medida que os dados se tornarem uma “commodity”, seu valor só aumentará, o que, em última instância, suscitará novas perguntas e debates sobre como essa matéria-prima continuará gerando sucesso e vantagens para as empresas. E, como qualquer produto, eles não servirão de nada se puderem ser roubados sem maiores consequências.

O prejuízo médio total de uma violação de dados foi estimado em US$ 3,62 milhões. (Ponemon)

Somente 15% das empresas dos EUA possuem uma apólice de seguro especificamente para seus dados. (Ponemon)

Quão “quente” é essa tendência?

Compartilhe sua opinião e vote à direitaabaixo para indicar o quão “quente” você acha que os seguros de dados serão em 2018

8 A função do engenheiro de dados

A função do engenheiro de dados ganha mais importância

Uma coisa é inegável: para criar um painel, primeiro você precisa ter todos seus gráficos prontos para entender a história que pretende contar. Outro princípio que você provavelmente já conhece: não é possível ter uma fonte de dados confiável sem antes entender o tipo de dados que entra em um sistema e como extraí-los.

Os engenheiros de dados continuarão sendo uma peça fundamental para possibilitar que as organizações utilizem os dados para tomar melhores decisões comerciais. Entre 2013 e 2015, o número de engenheiros de dados quase triplicou. Em outubro de 2017, havia mais de 2.500 vagas abertas para o cargo de “engenheiro de dados” no LinkedIn, indicando uma demanda crescente e contínua dessa especialização.

Os engenheiros de dados desempenham um papel fundamental em possibilitar o autoatendimento nas plataformas de análise modernas.

Mas o que é essa função e por que ela é tão importante? O engenheiro de dados é responsável por projetar, criar e gerenciar os bancos de dados operacionais e analíticos de uma empresa. Em outras palavras, eles são responsáveis por extrair os dados dos sistemas básicos da empresa de tal maneira que eles possam ser utilizados e aproveitados para gerar informações e tomar decisões. À medida que o volume de dados e a capacidade de armazenamento crescem em ritmo acelerado, aumenta a necessidade de que haja alguém com conhecimento técnico avançado dos diversos sistemas e da arquitetura da empresa, bem como capaz de entender seus objetivos e necessidades.

Ainda assim, a função do engenheiro de dados requer um conjunto exclusivo de conhecimentos. Eles precisam entender o back-end, as informações contidas nos dados e como eles podem ajudar o usuário corporativo. O engenheiro de dados também precisa desenvolver soluções técnicas para que os dados possam ser utilizados.

Nas palavras de Michael Ashe, recrutador sênior da Tableau: “Sou um veterano. Faço recrutamento de pessoal técnico há mais de 17 anos. Não é à toa que o volume de dados e a capacidade de armazenamento não param de crescer: vejo isso acontecer em um ritmo exponencial. Os dados sempre precisarão de ajustes. As empresas precisam incorporar essa função. Elas precisam analisar dados específicos para tomar decisões comerciais. A função do engenheiro de dados ganhará cada vez mais importância.”

Um estudo realizado pela Gartner em 2016 revelou que as organizações participantes estavam perdendo em média US$ 9,7 milhões por ano devido à baixa qualidade de seus dados.

Os cientistas e analistas de dados podem gastar até 80% de seu tempo limpando e preparando os dados. (TechRepublic)

Quão “quente” é essa tendência?

Compartilhe sua opinião e vote à direitaabaixo para indicar o quão “quente” você acha que a função do engenheiro de dados será em 2018

9 Localização das coisas

O conceito de localização das coisas estimulará a inovação da IoT

É um eufemismo dizer que a proliferação da Internet das Coisas (IoT) desencadeou um aumento colossal no número de dispositivos conectados que vemos pelo mundo. Todos esses dispositivos interagem uns com os outros e coletam dados que possibilitam uma experiência mais conectada. A Gartner prevê que, até 2020, o número de dispositivos de IoT disponíveis para os consumidores duplicará e que haverá “20,4 bilhões de dispositivos de IoT on-line”.

Mesmo com esse crescimento, os casos de uso e a implementação de dados de IoT não seguiram o mesmo caminho promissor. As empresas se preocupam com a segurança, mas a maioria delas não tem os conhecimentos adequados nem a infraestrutura técnica interna com outros aplicativos e plataformas para aproveitar os dados de IoT.

Quando as pessoas pensam em localização ou orientação geoespacial, elas pensam em uma dimensão. Isso é algo que analisarei... a nova tendência é que isso está sendo incorporado no processo analítico.

Uma tendência positiva hoje é o aproveitamento de dados de localização em dispositivos de IoT e os benefícios que eles trazem. Essa subcategoria, chamada de “localização das coisas”, equipa os dispositivos de IoT com sensores e comunica sua posição geográfica. Ao saber onde um dispositivo de IoT está localizado, podemos adicionar contexto, entender melhor o que está acontecendo e verificar se o que previmos ocorrerá em um local específico.

Para empresas e organizações que desejam aproveitar a coleta desses dados, vemos diversas tecnologias sendo utilizadas. Por exemplo, hospitais, lojas e hotéis já começaram a usar a tecnologia BLE (Bluetooth de baixa energia) para serviços de localização interna. Antes, o GPS tinha dificuldade para apresentar localização contextual para esses serviços. A tecnologia pode ser usada para rastrear ativos específicos, pessoas e até mesmo interagir com dispositivos móveis, como relógios inteligentes, crachás ou etiquetas, a fim de proporcionar experiências personalizadas.

No que se refere à análise dos dados, as estatísticas com base na localização podem ser vistas como dados de entrada em vez de dados de saída (resultados). Se os dados estiverem disponíveis, os analistas podem incorporar essas informações em sua análise para entender melhor o que está acontecendo, onde está acontecendo e o que provavelmente acontecerá em uma localização contextual.

O número de terminais de IoT aumentará para 30 bilhões até 2020. (IDC)

A IoT deverá ter um crescimento explosivo, ultrapassando os US$ 5 bilhões até o fim de 2020. (Gartner)

Quão “quente” é essa tendência?

Compartilhe sua opinião e vote à direitaabaixo para indicar o quão “quente” você acha que a localização das coisas será em 2018

10 Investimentos acadêmicos

Universidades investem mais em programas de análise e ciência de dados

A Universidade Estadual da Carolina do Norte lançou o primeiro programa de Mestrado em Análise de Dados da história. O mestrado faz parte do Instituto de Análise Avançada da universidade, uma central de dados com a missão de “formar os melhores profissionais de análise de dados do mundo, indivíduos que dominaram ferramentas e métodos complexos aplicados à modelagem de dados em grande escala e que demonstram uma paixão por resolver problemas desafiadores...”. O programa pioneiro da universidade prenunciou investimentos elevados no currículo de análise e ciência de dados na esfera acadêmica.

No início deste ano, a Universidade da Califórnia em San Diego lançou pela primeira vez uma graduação e um curso complementar em ciência de dados. E não parou por aí. Incentivada pela doação de ex-alunos, a universidade também desenvolveu planos para criar um instituto de ciência de dados. Seguindo o exemplo, a Universidade da Califórnia em Berkeley, a Universidade da Califórnia em Davis e a Universidade da Califórnia em Santa Cruz ampliaram suas opções de cursos de análise e ciência de dados para os alunos, com uma demanda que excedeu as expectativas. Mas por quê?

Sou constantemente surpreendido com os trabalhos deles e fico abismado com a facilidade que eles têm de analisar os dados intuitivamente e criar visualizações sensacionais.

De acordo com um recente estudo da PwC, até o ano de 2021, 69% dos empregadores exigirá conhecimentos em análise e ciência de dados dos candidatos a empregos. Em 2017, a Glassdoor também informou que, pelo segundo ano consecutivo, a “ciência de dados” figurou na lista de “melhores empregos”. À medida que os empregadores passam a exigir essa capacitação, aumenta a urgência para suprir a demanda de profissionais com sólida capacitação em dados. No entanto, a realidade é outra. O mesmo relatório da PwC cita que apenas 23% dos universitários formados terão os conhecimentos necessários para competir no nível exigido pelos empregadores. Uma pesquisa recente do MIT revelou que 40% dos gerentes têm dificuldade para contratar profissionais com qualificação em análise de dados.

Os conhecimentos em análise de dados deixaram de ser opcionais e se tornaram um pré-requisito. O ano de 2018 será marcado por uma abordagem mais rigorosa para assegurar que os alunos tenham os conhecimentos necessários para integrar a força de trabalho moderna. Além disso, enquanto as empresas continuarem a aperfeiçoar seus dados para extrair o máximo de valor deles, a demanda por uma força de trabalho com sólida capacitação em dados existirá e continuará crescendo.

Até 2021, 69% dos empregadores exigirão a ciência e a análise de dados como conhecimentos essenciais dos candidatos a vagas de emprego. (PWC)

Uma pesquisa recente do MIT revelou que 40% dos gerentes têm dificuldade para contratar profissionais com qualificação em análise de dados. (MIT)

Quão “quente” é essa tendência?

Compartilhe sua opinião e vote à direitaabaixo para indicar o quão “quente” você acha que os investimentos acadêmicos serão em 2018

Baixe o PDF das 10 principais tendências de business intelligence para 2018