Top 10 der Business Intelligence-Trends für das Jahr 2018

Teaser ansehen


Die Business-Intelligence-Lösungen entwickeln sich in rasantem Tempo weiter. Das bedeutet, dass die Methoden von heute morgen bereits vielleicht schon wieder angepasst werden müssen. Von der natürlichen Sprachverarbeitung (Natural Language Processing, NLP) bis zum Anstieg der Datenversicherungen haben wir Kunden und Tableau-Fachkräfte zu den 10 wichtigsten Trends für das Jahr 2018 befragt. Ganz gleich, ob Sie ein Data Rockstar oder ein IT-Crack sind oder im Vorstand sitzen und Ihr BI-Imperium ausbauen – diese Trends verraten, mit welchen strategischen Prioritäten Ihre Organisation möglicherweise den nächsten Sprung schafft.

1 Keine Angst vor künstlicher Intelligenz

Wie der Analyst durch Machine Learning besser wird

Die Popkultur vermittelt eine immer schlimmere Schreckensvision davon, was mit Machine Learning (ML) möglich ist. Doch durch die ständigen Verbesserungen in Forschung und Technologie wird Machine Learning rasch zu einem wertvollen ergänzenden Tool für den Analysten. Eigentlich ist Machine Learning sogar das ultimative Hilfsmittel für den Analysten.

Stellen Sie sich vor, Sie müssten sich einen schnellen Überblick über die Auswirkungen der Preisänderung bei einem bestimmten Produkt verschaffen. Zu diesem Zweck würden Sie Ihre Daten einer linearen Regression unterziehen. Bevor es Excel, R oder Tableau gab, mussten Sie dies manuell machen – und das Ganze dauerte Stunden. Dank Machine Learning können Sie den Konsum des fraglichen Produkts innerhalb von wenigen Minuten, wenn nicht weniger Sekunden, sehen. Als Analyst müssen Sie diese Schwerstarbeit nicht mehr verrichten, sondern können sich gleich mit den nächsten Fragen befassen: War der höhere Konsum in einigen Monaten durch einen extrinsischen Faktor wie zum Beispiel bestimmte Feiertage begründet? Wurde ein neues Produkt herausgebracht? Haben sich Nachrichtenmeldungen auf den Kauf oder die Bekanntheit des Produkts ausgewirkt? Doch dabei lassen Sie eines völlig außer Acht: Wie sehr Sie sich gewünscht hätten, mehr Zeit damit zu verbringen, Ihr Regressionsmodell zu perfektionieren.

Das Machine Learning gibt Ihnen die Möglichkeit, viele Steine umzudrehen, um darunter verborgene Antworten zu finden.

Machine Learning unterstützt den Analysten gleich auf zweifache Weise. Der erste Aspekt ist die Effizienz. Im Beispiel oben vergeudet der Analyst keine kostbare Zeit mit Grundrechenarten. Stattdessen kann er mehr Zeit auf die geschäftlichen Auswirkungen und die nächsten logischen Schritte aufwenden. Zweitens hilft ML dem Analysten, die Daten zu untersuchen und im Flow seiner Datenanalyse zu bleiben. Anstatt lange über den Zahlen zu brüten, kann er gleich die nächste Frage stellen. Ryan Atallah, Staff Software Engineer bei Tableau, beschreibt dies so: „Wenn Sie Hilfe bei der Suche nach einer Antwort benötigen, erleichtert Ihnen ML die zeitaufwändigen Suchschritte deutlich.“

Zweifellos verfügt Machine Learning über ein großes Potenzial, um dem Analysten zu helfen. Es sollte jedoch unbedingt zum Einsatz kommen, wenn klar definierte Ergebnisse zu erwarten sind. „Machine Learning liefert keine so tollen Ergebnisse, wenn Ihre Daten subjektiv sind“, meint Andrew Vigneault, Staff Product Manager bei Tableau. Wenn Sie zum Beispiel eine Kundenumfrage zur Produktzufriedenheit durchführen, erkennt ML die qualitativen Wörter nicht immer.

Außerdem muss der Analyst die Erfolgskriterien verstehen, um den Daten umsetzbare Erkenntnisse zu entlocken. Mit anderen Worten: Eingaben in einen Computer bedeuten noch längst keine aussagekräftigen Ergebnisse. Nur ein Mensch kann verstehen, ob der Kontext im richtigen Umfang berücksichtigt wurde. Das heißt, Machine Learning kann nicht eigenständig stattfinden (ohne Verständnis des Modells und der Eingaben/Ergebnisse).

Unter den Analysten mag zwar die Sorge herrschen, von Machine Learning ersetzt zu werden, doch eigentlich ist ML ein Turbo, der die Analysten effizienter und präziser arbeiten lässt und noch unentbehrlicher für das Unternehmen macht. Anstatt sich vor Machine Learning zu fürchten, sollten Sie die Chancen ergreifen, die Ihnen diese Technologie bietet.

Das IDC sagt voraus, dass die Umsätze durch KI- und Machine-Learning-Systeme bis zum Jahr 2020 auf insgesamt 46 Milliarden Dollar ansteigen werden.

2020 werden durch KI 2,3 Millionen netzbezogene Arbeitsplätze neu entstehen, während nur 1,8 Millionen andere Arbeitsplätze überflüssig werden. (Gartner)

Wie heiß ist dieser Trend?

Stimmen Sie rechtsunten ab, wie heiß der Trend zum Machine Learning 2018 Ihrer Meinung nach sein wird.

2 Einfluss der Geisteswissenschaften

Designer und Künstler mischen die Analytics-Branche auf

Die Analytics-Branche sucht auch weiterhin nach kompetenten Datenfachleuten, und Organisationen sind darauf bedacht, ihren Analytics-Teams einen höheren Stellenwert einzuräumen. Doch möglicherweise gab es direkt vor unserer Nase schon immer eine Fülle von Talenten. Uns ist bekannt, welch großen Einfluss Kunst und Erzählkunst auf die Daten-Analytics-Branche haben. Das ist keine wirkliche Überraschung. Überraschend ist jedoch, wie die technischen Aspekte beim Erstellen eines Analytics-Dashboards, die bisher IT-Fachleuten und Power-Usern vorbehalten waren, jetzt von Benutzern übernommen werden, die sich mit der Erzählkunst auskennen und somit über Kompetenzen verfügen, die vor allem aus den Geisteswissenschaften stammen. Darüber hinaus legen Organisationen größeren Wert darauf, Mitarbeiter einzustellen, die mit Daten und Erkenntnissen Veränderungen bewirken und den Wandel vorantreiben können – und zwar mithilfe von Kunst und Überzeugung, anstatt sich nur auf die Analytics selbst zu stützen.

Dadurch dass die Technologieplattformen immer benutzerfreundlicher werden, stehen die Fachkompetenzen nicht mehr so stark im Vordergrund. Jeder kann mit Daten herumspielen, ohne über die fundierten technischen Fähigkeiten von einst verfügen zu müssen. Hier kommen Mitarbeiter mit breiteren – und eben auch geisteswissenschaftlichen – Kompetenzen ins Spiel und nehmen verstärkt Einfluss auf Branchen und Organisationen, in denen ein Mangel an Datenfachkräften herrscht. Da immer mehr Organisationen Data Analytics als einen Geschäftsschwerpunkt in den Vordergrund rücken, werden diese geisteswissenschaftlichen Datenverwalter den Unternehmen die Erkenntnis vermitteln, dass es einen Wettbewerbsvorteil darstellt, ihre Mitarbeiter zu Daten-Analytics zu befähigen.

Wir sehen darin nicht nur einen Anreiz, der ein breites Spektrum an Menschen anspricht und hilft, eine neue Generation von Datenfachleuten einzustellen, wir haben auch mehrmals beobachten können, dass Technologieunternehmen von Firmengründern mit geisteswissenschaftlichem Hochschulabschluss geleitet oder maßgeblich beeinflusst wurden. Hierzu gehören auch die Firmengründer und Spitzenkräfte von Slack, LinkedIn, PayPal, Pinterest und einigen anderen hoch gehandelten Technologieunternehmen.

Für das Erstellen eines Dashboards und zur Durchführung von Analysen sind bestimmte Qualifikationen erforderlich. Dabei gibt es aber etwas, das nicht einfach im Unterricht beigebracht werden kann. Das ist die Art und Weise, wie mit den Daten eine Story erzählt wird.

Ein besonders aufschlussreiches Beispiel dafür, wie die Geisteswissenschaften in ein vorwiegend von Technologie geprägtes Unternehmen Einzug halten, finden Sie in Scott Hartleys Buch „The Fuzzy und the Techie“, das erst vor Kurzem erschienen ist. Nissan hat Melissa Cefkin, eine Doktorin der Anthropologie, eingestellt, um das Projekt zur Erforschung der Mensch-Maschine-Interaktion zu leiten, das vor allem die Interaktion zwischen selbstfahrenden Autos und den Menschen untersuchen soll. Die Technologie, die selbstfahrenden Fahrzeugen zugrunde liegt, ist zwar schon ziemlich weit entwickelt, doch in gemischten Mensch-Maschine-Umgebungen gibt es immer noch einige Hürden. Betrachten wir zum Beispiel eine Kreuzung mit vier gleichrangigen Straßen: Menschen analysieren die Situationen von Fall zu Fall, was einer Maschine fast nicht beigebracht werden kann. Um dieses Szenario besser bewältigen zu können, wurde Cefkin beauftragt, mithilfe ihres anthropologischen Fachwissens menschliche Verhaltensmuster zu identifizieren, um den selbstfahrenden Autos die Muster, denen Menschen folgen, besser beizubringen, und diese dann auch wieder dem Mensch zu kommunizieren, der das Auto fährt.

Nun da sich die Analytics dazu entwickeln, eher Kunst als Wissenschaft zu sein, hat sich der Fokus von der einfachen Bereitstellung der Daten zur Gestaltung datengesteuerter Storys verlagert, die unweigerlich zu Entscheidungen führen. Organisationen setzen viel stärker auf Daten als je zuvor, und der natürliche Fortschritt schlägt sich darin nieder, dass der Schwerpunkt eher auf die Erzählkunst und das Gestalten der Daten verlagert wird. Das goldene Zeitalter der Datenstorys ist angebrochen, und irgendwo in Ihrer Organisation gibt es einen Mitarbeiter, der diese Erzählkunst beherrscht, um Ihnen Ihre nächste wichtige Erkenntnis zu offenbaren.

Absolventen aus geisteswissenschaftlichen Studiengängen steigen 10 Prozent schneller in Technologieunternehmen ein als Absolventen von technischen Studiengängen. (LinkedIn)

Ein Drittel aller CEOs von Fortune-500-Unternehmen haben einen Abschluss in Geisteswissenschaften. (Fast Company)

Wie heiß ist dieser Trend?

Teilen Sie uns Ihre Meinung mit und stimmen Sie rechtsunten darüber ab, wie heiß Ihrer Ansicht nach der Einfluss der Geisteswissenschaften in 2018 sein wird

3 Natürliche Sprachverarbeitung (NLP)

Das Versprechen der natürlichen Sprachverarbeitung

Im Jahr 2018 wird die natürliche Sprachverarbeitung (Natural Language Processing, NLP) in puncto Verbreitung, Ausgereiftheit und Allgegenwart einen großen Sprung machen. Je besser die Entwickler und Ingenieure NLP verstehen, desto stärker wird sie auch in bisher nicht verwirklichte Bereiche integriert werden. Mit der wachsenden Popularität von Amazon Alexa, Google Home und Microsoft Cortana ist auch die Erwartung gestiegen, dass die Menschen mit ihrer Software sprechen und von ihr verstanden werden. Auf den Befehl „Alexa, spiel ,Yellow Submarine‘“ wird beispielsweise der Beatles-Hit in Ihrer Küche wiedergegeben, während Sie das Abendessen zubereiten. Dasselbe Konzept wird auch auf die Daten angewendet, sodass jeder leichter Fragen stellen und die vorliegenden Daten analysieren kann.

Gartner prognostiziert, dass bis 2020 rund 50 Prozent der Analytics-Abfragen per Suche, NLP oder Spracheingabe generiert werden. Plötzlich kann der CEO also mühelos – irgendwo von unterwegs – seinem Mobilgerät folgenden Analytics-Auftrag erteilen: „Gesamtumsatz nach Kunden, die Heftklammern in New York gekauft haben“, dann nach „Aufträgen innerhalb der letzten 30 Tage“ filtern und anschließend nach „Abteilung des Projekteigentümers“ gruppieren. Der Schuldirektor Ihres Kindes könnte zum Beispiel Folgendes fragen: „Welche Durchschnittsnote hatten die Schüler in diesem Jahr?“, dann nach „Schüler in der 8. Klasse“ filtern und anschließend nach „Unterrichtsfach der Lehrkraft“ gruppieren. NLP wird die Menschen dazu befähigen, den Daten differenziertere Fragen zu stellen und relevante Antworten zu erhalten, die sich im Geschäftsalltag in besseren Erkenntnissen und Entscheidungen niederschlagen.

[Die NLP] kann den Analysten ein wenig die Augen öffnen und dafür sorgen, dass sie sich in ihrem Kenntnis- und Arbeitsbereich wohler fühlen.

Gleichzeitig werden die Entwickler und Ingenieure große Fortschritte machen und lernen/verstehen, wie die Menschen NLP nutzen. Sie werden untersuchen, wie Menschen Fragen stellen. Das Spektrum reicht von Fragen, die sich umgehend beantworten lassen („Welches Produkt wurde am meisten verkauft?“), bis hin zu Sondierungen („Ich weiß, nicht was meine Daten mir sagen können – wie schneidet meine Abteilung ab?“). Ryan Atallah, Staff Software Engineer bei Tableau, hat dazu folgende Anmerkung: „Dieses Verhalten ist eng mit dem Kontext verknüpft, in dem die Frage gestellt wird.“ Ist der Endbenutzer an seinem Smartphone, wird er höchstwahrscheinlich eine Frage stellen, die sich sofort beantworten lässt. Sitzt er dagegen an einem Schreibtisch und blickt auf ein Dashboard, wird er wohl eher eine tiefer gehende Frage untersuchen.

Am meisten werden die Analysten jedoch davon profitieren, wenn sie die verschiedenen Workflows verstehen, die durch NLP verbessert werden können. Vidya Setlur, Staff Software Engineer bei Tableau meint dazu: „Mehrdeutigkeit ist ein kniffliges Problem.“ Deshalb ist es wichtiger, die Workflows zu verstehen, als die Eingabe einer bestimmten Frage. Wenn es mehrere Möglichkeiten gibt, den Daten dieselbe Frage zu stellen (z. B.: „Welcher Vertriebler hat in diesem Quartal den größten Umsatz erzielt?“ oder „Wer hatte den größten Umsatz in diesem Quartal?“), will sich der Endbenutzer nicht erst lange überlegen, wie er diese Frage „richtig“ formuliert, sondern interessiert sich nur für die Antwort.

Folglich ergeben sich die Chancen nicht daraus, dass in jeder Situation NLP zum Einsatz kommt, sondern daraus, dass NLP in den richtigen Workflows verfügbar ist, damit sie dem Benutzer in Fleisch und Blut übergeht.

Bis 2019 werden 75 Prozent der Arbeitskräfte, die täglich mit Anwendungen des Unternehmens arbeiten, Zugriff auf intelligente Personal Assistants haben, um ihre Kenntnisse und Fähigkeiten zu erweitern. (IDC)

Bis zum Jahr 2021 werden mehr als 50 Prozent der Unternehmen jährlich mehr für die Erstellung von Bots und Chatbots ausgeben als für die traditionelle Entwicklung von mobilen Apps. (Gartner)

Wie heiß ist dieser Trend?

Teilen Sie uns Ihre Meinung mit und stimmen Sie rechtsunten ab, wie heiß der Trend zur natürlichen Sprachverarbeitung 2018 Ihrer Meinung nach sein wird.

4 Die Multi-Cloud-Debatte

Multi-Cloud-Strategien sind im Kommen

Ihre Organisation zieht für 2018 eine Multi-Cloud-Strategie in Erwägung? Dann sind Sie nicht allein.

„Unzählige Organisationen verlagern ihre Daten in die Cloud – und auch ihre Kernanwendungen“, sagt Chief Product Officer Francois Avenstat. „Wir beobachten, dass die Kunden schneller denn je in die Cloud wechseln, und zwar ganz egal, ob es sich dabei um eine Migration per„Lift & Shift“ oder den Umstieg auf neue Plattformen handelt.“

Laut einer kürzlich von Gartner durchgeführten Studie „wird bis 2019 eine Multi-Cloud-Strategie das gängige Konzept für 70 Prozent der Unternehmen werden, im Vergleich zu den weniger als 10 Prozent heute“. Den Kunden ist zunehmend unwohl dabei, auf eine einzige alte Softwarelösung festgelegt zu sein, die ihre künftigen Anforderungen nicht erfüllen wird. Allerdings sind der Umstieg und die Migration dank vergleichbarer APIs und durch die Nutzung offener Standards wie Linux, Postgres, MySQL usw. mittlerweile relativ einfach geworden.

Wahrscheinlich befasst sich Ihre Organisation auch damit, wie Datenzentren aufgebaut und verwaltet werden. Ihre IT-Abteilung beurteilt Hosting-Umgebungen nach dem Risiko, der Komplexität, der Geschwindigkeit und den Kosten. All diese Faktoren machen es umso schwerer, eine einzige Lösung zu finden, die alle Anforderungen Ihres Unternehmens erfüllt.

Wenn Sie jedoch eine Multi-Cloud-Umgebung in Erwägung ziehen und implementieren, können Sie leichter feststellen, wer die beste Leistung und den besten Support für Ihre konkrete Situation bietet. Laut dem Boston Herald hat GE seine Cloud-Hosting-Strategie neu ausgerichtet, um sowohl Microsoft Azure als auch Amazon Web Services nutzen zu können, und zwar in der Absicht, die Hosting-Umgebung mit der besten Leistung zu ermitteln und zu erkennen, welcher Vertrag mit den niedrigsten auf die Kunden umzulegenden Kosten verbunden ist.

Diese Multi-Cloud- bzw. Hybrid-Cloud-Strategie gewinnt zunehmend an Bedeutung bei der Minderung von Risiken und dem Angebot von mehr Auswahlmöglichkeiten und Flexibilität für die Kunden.

Doch wer dem Multi-Cloud-Trend folgen möchte, sollte sich auch unbedingt der Vorteile und Herausforderungen bewusst sein, die mit der Verlagerung von Daten und Anwendungen in eine solche Umgebung einhergehen. Zwar ist die Flexibilität eindeutig ein Vorteil, doch eine Multi-Cloud-Umgebung bedeutet auch höhere Gemeinkosten, die durch die Aufteilung der Arbeitslasten Ihrer Organisation auf mehrere Anbieter verursacht werden. Und eine Multi-Cloud-Umgebung zwingt ein internes Entwicklerteam auch dazu, sich in mehrere Plattformen einzuarbeiten und – abhängig von den unterschiedlichen zu unterstützenden Umgebungen – zusätzliche Governance-Prozess zu etablieren.

Darüber hinaus könnte eine Multi-Cloud-Strategie potenziell auch die Kaufkraft eines Unternehmens oder einer Organisation mindern. Wenn ein Unternehmen die gekauften Leistungen auf mehrere Anbieter aufteilt, beeinträchtigt das etwaige Volumenrabatte. So entsteht ein Modell, bei dem ein Unternehmen weniger zu einem schlechteren Preis kauft.

Umfragen und Statistiken, wie der Datenpunkt von Gartner oben, deuten darauf hin, dass der Umstieg auf eine Multi-Cloud-Strategie zunimmt. Allerdings ist ihnen nicht zu entnehmen, wie viel von einer bestimmten Plattform übernommen wird. In vielen Multi-Cloud-Anwendungsfällen nutzen die Organisationen einen Anbieter für die meisten ihrer Anforderungen und nur ganz selten für andere Bedürfnisse. Doch die meisten dieser Anwendungsfälle stehen und fallen mit der Implementierung einer zweiten Cloud-Hosting-Umgebung als Backup-Lösung bei einem Versagen oder Ausfall der Hauptumgebung für das Cloud-Hosting.

2018 werden viele auf eine Multi-Cloud-Umgebung umsteigen, doch die Organisation müssen sich mit einer wichtigen Nuance befassen und klären, ob ihre Strategie misst, wie viel von jeder Cloud-Plattform übernommen wurde, wie stark die interne Nutzung ist, welche Arbeitslasten erforderlich sind und welche Implementierungskosten anfallen.

70 Prozent der Unternehmen werden bis zum Jahr 2019 eine Multi-Cloud-Strategie implementieren. (Gartner)

74 Prozent der Chief Financial Officers in der Technologiebranche sind der Ansicht, dass das Cloud Computing 2017 deutlich messbaren Einfluss auf ihre Geschäfte haben wird. (Forbes)

Wie heiß ist dieser Trend?

Teilen Sie uns Ihre Meinung mit und stimmen Sie rechtsunten ab, wie heiß der Trend zur Multi-Cloud 2018 Ihrer Meinung nach sein wird.

5 Der Aufstieg des CDO

Der Aufstieg des Chief Data Officer

Daten und Analysen rücken immer mehr in den Mittelpunkt jeder Organisation. Das steht außer Frage. Wenn sich Organisationen weiterentwickeln, priorisieren sie eine neue Ebene der strategischen Ausrichtung und Verantwortlichkeit in Bezug auf ihre Analytics.

Ursprünglich fielen die meisten BI-Aufgaben in den Verantwortungsbereich des Chief Information Officer (CIO), der die Standardisierung, Konsolidierung und Steuerung der Datenbestände in der gesamten Organisation überwachte, was ein konsistentes Berichtswesen erforderte. Dadurch gerieten BI-Initiativen (Datensicherheit, das Erstellen von Analysemodellen usw.) in einen Wettstreit mit anderen strategischen Initiativen (zum Beispiel mit der IT-Architektur, der Systemsicherheit oder der Netzwerkstrategie). All dies geschah im Einflussbereich des CIO – und behinderte häufig den Erfolg und die Wirkung von BI.

In manchen Fällen klaffte dann irgendwann ein Spalt zwischen dem CIO und dem Unternehmen, weil die Geschwindigkeit des Erkenntnisgewinns und die Datensicherheit nur schwer zu vereinbaren waren. Organisationen wird immer stärker bewusst, dass eine Verantwortlichkeit in der Vorstandsetage erforderlich ist, um eine Analytics-Kultur zu etablieren und mithilfe von Investitionen in Analytics-Lösungen umsetzbare Erkenntnisse aus Daten zu gewinnen. Viele Organisationen setzen hierbei auf die Ernennung eines Chief Data Officer (CDO) bzw. eines Chief Analytics Officer (CAO), um den Wandel in den Geschäftsprozessen voranzutreiben, kulturelle Barrieren zu überwinden und den Wert von Analytics auf allen Ebenen der Organisation zu kommunizieren. So kann sich der CIO stärker auf Aspekte wie die Datensicherheit konzentrieren.

Meine Aufgabe ist es, unser Team mit Tools und Technologien auszurüsten.

Die Ernennung von CDOs und/oder CAOs sowie die Zuweisung von Verantwortlichkeiten für die geschäftlichen Auswirkungen und bessere Ergebnisse sind auch ein deutlicher Beleg für den strategischen Wert der Daten und Analytics in modernen Organisationen. Auf Vorstandsebene wird jetzt auch eine proaktive Diskussion geführt, wie eine Analytics-Strategie bereitgestellt werden kann. Anstatt darauf zu warten, dass ein bestimmter Bericht angefordert wird, fragen die CDOs jetzt: „Wie können wir Unternehmensanfragen vorhersehen oder rasch auf diese reagieren?“

Um unter dieser Position auf Vorstandsebene ein äußerst effektives Team zu etablieren, stellen die Organisationen mehr Geld und Ressourcen zur Verfügung. Laut Gartner werden 80 Prozent der Großunternehmen bis 2020 über ein voll einsatzfähiges CDO-Büro verfügen. Zurzeit sind in einem solchen Büro durchschnittlich 38 Mitarbeiter beschäftigt, doch 66 Prozent der befragten Organisationen gehen davon aus, dass das zugewiesene Budget für das Büro noch steigen wird.

Josh Parenteau, Market Intelligence Director bei Tableau, merkt an, dass die Rolle des CDO „ergebnisorientiert“ ist. Er erklärt: „Es geht nicht darum, die Daten in ein Data Warehouse zu packen und zu hoffen, dass sie irgendwer schon verwenden wird. Die Daten befinden sich dort, um zu definieren, wie sie genutzt werden sollen, und um sicherzustellen, dass Sie eine Wertschöpfung erzielen.“ Diese Ergebnisorientierung ist ganz entscheidend, insbesondere weil sie mit den drei Topzielen aus Gartners CDO-Umfrage aus dem Jahr 2016 im Einklang steht: größere Kundennähe, größerer Wettbewerbsvorteil und verbesserte Effizienz. Genau diese Ziele spornen Unternehmen, wie Wells Fargo, IBM, Aetna und Ancestry, dazu an, CDOs mit der Absicht zu etablieren, ihre Datenstrategie auf die nächste Ebene zu bringen, was die Rolle des Chief Data Officer im Jahr 2018 zu einem festen Bestandteil in jedem Unternehmen macht.

Bis zum Jahr 2019 werden 90 Prozent der Großunternehmen einen CDO einstellen. (Gartner)

Bis zum Jahr 2020 werden 50 Prozent der führenden Organisationen einen CDO beschäftigen, dessen strategischer Einfluss und Autorität mit denen des CIO vergleichbar sein wird.

Wie heiß ist dieser Trend?

Teilen Sie uns Ihre Meinung mit und stimmen Sie rechtsunten darüber ab, wie heiß Ihrer Ansicht nach der Trend zum Chief Data Officer in 2018 sein wird

6 Data Governance wird zum Teamsport

Crowdsourcing ist die Zukunft der Data Governance

Die moderne BI-Abteilung beschränkt sich längst nicht mehr auf das Sperren von Daten und Inhalten, sondern befähigt heute die Geschäftsanwender dazu, überall vertrauenswürdige und kuratierte Daten zum Gewinnen von Erkenntnissen zu verwenden. Und dadurch dass die Mitarbeiter lernen, die Daten auch in vielen anderen Situationen zu nutzen, hat sich ihr Input zu besseren Governance-Modellen zu einem ganz erheblichen Faktor in den Organisationen entwickelt.

Zu behaupten, dass Selfservice-Analytics die BI-Welt mächtig durcheinandergebracht hätten, wäre eine glatte Untertreibung. Der Paradigmenwechsel besteht darin, dass jetzt jeder in der Lage ist, Analytics zu erstellen, was dazu führt, dass in der ganzen Organisation geschäftsentscheidende Fragen gestellt und beantwortet werden. Governance sieht sich mit demselben Phänomen konfrontiert. Selfservice-Analytics sind auf dem Vormarsch, und wertvolle Perspektiven und Informationen inspirieren zu innovativen neuen Methoden für die Governance-Implementierung.

Bei Governance geht es darum, die Weisheit der Vielen zu nutzen, um einerseits die richtigen Daten der richtigen Person zur Verfügung zu stellen und andererseits die Daten für die falsche Person zu sperren.

Bei Governance geht es darum, die Weisheit der Vielen zu nutzen, um einerseits die richtigen Daten der richtigen Person zur Verfügung zu stellen und andererseits die Daten für die falsche Person zu sperren.

Das Letzte, wofür ein Geschäftsanwender verantwortlich sein möchte, ist die Sicherheit der Daten. Gute Governance-Richtlinien gestatten es dem Geschäftsanwender, Fragen zu stellen und zu beantworten und außerdem die erforderlichen Daten zu finden, wenn sie benötigt werden.

BI- und Analytics-Strategien machen sich das moderne Governance-Modell zu eigen: IT-Abteilungen und Datentechniker stellen vertrauenswürdige Datenquellen zusammen, und dadurch dass sich Selfservice-Analytics immer mehr etablieren, kommen die Endbenutzer in den Genuss der Freiheit, vertrauenswürdige und sichere Daten untersuchen zu können. Top-down-Prozesse, die nur auf eine Kontrolle seitens der IT-Abteilung abzielen, werden zugunsten eines kooperativen Entwicklungsprozesses verworfen, der die Kompetenzen der IT-Fachleute und der Endbenutzer kombiniert. Gemeinsam identifizieren sie die Daten, die unbedingt gesteuert werden müssen. Darüber hinaus formulieren sie die Regeln und definieren die Prozesse, die dem Unternehmen die größte Wertschöpfung durch Analytics bieten, ohne die Sicherheit aufs Spiel zu setzen.

45 Prozent der Datenbürger sind der Ansicht, dass weniger als die Hälfte ihrer Berichte qualitativ gute Daten enthalten. (Collibra)

61 Prozent der Führungskräfte auf der Vorstandsebene geben an, dass die Entscheidungsprozesse in ihrem eigenen Unternehmen nur wenig oder selten datengestützt sind. (PwC)

Wie heiß ist dieser Trend?

Teilen Sie uns Ihre Meinung mit und stimmen Sie rechtsunten ab, wie heiß der Trend zur Datensicherheit durch Crowdsourcing 2018 Ihrer Meinung nach sein wird.

7 Daten werden versichert

Der Versicherungsbranche erschließt sich ein neues Geschäftsfeld

Für viele Unternehmen sind die Daten ein entscheidendes Wirtschaftsgut. Doch wie lässt sich der Wert dieser Daten bemessen? Und was passiert, wenn diese Daten verloren gehen oder gestohlen werden? Wie bei den jüngsten Datensicherheitslücken bei führenden Unternehmen zu sehen war, kann eine Bedrohung der Unternehmensdaten verheerende Folgen haben und der betroffenen Marke unter Umständen irreparable Schäden zufügen.

Laut einer Studie des Ponemon Institute aus dem Jahr 2017 wurden die durchschnittlichen Gesamtkosten einer Datensicherheitsverletzung auf 3,62 Millionen US-Dollar geschätzt.

Doch unternehmen die Unternehmen auch tatsächlich alles in ihrer Macht stehende, um ihre Daten zu schützen und zu versichern? Eine Branche, die infolge der Datensicherheitsverletzungen ein rasantes Wachstum verzeichnet, ist der Cyberversicherungsmarkt. Diese Branche hat im Vergleich zum Vorjahr ein 30-prozentiges Wachstum erzielt und wird voraussichtlich bis 2020 jährlich verbuchte Bruttoprämieneinnahmen in Höhe von 5,6 Milliarden US-Dollar erreichen. (AON)

Die Cyber- und Datenschutzversicherung deckt die Haftung eines Unternehmens für eine Datensicherheitsverletzung ab, bei der die persönlichen Daten des Kunden durch einen Hacker offengelegt oder gestohlen werden.

Doch trotz des Wachstums dieses Versicherungsmarktes und trotz des auch weiterhin bestehenden Risikos von Datensicherheitsverletzungen haben nur 15 Prozent der US-Unternehmen einen Versicherungsvertrag abgeschlossen, der Datensicherheitsverletzungen und die Cybersicherheit abdeckt. Wenn die 15 Prozent der versicherten US-Unternehmen näher betrachtet werden, lässt sich außerdem feststellen, dass es sich bei den meisten um etablierte große Finanzinstitute handelt.

Sie müssen entscheiden, wo Ihre Schmerzgrenze liegt. Worin besteht das tatsächliche Risiko für Ihr Unternehmen?

Die Notwendigkeit von Richtlinien bei Finanzinstituten ist klar. Doch der Trend wird sich auch auf andere vertikale Branchen ausweiten, weil niemand gegen das Risiko einer Datensicherheitsverletzung immun ist.

Doug Laney, Analyst bei Gartner, hat vor Kurzem ein Buch mit dem Titel „Infonomics: How to Monetize, Manage, and Measure Information for Competitive Advantage“ (Infonomics: Wie Sie Informationen zu Ihrem Wettbewerbsvorteil monetarisieren, verwalten und messen) geschrieben. Er beschreibt konkrete finanzielle und nicht finanzielle Modelle, wie Unternehmen aus sämtlichen Industriezweigen den Wert ihrer Daten überprüfen können.

Nicht finanzielle Modelle konzentrieren sich auf den intrinsischen Wert, den Unternehmenswert sowie auf den Leistungswert der Daten. Diese Werte können die Einzigartigkeit, die Sorgfalt, die Relevanz und die interne Effizienz des Unternehmens sowie die Gesamtauswirkungen auf die Nutzung seiner Daten messen.

Finanzielle Modelle konzentrieren sich auf den Anschaffungswert, den wirtschaftlichen Wert sowie auf den Marktwert der Daten. Diese Werte können die Kosten für die Beschaffung der Daten und die interne Verwaltung der Daten sowie den Wert bei einem Verkauf oder einer Lizenzierung Ihrer Daten bemessen.

Daten als Handelsware bedeuten, dass ihr Wert nur steigen kann. Letztendlich führt das zu neuen Fragen und Diskussionen darüber, wie dieses Rohmaterial den Unternehmen noch größere Vorteile verschafft und noch größere Erfolge beschert. Und wie bei jedem Produkt stellt sich die Frage: Wozu ist es gut, wenn es ohne jede Konsequenz entwendet werden kann?

Die Gesamtkosten für eine Datensicherheitslücke werden auf durchschnittlich 3,62 Millionen Dollar geschätzt. (Ponemon)

Nur 15 Prozent der Unternehmen in den USA haben eine spezielle Versicherung für Ihre Daten abgeschlossen. (Ponemon)

Wie heiß ist dieser Trend?

Teilen Sie uns Ihre Meinung mit und stimmen Sie rechtsunten ab, wie heiß der Trend zur Datenversicherung 2018 Ihrer Meinung nach sein wird.

8 Die Rolle des Data Engineer

Die Rolle des Data Engineer gewinnt an Bedeutung

Eins ist gewiss: Es kann kein Dashboard erstellt werden, ohne zuvor alle Diagramme so eingerichtet zu haben, dass die zu kommunizierende Story verständlich ist. Ein weiteres Prinzip, das Ihnen bekannt sein dürfte: Es kann keine zuverlässige Datenquelle genutzt werden, ohne vorher verstanden zu haben, welche Datentypen in ein System eingegeben werden und wie man sie dort wieder abruft.

Datentechniker werden auch weiterhin wesentlich dazu beitragen, dass eine Organisation ihre Daten für bessere Geschäftsentscheidungen nutzt. Von 2013 bis 2015 hat sich die Anzahl der Datentechniker mehr als verdoppelt. Und im Oktober 2017 gab es bei LinkedIn mehr als 2.500 offene Stellen unter dem Titel „Data Engineer“ bzw. „Datentechniker“, was die wachsende und anhaltende Nachfrage nach dieser Qualifikation belegt.

Data Engineers sind von fundamentaler Bedeutung für die Einrichtung von Selfservice für die moderne Analytics-Plattform.

Was ist das eigentlich für eine Rolle – und warum ist sie so wichtig? Der Datentechniker ist dafür verantwortlich, die Betriebs- und Analytics-Datenbanken eines Unternehmens zu entwerfen, aufzubauen und zu verwalten. Mit anderen Worten: Datentechniker sind dafür verantwortlich, Daten so aus den zugrunde liegenden Systemen des Unternehmens zu extrahieren, dass Erkenntnisse aus ihnen gewonnen werden können und dass sie als Grundlage für Entscheidungen dienen. Da die Datenübertragungsraten und die Datenspeicherkapazitäten ständig steigen, wird dringender als je zuvor eine Fachkraft benötigt, die fundiertes Fachwissen über die verschiedenen Systeme und deren Architektur besitzt und die versteht, was das Unternehmen will oder braucht.

Hierzu benötigen die Datentechniker ganz besondere Kompetenzen. Sie müssen das Back-End verstehen, was in den Daten steckt und wie dies dem Geschäftsanwender nützen kann. Data Engineers müssen außerdem technische Lösungen entwickeln, mit denen die Daten nutzbar gemacht werden.

Michael Ashe, Senior Recruiter bei Tableau formuliert dies so: „Ich bin ja schon eine ganze Weile in diesem Geschäft. Seit mehr als 17 Jahren stelle ich technische Fachkräfte ein. Und es ist keine Überraschung, dass die Daten- und Speicherkapazitäten ständig gewachsen sind – da habe ich schon echte Quantensprünge erlebt. Die Daten werden immer optimiert werden müssen. Die Unternehmen müssen diese Rolle bestmöglich nutzen. Sie müssen in die spezifischen Daten eintauchen, um geschäftliche Entscheidungen zu treffen. Die Rolle des Datentechnikers wird ganz bestimmt noch an Bedeutung gewinnen.“

Eine Studie von Gartner aus dem Jahr 2016 stellte fest, dass die befragten Organisationen jährlich Verluste von durchschnittlich 9,7 Millionen Dollar infolge schlechter Datenqualität machten.

Data Scientists und Analysten verbringen bis zu 80 % ihrer Arbeitszeit mit der Bereinigung und Vorbereitung von Daten. (TechRepublic)

Wie heiß ist dieser Trend?

Teilen Sie uns Ihre Meinung mit und stimmen Sie rechtsunten ab, wie heiß der Trend zur Rolle des Data Engineer 2018 Ihrer Meinung nach sein wird.

9 Das IoT treibt Innovation

Der geographische Kontext wird die IoT-Innovationen vorantreiben

Zu behaupten, die Ausbreitung des Internets der Dinge (IoT) hätte ganz erheblich dazu beigetragen, dass die Zahl der weltweit angeschlossenen Geräte drastisch gestiegen ist, wäre eine krasse Untertreibung. All diese Geräte interagieren miteinander und erfassen Daten, die für eine bessere Verbindungserfahrung sorgen. Gartner prognostiziert sogar, dass sich die Anzahl der für die Verbraucher verfügbaren IoT-Geräte bis 2020 mehr als verdoppeln wird, „sodass mehr als 20,4 Milliarden IoT-Geräte online sein werden“.

Doch selbst angesichts dieses Wachstums haben die Anwendungsfälle und die Implementierung der IoT-Daten nicht dieselbe wünschenswerte Entwicklung vollzogen. Unternehmen haben Sicherheitsbedenken, doch die meisten von ihnen verfügen weder über die nötigen organisatorischen Kompetenzen noch über die interne technische Infrastruktur aus anderen Anwendungen und Plattformen, um IoT-Daten zu unterstützen.

Wenn von Standort oder Geodaten die Rede ist, werden diese meist als Dimension behandelt. Das werde ich analysieren ... der neueste Trend geht dahin, dass diese zu einem Input für den Analyseprozess werden.

Wir beobachten jedoch auch einen positiven Trend – die Nutzung standortbasierter Daten mit IoT-Geräten und die damit verbundenen Vorteile. Diese Unterkategorie mit dem Namen „Location of Things“ (Standort der Dinge) bietet den IoT-Geräten eine Standorterkennungsfunktion und kommuniziert deren geografische Position. Wenn wir wissen, wo sich ein IoT-Gerät befindet, können wir passenden Kontext hinzufügen und besser verstehen, was an einem bestimmten Standort gerade geschieht und wahrscheinlich noch passieren wird.

Wir stellen fest, dass Unternehmen und Organisationen, die diese gesammelten Daten erfassen möchten, unterschiedliche Technologien verwenden. Krankenhäuser, Geschäfte und Hotels verwenden zum Beispiel eine Technologie namens Bluetooth Low Energy (BLE) für die Standorterkennungsdienste in Gebäuden, wo GPS normalerweise Schwierigkeiten hat, den jeweiligen Standort anzugeben. Die Technologie kann verwendet werden, um bestimmte Objekte oder Personen zu verfolgen. Sie kann aber auch mit Mobilgeräten wie Smartwatches, Badges oder Tags interagieren, um eine besonders individuelle Erfahrung zu bieten.

Standortbezogene Zahlen können als Eingabe betrachtet werden (anstatt als Ausgabe von Ergebnissen), denn sie beziehen sich auf die Datenanalyse. Wenn die Daten verfügbar sind, können Analysten diese Informationen in ihre Analytics übernehmen, um sich ein besseres Bild davon zu machen, was gerade geschieht, wo es geschieht und was voraussichtlich in dem jeweiligen Bereich noch passieren wird.

IoT-Endpunkte werden bis zum Jahr 2020 auf 30 Milliarden anwachsen (IDC)

Bis Ende 2020 wird ein explosives Wachstum des IoT auf über 5 Milliarden Dollar erwartet. (Gartner)

Wie heiß ist dieser Trend?

Teilen Sie uns Ihre Meinung mit und stimmen Sie rechtsunten ab, wie heiß der Trend zum Standort der Dinge 2018 Ihrer Meinung nach sein wird.

10 Investitionen der akademischen Welt

Universitäten verdoppeln ihre Data Science- und Analytics-Programme

An der North Carolina State University können Studenten im Rahmen des Programms „Master of Science Analytics“ (MSA) erstmals einen Master-Abschluss in Analytics machen. Das MSA-Programm findet unter dem Dach des Institute of Advanced Analytics (IAA) statt. Diese Datendrehscheibe hat sich zum Ziel gesetzt, „die weltbesten Analytics-Experten hervorzubringen – Personen, die die komplexen Methoden und Tools für das Erstellen von Datenmodellen im großen Maßstab meisterlich beherrschen [und] leidenschaftlich gerne schwierige Probleme lösen ...“ Das Programm der North Carolina State University lässt als Erstes seiner Art die von der akademischen Welt angekündigten Investitionen in einen Data Science- und Analytics-Studienplan ahnen.

In diesem Jahr hat die University of California in San Diego erstmals Bachelor-Studiengänge in Data Science auf seinem Campus angeboten. Doch damit nicht genug. Von der Spende eines ehemaligen Absolventen zusätzlich angespornt, plant die Universität nun auch den Aufbau eines Data Science-Instituts. Die kalifornischen Universitäten in Berkeley, Davis und Santa Cruz folgen diesem Beispiel und haben das Data Science- und Analytics-Studienangebot erweitert, wobei die Nachfrage die Erwartungen übertrifft. Aber warum ist das so?

Ich bin immer wieder überrascht davon, was die Studenten einbringen, und begeistert von ihrem intuitiven Blick auf Daten, ihrem spielerischen Umgang damit und den daraus erstellten Visualisierungen.

Laut einer kürzlich von PwC durchgeführten Studie werden 69 Prozent der Arbeitgeber bis zum Jahr 2021 von ihren Bewerbern den Nachweis von Data Science- und Analytics-Kompetenzen verlangen. 2017 hat Glassdoor berichtet, dass „Data Science“ im zweiten aufeinanderfolgenden Jahr als „Top Job“ eingestuft wurde. Angesichts der wachsenden Nachfrage seitens der Arbeitgeber wird es immer dringlicher, äußerst kompetente Datenexperten hervorzubringen. Doch die Realität sieht anders aus. Demselben PwC-Bericht ist nämlich auch zu entnehmen, dass nur 23 Prozent der Hochschulabsolventen über die nötigen Kompetenzen verfügen, um auf dem von den Arbeitgebern geforderten Niveau miteinander um Stellen zu konkurrieren. Eine kürzlich vom MIT durchgeführte Studie zeigt auf, dass 40 Prozent der Manager Schwierigkeiten haben, Analytics-Nachwuchskräfte zu finden.

Analytics-Kompetenzen sind kein optionales Kriterium mehr, sondern werden längst vorausgesetzt. Im Jahr 2018 wird es ein stringenteres Konzept geben, um sicherzustellen, dass die Studenten über die nötigen Kompetenzen verfügen, um auf dem modernen Arbeitsmarkt zu bestehen. Und da die Unternehmen ihre Daten ständig weiter optimieren, um die größte Wertschöpfung zu erzielen, besteht auch weiterhin eine große Nachfrage nach besonders datenkundigen Mitarbeitern – Tendenz steigend.

Bis zum Jahr 2021 werden 69 Prozent der Arbeitgeber Data Science und Analytics als wichtige Einstellungsvoraussetzung für Stellenbewerber verlangen. (PwC)

Eine kürzlich vom MIT durchgeführte Studie zeigt auf, dass 40 Prozent der Manager Schwierigkeiten haben, Analytics-Nachwuchskräfte zu finden. (MIT)

Wie heiß ist dieser Trend?

Teilen Sie uns Ihre Meinung mit und stimmen Sie rechtsunten ab, wie heiß der Trend zu Investitionen der akademischen Welt 2018 Ihrer Meinung nach sein wird.

Laden Sie sich die PDF-Datei mit unseren 10 wichtigsten Business Intelligence-Trends für 2018 herunter.