Personalisierungslösung epicAi wird AI MASTER 2019
WINNER  2019

Big Data Analytics für Ihr digitales Business

Die wenigsten Agenturen und Unternehmen besitzen die richtigen Prozesse, Ressourcen und Tools für die explorative Analyse großer und komplexer Datenmengen. Wir ändern das.

Was ist Big Data?

Mit dem Begriff Big Data werden Datenmengen bezeichnet, die vor allem durch drei Qualitäten gekennzeichnet sind. Hier ist eine sehr knappe Big Data-Definition: Mit dem Begriff Big Data charakterisiert man Datenräume mit einem hohem Umfang, einer in sich bestehenden großen Vielfalt (Diversität) und/oder Daten mit einer hohen Veränderlichkeit (Dynamik).

Die zentrale Herausforderung bei der Arbeit mit Big Data liegt in der Verifizierung der notwendigen Richtigkeit der zugrunde liegenden Daten. In diesem Sinne ist Big Data ein komplexes Datenuniversum, welches nur mit speziellen Big Data-Technologien und Analyse-Methoden erschlossen werden kann.

Was ist Big Data Analytics?

Big Data Analytics steht für die Untersuchung dynamischer und diverser Datenmengen. Darunter fallen beispielsweise Meta-Daten von Surfverhalten auf Websites, geografische Daten, Wetter-Informationen, Bild-Daten aber auch Text-Informationen.

Eine besondere Herausforderung ist die Handhabung dieser Daten aus verschiedenen Quellen auf Grund ihres unterschiedlichen Formats, der Auflösungskraft und Güte. Für eine solche Analyse großer Datenmengen setzen Datenwissenschaftler auf einen speziellen Werkzeugkasten zur Extraktion, Erfassung und Transformation der Daten in die zur Weiterverarbeitung passende Form.

Big Data Analytics – als Vorarbeit für KI-Anwendungen – lässt sich in drei Arbeitsschritte gliedern:

1. Datenbeschaffung aus verschiedenen Quellen
2. Optimierung und Nutzbarmachung (d.h. Säubern und Strukturieren) des so entstanden Datenraums
3. Anwendung unterschiedlicher Methoden moderner Statistik. Die notwendigen Modelle werden dabei auf die spezielle, kundespezifische Fragestellung ausgerichtet.

Der erste Schritt im Big Data Analytics Prozess ist die Datenbeschaffung. Hierbei muss geklärt werden, wie ich an die Daten gelange, in welchem Format sie vorliegen, welchen Umfang sie haben und wie eine Data Input-Pipeline aussehen könnte. Für den ersten Schritt reichen meist statische Exporte, welche dem Data Science Team die Daten in unterschiedlichen Formaten wie z.B. CSV, JSON oder XML zur Verfügung stellen. Später im Big Data Projekt lassen sie für eine kontinuierliche Datenversorgung allerhand Automatisierungen entwickeln, um die Daten von A nach B zur Weiterverarbeitung zu schaufeln. Die hierfür zu zu verwendenden Technologien sind unter anderem davon abhängig, wie zeitlich kritisch die Daten zu verarbeiten sind und welche Update-Zyklen die Algorithmen verlangen.

Im zweiten Schritt machen sich die Datenwissenschaftler mit den Daten vertraut und testen diese hinsichtlich ihrer Weiterverarbeitbarkeit. Unter anderem geht es bei diesem eher explorativen Vorgehen darum, die Daten zu verstehen. Sie werden hinsichtlich Qualität, Konsistenz und potentiellen Fehlern untersucht. Je nach Ergebnis müssen ggf. zusätzlich Strategien gefunden werden, um fehlerhafte Daten in einem Vorverarbeitungsschritt zu einem akzeptablen Datenstand zur Weiterverarbeitung zu führen. Wichtig ist dabei vor allem, ein Gefühl für die Daten zu bekommen und einzugrenzen, in welche Richtung weiterführende Analysen gehen könnten anhand des Datenbestandes und der bestehenden Qualität.

Nach erfolgreicher Extraktion und Nutzbarmachung beginnt mit Hilfe des Big Data Analytics Werkzeugkastens die Suche nach verborgenen Zusammenhängen innerhalb unterschiedlicher Datenströme. Die Anreicherung nicht-annotierte Daten um fehlende Informationen und Querverbindungen führt in vielen Fällen dazu, dass Zusammenhänge ans Tageslicht kommen, die anfänglich nicht erwartet wurden.

Ein Anwendungsfall von Big Data Analytics im Bereich Digital Marketing ist zum Beispiel das Aufspüren von Markttrends und Kundenpräferenzen; damit Unternehmer fundierte, datengetriebene Geschäftsentscheidungen treffen können. Oftmals ist dabei die vorherige Entwicklung übergreifender Messgrößen und KPIs zur Erfassung dieser nebulösen Werte wie „Präferenz“ und „Trend“ erforderlich.

Welche Fragen beantworten explorative Datenanalysen
und Künstliche Intelligenz?

Big Data Analytics ermöglicht die Identifikation relevanter, bislang unbekannter Stellschrauben und Hebel für die Optimierung und Weiterentwicklung von bestehenden Geschäftsprozessen. Mit Hilfe folgender Fragen können Sie sich Ihrem ersten Big Data-Projekt nähern und die Tragweite einer explorativen Datenanalyse abschätzen:

– In wiefern spiegeln die vorhandenen Daten die realen Geschäftsprozesse wieder?
– Welche Datensilos gibt es, welche lohnt es, zu verbinden?
– Welche Informationen sind relevant für die Vorhersage eines bestimmten Ereignisses?
– Welche Wechselwirkung und Abhängigkeiten zwischen unterschiedlichen Signalen und Datengruppen gibt es?
– In welchem Maß können Veränderungen von Datenströmen vorhergesagt werden?

Ein typisches Beispiel aus dem Bereich E-Commerce ist die Reduzierung von Retourenkosten. Dabei werden unterschiedliche, kunden- und produktnahe Datenquellen miteinander verbunden (z.B. Trackinginformationen, ERP- und CRM-Daten, Kampagnen-Informationen.) Mit Hilfe von Big Data Analytics finden Data Scientists heraus, ob eine proaktive Retourenopimierung möglich ist und welche Schritte dafür zu gehen sind.

Was sind typische Big Data Analytics-Methoden?

Big Data Analytics beschreibt die – oftmals komplizierte – Untersuchung großer und vielfältiger Datenmengen. Das Spektrum der Analysemöglichkeiten reicht von der einfachen, beschreibenden Analyse bis zur Erkenntnisanalyse mit selbstlernenden Algorithmen. Explorative Datenanalysen leben von Tools und Methoden, wie Clustering, Klassifikationsverfahren oder Hypothesentests.

Unternehmen profitieren von der Vielseitigkeit verschiedener, explorativer Datenanalyseverfahren. Für jede Herausforderung und jeden Business Case gibt es im Künstliche Intelligenz-Werkzeugkasten die passenden Tools um Geschäftsprozesse zielgerichtet zu optimieren. Mit der zunehmenden Komplexität der Daten (Text, Bilder, Videos, Trackinginformationen, Sensordaten etc.) werden auch die notwendigen Big Data-Technologien und – Analysen weiter zunehmen.

Data Mining und Machine Learning als Big Data-Hebel

Als gängiges Instrumentarium für große Datenmengen extrahiert Data Mining Muster aus großen Datensätzen, indem es Statistik und Machine Learning kombiniert. Mit Data Mining ist es möglich, das gesamte chaotische Rauschen in den Daten zu durchsuchen, die relevanten Datenpunkte zu lokalisieren, und damit z.B. Informationsinteressen, den Erfolg von Kampagnen vorherzusagen oder Geschäftsprozesse optimaler zu priorisieren.

Folgende Möglichkeiten machen Data Mining für Big Data-Projekte besonders wertvoll:
– Identifikation ungewöhnlicher und untypischer Signale,
– Strukturierung von Datensätzen in vordefinierten Klassen,
– Wissensentdeckung auf Grund von Ähnlichkeitsstrukturen und Mustern,
– Unterscheidung von kausalen und korrelativen Zusammenhängen.

Machine Learning ermöglicht die Modellierung von Zusammenhängen in dynamischen Daten, sodass aus der einmaligen Analyse ein wiederkehrender Analyseprozess entwickelt wird. Damit versetzt Machine Learning Unternehmer in die Lage, die Güte ihrer Entscheidungen iterativ und immer weiter zu optimieren. Außerdem ermöglicht Machine Learning KI-Anwendungen, die Informationen und Aufgaben selbständig priorisieren und diese Priorisierung stetig verbessern.

Wie gehören Big Data Analytics und Data Science zusammen?

Big Data Analytics ist gleichzusetzen mit der Extraktion von Informationen und Zusammenhängen aus umfangreichen, dynamischen und komplexen Datenmengen. Diese Daten stammen beispielsweise von Sensoren, Endgeräten, von Video- oder Audiosignalen, aus Protokolldateien, Trackinginformationen oder sozialen Medien. Ein Großteil davon verändert sich fortwährend.

Es gibt nicht „die eine“ Methode, die explorativen Datenanalysen in diesen dynamischen Universen ermöglicht. Aber es gibt eine Reihe fortschrittlicher Big Data-Komponenten und – Methoden, die als Framework auf große Datenmengen angewendet werden können. Aus diesem Grund sind in der Praxis Data Science, Data Engineering und Big Data Analytics sehr eng verwoben.

Data Science und Zukunft und Künstliche Intelligenz
5 Gründe, warum Data Science wichtiger ist als je zuvor.

Was grenzt Data Science vom Data Engineering ab?

Data Engineers sind immer dann wichtig, wenn es um die Nutzbarmachung von Datenmengen geht. Ein Data Engineer verantwortet in Big Data-Projekten meist das technologische Software-Wissen, um die unterschiedlichen Datenquellen miteinander zu verbinden und Daten sinnvoll zu extrahieren. Er kennt notwendige Software-Architektur, um Data Pipelines und Datenbank-Performance zu optimieren. Der Datenwissenschaftler übernimmt die explorativen Datenanalysen und ihm obliegt eine damit verbundene mathematische Expertise, um herauszufinden, welche Methode z.B. für die Identifikation relevanter Signale von Bedeutung ist. Data Engineers kommen häufiger aus den Ingenieurswissenschaften oder der Informatik. Datenwissenschaftler haben ihre Heimat eher in den Bereichen der Statistik, Mathematik oder Physik.

Von der Daten-Extraktion bis hin zur Modell-Evaluation bieten wir Ihnen nachhaltige und maßgeschneiderte Softwarelösungen.

Lassen Sie sich beraten!

Wie profitieren Unternehmen von Big Data Analytics?

Die Geschäftsanalyse mit einer Business Intelligence-Software verbindet Warenwirtschaft, Customer-Relationship-Management und weiterer Daten in elektronischer Form. Business Intelligence eignet sich damit vor allem zur Beschreibung von Durchschnittswerten oder einfachen linearen Zusammenhängen. Für dynamische und komplexe Datenströme sind Business Intelligence-Tools nicht geeignet – aber auch nie konzipiert worden.

Im Gegensatz dazu, bedient Big Data Analytics viel mehr die besondere Notwendigkeit im Umgang mit komplexen und dynamischen Datenmengen. Um den Wirkungsgrad der eigenen Geschäftsprozesse zu maximieren, reichen klassische Datenbanktechnologien und einfache Regressionsmodelle in Zukunft nicht mehr aus. Diese Maximierung basiert auf einem verbesserten Input von Ressourcen, einer optimierten Mechanik innerhalb dieser Geschäftsprozesse und dem Fokus auf ertragsrelevante Faktoren.

Big Data Analysen öffnen die klassische Business Intelligence-Perspektive und machen nichtlineare Optimierungspotentiale sichtbar. Sie sind häufig die Vorarbeit für Predictive Analytics-Projekte und die Entwicklung maßgeschneiderter KI-Anwendungen, die Ihnen Arbeitsprozesse intelligent abnehmen, Aufgaben selbständig priorisieren und damit Kollegen effizienter arbeiten lassen. Diese sogenannten KI-Anwendungen basieren auf explorativen Datenanalysen und spezifischen Big Data-Technologien.

Big Data Analytics ermöglicht Effizienzsteigerungen

Big Data Analytics ist besonders für jene Unternehmen attraktiv, die naturgemäß mit einem begrenzten Maß an finanziellen und personellen Ressourcen operieren. Denn die fortwährende Suche nach Optimierungsmöglichkeiten und Effizienzsteigerung ist für deren weitere Geschäftsentwicklung existentiell.

Datengetriebene, inhaltsbasierte Personalisierung oder Klassifizierung von Testpersonen sind typische Beispiele für eine Effizienzsteigerung der Zielgruppenansprache mithilfe von maßgeschneiderten KI-Anwendungen, deren Grundlage Big Data-Analysen waren.

Aus dem produktionsnahen Kontext kennen viele Unternehmer Big Data Analytics vor allem als Instrument zur Nutzbarmachung von Maschinendaten. Eine solche, datengetriebene Betrachung, identifziert die kritischen Stellschrauben innerhalb der Prozess- und Produktdaten. Schlussendlich produzieren Unternehmen mit Hilfe von Big Data Analytics mit effizienteren Prozessen bessere Produkte. 

Sie haben einen Datensatz und wollen herausfinden,
was generell damit möglich ist?

Lassen Sie sich beraten!

Newsletter Anmeldung

* Pflichtfelder