Vorsprung durch Wissen

Werbung
www.techdivision.com
BIG DATA
Vorsprung durch Wissen
Tante Emma 2.0 oder Big-Data
(Josef Willkommer, TechDivision GmbH)
Big Data – Zwischen Urheberrecht und
Datenschutzrecht
(Interview mit Dr. Clemens Wass, Rechtsexperte)
Big Data – Modebegriff oder Trend?
(Interview mit Dr. Michael May, Fraunhofer Institut IAIS)
Big Data – Vorsprung durch Wissen
(Hendrik Stange, Fraunhofer Institut IAIS)
Big Data und Customer Journey
(Thorben Fasching, hmmh)
...Big Data ist in aller Munde!
Das Wachstum der Datenberge scheint unaufhaltsam, ist sehr komplex und meist auch unstrukturiert. Wie kein
zweiter Begriff prägt das Thema „Big Data“ derzeit die IT-Diskussionen.
Für die herkömmliche IT bedeutet das Thema einerseits eine große Herausforderung, andererseits birgt es neue
Chancen und Möglichkeiten in sich. Für die meisten Anwender bleibt jedoch das große Potential, das sich aus der
Anwendung von Big Data für das eigene Unternehmen ergibt, schwer zu fassen. Big Data gilt als das „Rohöl des
Informationszeitalters“ – es muss nur verstanden werden, es richtig zu nutzen.
TechDivision hat sich mit dem Thema „Big Data“ näher auseinander gesetzt und mit Experten der Szene diskutiert.
Mit aktuellem Know-How aus dem Hause Fraunhofer Institut IAIS und hochwertigen Expertenartikeln und Interviews
stellt das vorliegende Whitepaper das Potential von Big Data ausführlich dar.
Tante Emma 2.0
oder Big-Data
Josef Willkommer, TechDivision GmbH
Erinnern wir uns doch mal an unsere Jugend. In den
meisten Fällen gab es da – zumindest bei der Oma – einen
kleinen Tante Emma Laden, der häufig Dreh- und
Angelpunkt des täglichen Lebens war. Dort traf man sich,
tauschte sich aus und bekam – entweder von Tante Emma
oder von anderen Kunden – allerlei Neuigkeiten, Tipps für
das tägliche Leben, Produktempfehlungen und vieles mehr.
Im Prinzip eigentlich „Social Media 1.0“. Tante Emma war
damals auch deswegen erfolgreich und hatte ein tragfähiges
Geschäftsmodell, weil die Mobilität noch nicht in der
heutigen Form gegeben war und viele auf Nahversorgung
ohne eigenes Auto angewiesen waren. Wie wir alle wissen,
nahm die Mobilität gerade während des Wirtschaftswunders
enorm zu, viele kauften sich ihr erstes Auto und die ersten
Supermärkte – wie man sie heute kennt – wurden aus dem
Boden gestampft. Für Tante Emma & Kolleginnen natürlich
harte Konkurrenz.
TechDivision GmbH
Big Data – Vorsprung durch Wissen
Dennoch hat Tante Emma – im Kleinen – immer noch
Erfolg, weil sie genau das bieten kann, was in der
Anonymität eines Supermarktes, Discounters oder SBWarenhauses größtenteils untergeht: Persönlichkeit. Tante
Emma kannte und kennt ihre Kunden und deren Vorlieben
sowie Besonderheiten. Welche Konserven Herr Maier am
liebsten mag, wieviele Brötchen Frau Müller am Samstag
benötigt. Sie weiß auch entsprechende Zusammenhänge
und kann aus eigener Erfahrung berichten und
Empfehlungen abgeben: „Wenn Ihnen der Joghurt zu süß
ist, sollten sie mal diesen versuchen.“
2
Nach aktuellen Berechnungen verdoppelt sich das weltweite Datenvolumen alle 2 Jahre. Diese Entwicklung wird vor
allem getrieben durch die zunehmende maschinelle Erzeugung von Daten z. B. über Protokolle von
Telekommunikationsverbindungen (CDR) und Web-Zugriffen (Logdateien), automatische Erfassungen von RFID-Lesern,
Kameras, Mikrofonen und sonstigen Sensoren. Big Data fallen auch in der Finanzindustrie an (Finanz-Transaktionen,
Börsendaten), sowie im Energiesektor (Verbrauchsdaten) und im Gesundheitswesen (Verschreibungen). In der
Wissenschaft fallen ebenfalls große Datenmengen an, z. B. in der Geologie, Genetik, Klimaforschung und Kernphysik.
Der IT-Branchenverband Bitkom hat Big Data als einen Trend im Jahr 2012 bezeichnet.“ (Quelle: Wikipedia)
Mit anderen Worten Tante Emma machte und macht intuitiv
das, was heute – aufgrund der enormen Zunahme an
Produkten, Werbebotschaften und generellen Optionen beim
Einkauf und der damit zusammenhängenden Explosion der
Datenmengen – auch zum Begriff Big Data und der damit
einhergehenden Personalisierung gehört.
Das Ergebnis sind exponentiell ansteigende Datenberge.
Dies erklärt auch, warum ca. 90% der weltweiten Daten in
den letzten 2 Jahren entstanden sind und nur 15% der
Marketing-Entscheider ein klares Verständnis darüber
haben, welchen Mehrwert einzelne Kommunikationskanäle
bieten. [1]
Was aber bedeutet Big Data eigentlich? „Als Big Data
werden besonders große Datenmengen bezeichnet, die mit
Hilfe von Standard-Datenbanken und DatenmanagementTools nicht oder nur unzureichend verarbeitet werden
können. Problematisch sind dabei vor allem die Erfassung,
die Speicherung, die Suche, Verteilung, Analyse und
Visualisierung von großen Datenmengen. Das Volumen
dieser Datenmengen geht in die Terabytes, Petabytes und
Exabytes.
Wie Big-Data heute in der Praxis aussehen kann, zeigt ein
Beispiel der AOK. Auch die Wissenschaftler des
Wissenschaftlichen Instituts der AOK (WIdO) wissen genau,
wie essenziell Zahlen gerade für den Versicherungsmarkt
sind. Mit welchen Datenmengen hier hantiert wird, zeigt die
nachfolgende Auflistung:
Dass die Datenströme aus immer mehr Kanälen generiert
werden – bei denen die Grenzen inzwischen auch immer
häufiger verschwimmen – zeigt das Beispiel Fernsehen.
Während zu Tante Emma´s Zeiten in der Regel drei
Fernsehprogramme zur Verfügung standen, weiß man heute
häufig gar nicht mehr wieviele und welche Sender verfügbar
sind. Im Schnitt dürften hier pro Haushalt sicherlich
inzwischen 30 bis 50 Sender – mitunter auch deutlich mehr
– um die Gunst der Zuschauer „buhlen“.
So verwundert es auch nicht, dass Konsumenten heutzutage
rund 10.000 Werbebotschaften pro Tag ausgesetzt sind, die
in der Folge natürlich auch immense Datenmengen nach
sich ziehen. Durch die Vernetzung von Web und TV sowie
entsprechende Tracking-Technologien werden daher
inzwischen oft „wie wild“ Daten gesammelt – häufig ohne
klares Ziel und entsprechende strategische Vorabplanungen.
24 Millionen AOK-Versicherte mit:
sechs Millionen Behandlungen/Jahr
55 Millionen Diagnosen
18 Millionen Prozeduren
55 Millionen Entgeltinformationen
140.000 ambulant tätige Ärzte mit:
über 370 Millionen Behandlungen
über 1,3 Milliarden Abrechnungsziffern
über 800 Millionen codierten ICD-10-Diagnosen
3,6 Millionen OPS-Codes
12 Millionen Arbeitsunfähigkeiten
„All diese Daten helfen den Wissenschaftlern des WIdO
dabei, für die Gesundheitsversorgung wichtige Korrelationen
aufzudecken. Dabei sorgen bereits einfachste Analysen
dafür, dass vermeintlich schwierige Fragen beantwortet
[1] http://www.owm.de/dokumente/studien/publikationen_detail.php?id=11
[2] http://www.computerwoche.de/a/wenn-pythagoras-mit-big-data-hantiert,2527754
TechDivision GmbH
Big Data – Vorsprung durch Wissen
3
werden können: Welche und wie viele Versicherte müssen
in nächster Zeit vermutlich ins Krankenhaus? Wie oft geht,
im Vergleich zu einem regulären Patienten, ein chronisch
Kranker zum Arzt? Wo müssen Patienten häufiger
wiederholt behandelt werden?
Weiterführende Analysen sind möglich wenn etwa Daten aus
den verschiedenen Leistungsbereichen miteinander
verknüpft und analysiert werden. Dabei besteht innerhalb
des AOK-Wissenschaftsinstituts eine große Schwierigkeit:
Jeder Sektor – also die Arzneimittelversorgung, die Kliniken,
die ambulante Versorgung und die Arbeitsunfähigkeit –
besitzt eine separate Datenverwaltung. Sie alle müssen
aufwendig miteinander verbunden und synchronisiert
werden. Diese Verknüpfungen sind jedoch sehr wichtig, da
sie Rückschlüsse auf gesellschaftliche Gesundheitszustände
erlauben.“ [2]
An diesem Beispiel wird auch gleich eines der größten
Probleme im Bereich Big-Data klar. Viele Unternehmen
besitzen bereits Unmengen von Daten bzw. haben
zwischenzeitlich begonnen, entsprechende Daten zu
erheben. Diese werden meist jedoch in unterschiedlichsten
Bereichen und Systemen generiert und gespeichert und
müssen dann wieder zusammengeführt werden um
übergreifende Analysen zu ermöglichen.
Walmart –
Tante Emma 3.0
Versuchen wir aber mal, den Bogen zur eingangs erwähnten
Tante Emma zu schlagen, die inzwischen in den meisten
Fällen von Walmart & Co. abgelöst wurde. Aufgrund der
enormen Größenunterschiede sowie der Tatsache, dass
inzwischen unterschiedlichste Kanäle „bespielt“ werden
müssen, funktioniert das, was Tante Emma so erfolgreich
gemacht hat und was sie meist einzig in ihrem Kopf hatte,
heutzutage nicht mehr. Willkommen in der Welt von BigData! Beispiel gefällig?
Mit mehr als 200 Millionen Kunden, die jede Woche in die
10.700 Stores mit 69 Firmierungen in 27 Ländern
„einfallen“ und in 10 Ländern auch über Webshops
TechDivision GmbH
Big Data – Vorsprung durch Wissen
einkaufen, kontrolliert Walmart mehr als 1,5 Mio.
Kundentransaktionen pro Stunde! Alle dadurch generierten
Daten fließen in eine zentrale Datenbank, die aktuell rund 3
Petabyte an Informationen enthält. Da sie mit Petabyte
vermutlich noch nicht so viel anfangen können hier ein
vereinfachtes Praxisbeispiel:
Für unser Beispiel bedienen wir uns des sog. ASCII
Zeichensatzes, bei dem jedes Zeichen mit einem Byte
codiert wird. Auf einer DIN-A4 Seite lassen sich mit einer
Schreibmaschine 80 Zeichen pro Zeile und 53 Zeilen pro
Seite schreiben. Damit passen 4.240 Zeichen (80 x 53) auf
eine einseitig bedruckte DIN-A4 Seite.
Der Einfachheit halber vernachlässigen wir im folgenden
Dateisysteme und Header Informationen, welche
zusätzlichen Platz beanspruchen würden – aber am Ende
wird ersichtlich, das dies auch keinen großen Unterschied
machen wird.
Rechnen wir mit 4.000 Zeichen (80 x 50) pro A4 Seite, was
dann 4.000 Byte oder ~ 3,9 KiB oder 4 KB entspricht (?iB
vs ?B). Der Einfachheit halber nehmen wir an, wir haben
eine Festplatte mit 2 Terabyte Fassungsvermögen, also
2.000.000.000.000 Byte.
Damit wird bereits ersichtlich, dass es sich um recht große
Zahlen handelt. Um das Ganze etwas greifbarer zu machen
bedienen wir uns eines konkreteren Beispiels:
Ein Stapel Papier, A4, 100 Seiten, hat etwa eine Höhe von 1
cm. Wie groß ist nun der Papierstapel, wenn ich den
gesamten Inhalt meiner 2TB Festplatte einseitig auf Papier
in ASCII Symbolen mit 80×50 Zeichen pro Blatt ausdrucken
würde?
2.000.000.000.000 Byte / 4.000 Byte pro Seite =
500.000.000 Seiten Papier
500.000.000 Seiten / 100 Seiten pro 1 cm = 5.000.000
cm / 100 = 50.000 m / 1.000 = 50 km
Das entspricht etwa einem Papierstapel von München nach
Rosenheim – Luftlinie.
Ein Petabyte ist die nächstgrößere Einheit nach Terabyte,
somit sind 1000 TB = 1 PB und damit 3 PB =
4
3.000.000.000.000.000 Byte. Wir kommen zu folgender
Rechnung:
http://norwied.wordpress.com/2011/07/17/was-ist-
3.000.000.000.000.000 Byte / 4.000 Byte pro Seite =
750.000.000.000 Seiten Papier
Was Walmart mit diesen Daten unter anderem anstellt bzw.
anstellen kann, soll nachfolgendes Beispiel verdeutlichen,
das aus dem Buch „Big Data“ von Viktor MayerSchönberger und Kenneth Cukier stammt:
Walmart erfasst sämtliche Kaufvorgänge aller Kunden um
Vorhersagen bzw. entsprechenden Ableitungen treffen zu
können. Anhand dieser erfassten Kaufvorgänge konnte
Walmart ableiten, dass bei einer Hurrikan-Warnung in den
Walmart-Läden des jeweiligen Hurrikan-Zielgebietes die
750.000.000.000 Seiten / 100 Seiten pro 1 cm =
7.500.000.000 cm / 100 = 75.000.000 m / 1.000 =
75.000 km
Dieser Papierstapel aus Walmart Kundeninformationen
würde knapp 12 mal um den Erdäquator verlaufen, bei
6.370 km Erdumfang. (Beispiel in Anlehnung an:
eigentlich-ein-petabyte/)
Quelle: WalmartLabs
Nachfrage nach Kellog´s Pop-Tarts signifikant steigt.
Daraufhin wurden die Store-Manager von Walmart
informiert, dass während der Hurrikansaison die Kellog´s
Pop-Tarts im Eingangsbereich platziert werden sollten. Das
Ergebnis war ein enormer „Boost“ der Abverkaufszahlen für
dieses Produkt, den man ohne entsprechende Datenanalyse
sicherlich kaum realisieren hätte können, da eine Korrelation
zwischen Hurrikanen und bestimmten Frühstückssnacks
nicht gerade offensichtlich ist.
TechDivision GmbH
Big Data – Vorsprung durch Wissen
Inzwischen betreibt Walmart genau für solche Zwecke auch
eine umfassende Online-Marketing-Plattform, in der die
Datenströme unterschiedlichster Kanäle zusammenlaufen
und entsprechend analysiert werden.
Durch komplexe Algorithmen, semantische Analysen,
maschinelles Lernen und automatische Skalierung
ermöglicht die WalmartLabs Plattform folgendes:
5
Analyse von 100 Millionen Keywords hinsichtlich TrafficVolumen, Synonymen, relevanten Keywords, Wert und
Qualität des Keywords, Keywords mit dem optimalen
Produktbezug sowie Kategorisierung von Keywords.
Aktives Bidding für jedes Keyword mittels API mehrmals
täglich
Analyse des Userverhaltens während des Kaufvorganges
um optimale Produktempfehlungen abgegeben zu
können.
Durchführung paralleler Test um neue Datenmodelle
prüfen zu können
Big-Data wird zu
Open-Data
Zukünftig möchte Walmart seine Big-Data Tools Open
Source zur Verfügung stellen. Durch die Entwicklung
mehrerer Tools zur Migration von Big Data plant Walmart
von 10 unterschiedlichen Datenquellen auf eine zu
reduzieren und von einem testweiten 10-node Hadoop
Cluster auf einen 250-node Hadoop Cluster umzusteigen.
"Apache Hadoop ist ein freies, in Java geschriebenes
Framework für skalierbare, verteilt arbeitende Software. Es
basiert auf dem bekannten MapReduce-Algorithmus von
Google Inc. sowie auf Vorschlägen des Google-Dateisystems
und ermöglicht es, intensive Rechenprozesse mit großen
Datenmengen (Big Data, Petabyte-Bereich) auf
Computerclustern durchzuführen. Hadoop wurde
ursprünglich durch den Lucene-Erfinder Doug Cutting
initiiert. Am 23. Januar 2008 wurde es zum Top-LevelProjekt der Apache Software Foundation. Nutzer sind unter
anderem Facebook, a9.com, AOL, Baidu, IBM, Imageshack
und Yahoo.
Das Hadoop Distributed File System (HDFS) ist ein
hochverfügbares, leistungsfähiges Dateisystem zur
Speicherung sehr großer Datenmengen auf den
Dateisystemen mehrerer Rechner (Knoten). Dateien werden
in Datenblöcke mit fixer Länge zerlegt und diese redundant
auf die teilnehmenden Knoten verteilt. HDFS verfolgt hierbei
TechDivision GmbH
Big Data – Vorsprung durch Wissen
einen Master-Slave-Ansatz. Ein Masterknoten, der so
genannte NameNode, bearbeitet eingehende
Datenanfragen, organisiert die Ablage von Dateien in den
Slaveknoten und speichert anfallende Metadaten. HDFS
unterstützt dabei Dateisysteme mit mehreren 100 Mio.
Dateien. Sowohl Dateiblocklänge als auch Redundanzgrad
sind konfigurierbar.
Hive erweitert Hadoop um Data-WarehouseFunktionalitäten, namentlich die Anfragesprache HiveQL und
Indizes. HiveQL ist eine auf SQL basierende Abfragesprache
und ermöglicht dem Entwickler somit die Verwendung einer
SQL-ähnlichen Syntax. Im Sommer 2008 stellte Facebook,
der ursprüngliche Entwickler von Hive, das Projekt der
Open-Source-Gemeinde zur Verfügung. Die von Facebook
verwendete Hadoop-Datenbank gehört mit etwas mehr als
100 Petabyte (Stand: August 2012) zu den größten der
Welt.
HBase ist eine skalierbare, einfache Datenbank zur
Verwaltung sehr großer Datenmengen innerhalb eines
Hadoop-Clusters. Die HBase-Datenbank basiert auf einer
freien Implementierung von Google BigTable. Diese
Datenstruktur ist für Daten geeignet, die selten verändert,
dafür aber sehr häufig ergänzt werden. Mit HBase lassen
sich Milliarden von Zeilen verteilt und effizient verwalten."
Quelle: Wikipedia (http://de.wikipedia.org/wiki/
Apache_Hadoop)
Daten werden die
Markenkommunikation
revolutionieren
Gemäß einer Online-Befragung durch die Agentur Interone
im Februar/März 2013, bei der insgesamt 400 Marketer aus
Unternehmen sowie Agentur-Insider teilgenommen haben,
sind 65% der Befragten der Meinung, dass die Bedeutung
von Daten für die Markenkommunikation stark zunehmen
wird.
„Vor allem drei Datenquellen ermöglichen kontextsensitives
Marketing:
6
Konsumenten vermessen digital ihr Leben, um sich
selbst
zu optimieren (Quantified Self)
Unternehmen sind in der Lage, große Datenmengen in
der Lage, ihre Kunden besser kennenzulernen und
individueller anzusprechen. Sie können Kanäle und
Touchpoints wirksamer und virtuoser orchestrieren.
Kampagnen lassen sich durch Daten kreativ anreichern und
aktueller halten. Inhalte werden relevanter und
resonanzfähiger, neue Ideen für Kommunikation entstehen.“
kürzester
Zeit zu analysieren (Big Data)
Daten werden öffentlich und über Schnittstellen
verfügbar gemacht (Open Data).
„Big Context“ entsteht durch eine Schnittmenge dieser
Datenquellen. Mit „Big Context“ wird die
Markenkommunikation effektiver, individueller und
involvierender. Marken sind durch die neuen Datenquellen in
(Quelle: „Big Context“ - http://bigcontext.interone.de/)
Die Befragung förderte zudem einige weitere, recht
interessante Informationen zu Tage:
34% der Befragten können noch nichts mit Big Data
anfangen
39% wissen nicht was Open Data ist
Abb.: Zusammenhang von „Big Context“ - http://bigcontext.interone.de/
TechDivision GmbH
Big Data – Vorsprung durch Wissen
7
50% haben bisher noch nichts von Quantified Self
gehört
Nur 13% sehen heute schon die Zukunft: Daten für neue
Produkte oder Services zu nutzen
20% versprechen sich davon vorrangig effizienter zu
kommunizieren
28% sehen den größten Nutzen in einem besseren
Verständnis der Zielgruppe
Absichten und Ziele sind. Daraus ergeben sich zentrale
Erfolgskriterien, Hypothesen und Anforderungen.
2.
Klein anfangen, statt groß denken
Identifizieren Sie überschaubare Bereiche, in denen Sie
ohne großes Risiko mit kleinem Budget mit „Big Context“
experimentieren können. Ist Ihr Experiment erfolgreich,
können Sie darüber sprechen und Ihre Aktivitäten
ausweiten. Scheitert es, haben Sie nichts verloren.
38% sehen in der fehlenden Transparenz, welche Daten
vorhanden sind, die wichtigste Hürde
3.
Holen Sie sich Hilfe
37% halten eine fehlende Kultur im Umgang mit Daten
für die zentrale Barriere
9% sehen rechtliche Probleme
Big Data wird zukünftig ein zentrales Element bei der
Steuerung von Unternehmen darstellen. Jedoch muss bei
der Einführung sowie der Nutzung auf ein paar ganze
wesentliche Parameter geachtet werden, die aus der absolut
empfehlenswerten Interone-Studie „Big Context“ stammen:
1.
Wissen, was man wissen will
Wer Neuland betreten will, geht Risiken ein. Umso wichtiger
ist es sicherzustellen, dass der erste Schritt erfolgreich ist.
„Big Context“ schafft vielfältige neue Möglichkeiten. Um sich
nicht zu verlieren, sollten Sie zuerst identifizieren, was Ihre
„Big Context“ betritt zentrale Aspekte Ihres Unternehmens.
Mittelfristig werden Marketer größere Daten-Kompetenzen
aufbauen müssen. Gerade am Anfang ist es jedoch wichtig,
den Stein ins Rollen zu bringen. Dafür ist externe Expertise
hilfreich.
4.
Experimentieren Sie
Sie wollen mit „Big Context“ neue Wege gehen?
Experimentieren Sie, formulieren Sie Hypothesen, und
stellen Sie neue Fragen. Reduzieren Sie lieber die Zahl der
Datensätze, als zu komplex zu werden. Häufig übersieht
man bei Experimenten, dass man gerade eine wichtige
Entdeckung gemacht hat. Viele der größten Innovationen
sind zufällig entstanden.
Quelle: Quelle: IDC, Oktober 2012 (n= 254, Angaben in Prozent)
TechDivision GmbH
Big Data – Vorsprung durch Wissen
8
Quelle: Quelle: IDC, Oktober 2012 (n= 254, Angaben in Prozent)
5.
Bieten Sie bessere Erlebnisse und Emotionen
Stellen Sie sicher, dass Ihre „Big Context“ Aktivitäten nicht
zu technisch werden, sondern Ihren Kunden Mehrwerte in
Form von höherer Relevanz, weniger Störung, neuer
Services, besserer Kundenerlebnisse etc. bieten. Menschen
wollen auch weiter emotional berührt werden und sich an
guten Geschichten und Ideen erfreuen. Daten können
hierbei unterstützen
Quelle: Interone-Studie „Big Context“ http://bigcontext.interone.de/
Interessant sind hier auch die Ergebnisse einer im Oktober
2012 durchgeführten Studie von IDC zum Thema Big Data.
Auf die Frage „Worin liegt Ihrer Meinung nach das Potenzial
von Big-Data-Technologie auf Business-Ebene?“ kamen
folgenden Antworten zustande:
Und die Frage „Welche Geschäftsbereiche können den
höchsten Business-Nutzen aus Big Data ziehen und welche
Themen sind für Sie relevant?“ wurde wie folgt beantwortet:
TechDivision GmbH
Big Data – Vorsprung durch Wissen
Insofern wird Big Data gerade im Hinblick auf die
Kostenoptimierung aber auch zur allgemeinen
Unternehmenssteuerung zukünftig in vielen Fällen nicht
mehr wegzudenken sein.
Fazit
Das Thema Big Data ist sicherlich kein Hype-Thema mehr,
sondern absolute Realität, die aktuell vielleicht noch nicht in
allen Bereichen angekommen ist bzw. häufig noch in den
Kinderschuhen steckt, aufgrund der immer weiter
steigenden Datenmengen aber zukünftig selbst vor
„Lieschen Müller“ nicht halt machen wird. Dabei wird sich
das Wachstum der Datenmengen insbesondere durch
Mobile Web und deren Nutzung sowie das Social Web
zukünftig noch weiter beschleunigen. Daten werden
zukünftig mehr und mehr zum Produkt!
9
Da Daten häufig sehr politisch sind, sollte das Thema Big
Data zur Chefsache erklärt bzw. vom Chef nachhaltig
überwacht und mitgetragen werden. Dabei wird der
Wettbewerbsvorteil zukünftig nicht durch die Existenz bzw.
die Generierung von Datenbergen, sondern vielmehr durch
deren intelligente Verknüpfung entstehen. So hat Barack
Obama – jetzt sind wir wirklich in der Politik – die beiden
Wahlen zu einem nicht unerheblichen Teil über gezieltes
Micro-Targeting gewonnen, indem rund 10 Terabyte an
Rohdaten aus Webanalyse, Social Media, Apps,
Soziodemographie, Medienplänen und -analysen,
Anzeigenpreisen etc. von 100 Analysten ausgewertet
wurden, um „Unentschlossene“ und „Bekehrbare“ in den
Swing-States zu identifizieren und gezielt anzusprechen.
(Quelle: Interone-Studie „Big-Data)
In diesem Zusammenhang wird zukünftig auch ein neues
Berufsbild Einzug in viele Unternehmen halten – der DataScientist. „Hilary Mason, Chief Data Scientist bei bit.ly und
Meister dieser neuen Disziplin, hat Data Science einmal als
Schnittstellenkompetenz beschrieben. Data Science liegt da,
wo Computerwissenschaften, Statistik und Mathematik,
Ingenieurskunst und „Hacking“, der neugierige, kreative
Umgang mit Computern, Software und Algorithmen,
zusammentreffen. Data Science ist ein multidisziplinärer
Raum, in dem neue Ideen und Lösungen entstehen. Hilary
Mason nennt die Menschen die diesen Raum bewohnen,
„awesome nerds“.“ (Quelle: http://www.computerwoche.de/
a/wo-wissenschaft-und-business-it-zusammentreffen,
Abschließen möchte ich mit einem Zitat von Florian
Resinger, Head of Online Communication & Web Marketing
bei BMW, der ebenfalls in der Interone-Studie auf die Frage,
worauf Marketer achten sollten, sofern sie erste Schritte in
die neue Datenwelt gehen möchten, folgendes geantwortet
hat:
„Die Kunst besteht nicht darin, Daten zu generieren,
sondern handlungsrelevante Informationen zu erhalten.
Angesichts der Fülle an Möglichkeiten muss man mehr denn
je wissen, was man will, was man sucht und über welche
Daten man bereits verfügt. Zudem sind Daten auch mit
Vorsicht zu genießen. Häufig werden einmalig bestimmte
Kennzahlen festgelegt und nicht wieder hinterfragt. Daten
werden dann zu Automatismen und entwickeln eine
Eigendynamik.“
Dem ist eigentlich nichts mehr hinzuzufügen.
2527192#)
TechDivision GmbH
Big Data – Vorsprung durch Wissen
10
Big Data –
Modebegriff oder Trend
Interview mit Dr. Michael May, Fraunhofer Institut IAIS
Im letzten Jahr wurden weltweit 1,8 Zettabyte (1,8 x 1021 Byte) an Daten generiert. Glaubt man
Expertenprognosen, so wird sich das Datenvolumen alle zwei Jahre verdoppeln. Das Potential von Big Data ist
groß. Durch die automatische Erfassung von Daten, den Siegeszug von Smartphones und die Durchdringung
aller Lebensbereiche durch Social Media wird das Datenangebot in Zukunft immer größer werden. Wir haben
Dr. Michael May, den Big Data-Experten des Fraunhofer Instituts, interviewt, der uns über Potentiale,
Möglichkeiten für Unternehmen und neue Herausforderungen durch Big Data aufklärte.
Personen und Prozesse generieren weltweit immer mehr
neue Daten und lassen das Datenvolumen stetig wachsen:
350 Billionen Meter Dokumente, 5 Millionen
abgeschlossene Transaktionen pro Sekunde, 500 Millionen
Online-Verbindungen. Daten aus Simulationen,
Modellberechnungen, Social Media, etc. – die Datenflut wird
immer größer. In diesem Zusammenhang liefern auch
Facebook-Nutzer mit Kommentaren und „Likes“ wichtige
Informationen, die Marktrends vorgeben. Ein anderes
Beispiel sind Konsumenten, die ihren Verbrauch über
intelligente Stromsysteme managen. IT-Systeme werden von
den Datenlawinen regelrecht überrollt und sind mit der
Auswertung meist überfordert.
Experten-Info:
Dr. May leitet seit 1998 die Abteilung Knowledge
Discovery am Fraunhofer IAIS, die sich mit den Themen
Data Mining, Maschinelles Lernen und Big Data befasst.
Er leitet derzeit eine Anzahl von Big Data Projekten in
Forschung und Wirtschaft und war für die vom deutschen
Wirtschaftsministerium geförderte „Potentialanalyse Big
Data in Deutschland“ verantwortlich. Seine
Forschungsschwerpunkte sind derzeit die Data-MiningAnalyse von verteilten Data Streams sowie die Analyse von
Telekommunikations- und Mobilitätsdaten.
Welche Produkte kauft der Verbraucher von morgen?
Welche Dienstleitungen und Services sind bei Zielgruppen
gefragt und werden aktuell diskutiert? Und welche Trends
kommen zukünftig auf uns zu? Big Data könnte diese
Fragen beantworten. Doch ist das Thema mittlerweile auch
bei deutschen Unternehmen angekommen und wird es
hinreichend wahrgenommen? Oder ist das Thema nur ein
Hype, der in naher Zukunft wieder abflauen wird? Dr.
Michael May vom Fraunhofer Institut stellte sich unseren
Fragen in einem Interview.
TechDivision GmbH
Big Data – Vorsprung durch Wissen
11
Interview mit
Dr. Michael May
TechDivision: Big Data – Modebegriff oder Trend?
Ganz klar: Beides.
TechDivision: Ab welcher Größenordnung spricht man
von Big-Data? Gibt es heutzutage überhaupt noch
„Small Data“?
Wenn man von Big Data spricht, denkt man normalerweise
an Datenmengen in den Größenordnungen von vielen Tera-,
Peta- oder sogar Exabyte. Allerdings ist die Datenmenge
(englisch: Volume) nur eines der drei kennzeichnenden
Merkmale von Big Data. Die beiden anderen sind die
Geschwindigkeit der Datenverarbeitung (Velocity) und die
Vielfalt und Heterogenität (Variety) der Datenquellen. Zudem
ist die Komplexität der Analyse ein zentrales Kriterium. Was
für die eine Analyse, z. B. ein Text-Mining-Verfahren zur
Sentiment-Erkennung, „Big Data“ ist, mag für das andere, z.
B. eine simple Summenbildung nach Regionen, „Small
Data“ sein.
TechDivision: Warum denken Sie ist der Hype um „Big
Data“ jetzt so groß?
Der erste Grund ist die Verfügbarkeit immer größerer
Datenmengen im Internet, aus Smartphones, aber auch in
technischen Prozessen. Ein weiterer wichtiger Grund ist,
dass in den letzten Jahren Open-Source-Tools zur
Verarbeitung von Big Data breit verfügbar geworden sind, z.
B. Hadoop. Sie haben einen gewissen Reifegrad erreicht, so
dass sie für viele Unternehmen interessant werden. Und
natürlich haben Google, Facebook & Co. gezeigt, wie ganz
auf Big Data gebaute Geschäftsmodelle Unternehmen in
sehr kurzer Zeit sehr reich machen können. Das beflügelt
die Phantasie junger Start-Ups wie auch von
Industriegiganten überall in der Welt.
TechDivision: Welche Auswirkungen hat Big Data auf
Unternehmen?
TechDivision GmbH
Big Data – Vorsprung durch Wissen
Richtig verstanden ist Big Data in erster Linie kein
Technologiethema – obwohl es natürlich großen
technologischen Sachverstand braucht, um es umzusetzen.
Es geht darum, Entscheidungsprozesse in Unternehmen zu
verändern und zu automatisieren, indem man sie auf die
intelligente, sehr zeitnahe Auswertung von Daten stützt, die
im Geschäftsbetrieb anfallen. „Data Driven Enterprises“
heißt hier das Schlüsselwort. So verstanden können die
Auswirkungen auf die Unternehmen fundamental sein.
TechDivision: Welche Auswirkungen hat Big Data auf
unsere Gesellschaft?
Das beginnen wir gerade erst zu erahnen. Bei dieser Frage
kommen ja fast reflexartig Fragen des Datenschutzes hoch.
Aber man sollte darüber hinaus die positiven Aspekte, z. B.
die Aussicht auf neue datengetriebe Entwicklungen in der
Medizin, die Entwicklung energieeffizienterer Verfahren mit
den positiven Auswirkungen auf die Umwelt oder auch die
Chancen für eine validere Theorienbildung z. B. in der
Soziologie, nicht vergessen. Ansätze zu letzterem erleben
wir gerade in der Theorie sozialer Netzwerke, wo inzwischen
dank Facebook oder Twitter-Daten empirische Quellen
vorhanden sind, von denen man vor 15 Jahren nicht einmal
träumen konnte.
TechDivision: Bei Fraunhofer waren Sie maßgeblich an
der Studie „Potenzialanalyse Big Data in Deutschland“
beteiligt. Welche Hauptergebnisse konnten Sie
gewinnen?
Die Potenzialanalyse wurde vom
Bundeswirtschaftsministerium im Rahmen des TheseusProjektes gefördert. Wir haben existierende Business Cases
analysiert, Zukunftsworkshops in sechs verschiedenen
Branchen und eine Online-Befragung durchgeführt.
Zusammengefasst lässt sich sagen: Grundsätzlich ist das
Thema in Deutschland angekommen. Über viele Branchen
hinweg denken Unternehmen über den Einsatz von Big Data
nach. Innovationscenter und Big Data-Task Forces werden
überall ins Leben gerufen. Aber es existieren auch
Hemmnisse. Neben Problemen des Datenschutzes – ein in
dieser Ausprägung sehr deutsches Phänomen – ist
insbesondere die mangelnde Vertrautheit mit den neuen
Technologien ein Problem. Was gegenwärtig am meisten
benötigt wird, sind Orientierungshilfen wie erfolgreiche Use
12
Cases, Best Practices, Lösungsübersichten, aber auch
Trainingsmaßnahmen. Das Jahr 2013 wird hier sehr
spannend.
TechDivision: Welche Handlungsempfehlungen geben
Sie in Richtung Unternehmen?
Jetzt mit Big Data zu beginnen und zu prüfen, wo für das
eigene Unternehmen der Mehrwert und die neuen
Geschäftsmodelle liegen. Technologisches Know-How
aufbauen. Über wahrgenommene Hemmnisse im
Datenschutz nicht nur klagen, sondern gegebenenfalls
prüfen, wie sich mit datenschutzkonformen Angeboten
speziell im deutschen Markt Wettbewerbsvorteile erzielen
lassen.
TechDivision: „Big Data“ in der Praxis – können Sie uns
Beispiele nennen?
TechDivision: Warum ist es wichtig Personal in diesem
Bereich auszubilden?
Mangelnde Expertise wurde in unserer Potenzialanalyse als
eines der Haupthemmnisse identifiziert. Ausgebildetes
Personal ist gegenwärtig am Markt nicht in ausreichendem
Umfang verfügbar. Die neuen Technologien unterscheiden
sich oft grundsätzlich von bisherigen Paradigmen z. B. im
Bereich der Business Intelligence. Um identifizierte Chancen
für das Geschäft wirklich nutzen zu können, ist es deshalb
entscheidend, über geeignet qualifiziertes Personal zu
verfügen. Neben der rein technischen Expertise ist es dabei
wesentlich, eine Generation von Informatikern und
Statistikern heranzuziehen, die in der Lage ist, technischmathematische Konzepte in Anwendungslösungen zu
übersetzen. Das neue Berufsbild, das hierfür gebraucht
wird, nennt sich „Data Scientist“. Am Fraunhofer IAIS bieten
wir z. B. Schulungen an, um Mitarbeiter in
Unternehmen gezielt in dieser Richtung zu
qualifizieren.
TechDivision: Gibt es inzwischen StandardTools bzw. -Software für den Umgang mit
Big-Data oder ist das Ganze zu individuell
und speziell für Standardisierung?
TechDivision GmbH
Der Markt ist noch zu sehr im Fluss, als dass man eine
baldige Standardisierung erwarten könnte. Das Angebot an
Open-Source- und kommerziellen Lösungen ist inzwischen
nahezu unüberschaubar. Neben wirklich neuen und
innovativen Lösungen erhält so manches lange verfügbare
Produkt auch einen eiligen „Big Data-Anstrich“, wodurch die
Landschaft noch unübersichtlicher wird. Auf lange Sicht
wird es aber zu einer Konsolidierung kommen.
Der Finanzbereich profitiert beispielsweise von Big DataTechnologie bei der automatischen Betrugserkennung in
Kreditkartentransaktionen. Mit neuen sogenannten „InMemory“-Technologien ist es möglich, die riesigen
Datenvolumina effizient und automatisiert nach neu
auftauchenden Betrugsmustern zu durchsuchen. Eine
entsprechende, vom Fraunhofer IAIS entwickelte,
Technologie ist bereits bei Banken im Einsatz. Im Bereich
der Social Media-Analyse haben wir eine Software
entwickelt, welche mit intelligentem Text-Mining die vielen
Millionen Postings eines Forums von Automobilnutzern
analysiert und daraus Emotionen zu Automarken extrahiert.
Nützlich ist das beispielsweise für Automobilhersteller zum
Trendmonitoring. Und im öffentlichen Bereich entwickeln wir
in einem Forschungsprojekt zusammen mit
Anwendungspartnern gegenwärtig Werkzeuge, die TwitterNachrichten und andere Social Media-Daten mit
intelligenten Text-Mining-Verfahren in Echtzeit analysieren,
um sich frühzeitig ein Lagebild von einer Katastrophe
machen zu können.
Fazit
Die größte Herausforderung von Big Data ist es, relevante Daten für
eine effizientere Geschäftsstrategie zu erkennen. Meist ist es jedoch
komplex, Informationen aus unübersichtlichen Datensammlungen
herauszufiltern. Unternehmen stehen so zukünftig vor
wettbewerbskritischen Herausforderungen.
Big Data – Vorsprung durch Wissen
13
Big Data – Vorsprung
durch Wissen
Mit neuen Technologien zum datengestützten „Tante-Emma-Laden“
Hendrik Stange, Fraunhofer Institut IAIS
Noch nie standen die Chancen besser, um als Unternehmen oder Kunde auf vielfältige Weise von der
„Datenexplosion“ zu profitieren. „Tante Emmas“ Erben haben gelernt, dass es nicht nur auf eine effiziente
Wertschöpfung ankommt, sondern dass man auch im E-Commerce-Zeitalter ein offenes Ohr für die Bedürfnisse
der Kunden braucht. Der entscheidende Unterschied: Waren es früher wenige hundert Kunden, sind es heute
Millionen Stimmen, die tagtäglich direkt oder indirekt mit den Unternehmen kommunizieren. Zusammen mit den
innerbetrieblichen Daten aus den Wertschöpfungsprozessen liefert dies die Ausgangsbasis für innovative
Veränderungen, wie intelligente Produkte, individualisierte Angebote und effizient ausgerichtete Prozesse.
Jeder ging gern zu ihr in den Laden, denn „Tante Emma“
kannte ihre Kunden genau. Seit damals hat sich viel
verändert, doch dieses natürliche Gespür und
Fingerspitzengefühl für die Bedürfnisse und Interessen
wollen Handelsunternehmen für ihre Kunden auch im
Internet abbilden. Denn kaum eine Branche ist stärker
darauf angewiesen, ihre Kunden besser zu verstehen und
ihre Dienstleistungen sowie Angebote auf die jeweiligen
Kundenbedürfnisse auszurichten, als der E-Commerce. Dies
ist ein Grund, weshalb der IT-Branchenverband BITKOM den
E-Commerce in einer Vorreiterrolle beim Einsatz von BigData-Technologien in Deutschland sieht.
In Big Data steckt die Kraft innovativer Veränderung für
einen besseren Kundenservice, individuellere Angebote und
effizientere Prozesse in einem dynamischeren Marktumfeld.
Den Wissensvorsprung, um den Markt zu gestalten,
generieren die Unternehmen nicht mehr nur aus einzelnen
Datenbeständen und manuellen Auswertungen. Vielmehr
steckt das Potenzial in der automatisierten Echtzeit-Analyse
verknüpfter Daten aus verschiedenen Quellen über die
Grenzen eines Unternehmens hinweg.
TechDivision GmbH
Big Data – Vorsprung durch Wissen
Ein Meilenstein für die datengetriebene Entwicklung ist die
Vernetzung unseres Alltages. Smartphones, Tablets und
zukünftig sogar Datenbrillen lassen die Grenzen zwischen
digitaler und physischer Einkaufswelt verschwinden.
Gleichzeitig erzeugen sie zusammen mit den klassischen
Datenquellen entlang der Wertschöpfungsprozesse einen
multidimensionalen Datenpool.
Darin liegen wegweisende Herausforderungen für
Unternehmen. So sehen wir beispielsweise eine
zunehmende Emanzipation des Kunden, der sich fragt:
„Wirklich (m)ein Angebot oder doch nur (t)eure Restposten?“
Der vernetzte Kunde validiert, evaluiert und vergleicht, und
wird dabei zunehmend von Sensoren und Apps unterstützt.
In der Folge wandeln sich seine Erwartungen und sein
Verhalten und es steigen die Anforderungen an
Unternehmen, ihre Angebote an den individuellen
Bedürfnissen ihrer Kunden auszurichten. Dafür müssen die
Unternehmen in den massiven Datenströmen lesen und die
Daten vor allem im Kontext verstehen können. So hat Google
gerade erst seinen Nutzeranalysedienst Universal Analytics
als Nachfolger von Google Analytics lanciert und trägt dem
14
veränderten Nutzerverhalten durch ein geräteübergreifendes
Tracking Rechnung.
Big Data – groß,
unterschiedlich, rasant
Insgesamt steht das Phänomen Big Data heute erst am
Anfang. Weltweit gehen die Schätzungen weit auseinander,
wie tief der „Datenozean“ ist und wie schnell er sich weiter
füllt. Unterm Strich wird man sich schnell einig, dass es so
viele Daten sind, dass traditionelle Analysewerkzeuge an
ihre Grenzen stoßen. Dabei sind es nicht nur die
Datenvolumen allein, die Big Data ausmachen.
Kennzeichnend für Big Data sind im Kern drei
Eigenschaften, die auch als „3 V’s“ bezeichnet werden:
Volume, Variety, Velocity. Volume steht für die große Menge
der zu analysierenden Daten; Variety für deren
Verschiedenartigkeit in Bezug auf Datentyp und Ursprung.
Velocity beschreibt die hohe Geschwindigkeit der
Datengenerierung und damit auch wie groß der Datenstrom
ist, den es in Echtzeit zu analysieren gilt. Wobei man sich
nicht einzelne Dateninseln wie etwa aus dem Kundenservice
oder Warensystem ansieht, sondern möglichst alle
relevanten Daten ganzheitlich betrachtet und analysiert. Das
Potenzial von Big Data entfaltet sich somit erst durch die
Verknüpfung der Datenbestände über Grenzen hinweg.
Big-Data-Anwendungen
In diesen Datenozeanen liegen wahre Schätze. So erklären
es Big-Data-Experten und verweisen auf erfolgreiche
Geschäftsanwendungen. Dabei sind es nicht mehr nur die
Namen der Big 5 der Internetbranche – Yahoo, Google,
Amazon, Facebook, Twitter – die genannt werden. Es sind
Banken, Versicherungen, Pharmaunternehmen,
Telekommunikations- und Industrieunternehmen, die BigData-Anwendungen aktiv für ihr Geschäft nutzen.
Wissenschaftler des Fraunhofer-Instituts für Intelligente
Analyse- und Informationssysteme IAIS haben weltweit 50
Big Data Anwendungen systematisch aufbereitet und dabei
charakteristische Unternehmensbereiche je nach Branche
identifiziert (siehe Abb. 1). Für den Handel zeigt sich der
Schwerpunkt im Bereich „Marketing, Vertrieb und
Kundenbetreuung“. Unternehmen starten mit ersten BigData-Anwendungen im Bereich der Absatzprognose, des
Marktmonitoring oder Kundenfeedbackanalyse.
Abb. 1: Anwendungen für Big Data je nach Branche und Unternehmensbereich (n=50, Quelle: Fraunhofer IAIS)
TechDivision GmbH
Big Data – Vorsprung durch Wissen
15
Wegbereiter wie Google, Yahoo oder Amazon zeigen,
welcher Mehrwert in Big Data auch für den E-Commerce
steckt. Wer sich anschaut, wie Google die verschiedensten
Facetten des Internets in Millisekunden durchforstet oder
das Nutzungsverhalten zu nutzerzentrierten Landkarten
verdichtet, will auch selbst von derartigen Techniken
profitieren, um die eigenen Daten zu analysieren und visuell
zu explorieren.
eCom-Roadmap Big Data
Wo der Mehrwert für E-Commerce und für den
Versandhandel liegt und welche Herausforderungen und
Probleme gesehen werden, wurde von Branchenvertretern
und Teilnehmern eines Zukunftsworkshops Big Data am
Fraunhofer IAIS diskutiert. Das Ergebnis wurde aufbereitet,
gebündelt und zu einer branchenspezifischen Roadmap
speziell für den Online- und Versandhandel verdichtet.
Die Möglichkeiten, Big Data im E-Commerce zu nutzen, sind
ähnlich vielfältig wie der Variety-Aspekt bei Big Data. So
wünschen sich Entscheider ganzheitliche Lagebilder zur
aktuellen Geschäftslage mit allen Einflussfaktoren und
Abhängigkeiten, ergänzt um Trendprognosen und
Konsummuster vieler Millionen Menschen.
Der gleichzeitige Blick auf Wettbewerb, Warenbestände,
Bestellungen, Kunden und soziale Trends ist für die ECommerce-Branche von großer Bedeutung. Die
Unternehmen versprechen sich gesteigerte
Reaktionsfähigkeit und datengestützte Entscheidungen mit
Weitblick. Kurzfristig unterstützen sollen u. a. EchtzeitMonitoring über die Verfügbarkeit bestimmter Artikel bei
verschiedenen Händlern. Auch der Bereich SaaS/
Outsourcing und Kernkompetenzorientierung bleiben
diskutierte Themen. Langfristig führt die rasante Vernetzung
und Dynamisierung der Prozesse dazu, dass
selbstoptimierende Verfahren nicht nur bei der
Prozesssteuerung und Qualitätssicherung entscheidend
mitwirken, sondern auch im Bereich Sicherheit und
Kundenservice.
Insbesondere im Kundendialog entstehen viele
unstrukturierte Daten. So ist in den E-Mail-Rückfragen,
Supportanfragen oder Beschwerden wie auch in den
sozialen Medien, Blogs und Produkttests wertvolles
Feedback zu den eigenen Angeboten und der
Unternehmenswahrnehmung kodiert. Wozu Big Data im
Stande ist, zeigt das Fraunhofer IAIS mit seiner EmotionsMonitoring-Infrastruktur (siehe Abb. 2)
Mit intelligenten Verfahren aus dem Technologiestack
„Smart Semantics“ können Emotionen zu verschiedenen
Produkten bzw. Produkteigenschaften identifiziert werden.
Dafür wurden im genannten Anwendungsfall über 30
Millionen Postings eines Community-Forums in kurzer Zeit
ausgewertet. Wobei nicht einfach auf positiv oder negativ
aufgeladene Worte geachtet, sondern der komplexe
Sinnzusammenhang jedes Nutzerbeitrages beachtet wurde.
Mit entsprechender Visualisierung ist das Resultat für jeden
anschaulich nutzbar.
Damit sind die Stimmungen und Meinungen der Kunden
nicht nur für den Kundenservice, die Produktentwicklung
oder das Qualitätsmanagement verwendbar. Auch das
Online-Marketing profitiert vom Monitoren der
Stimmungslage. Insbesondere im Online-Marketing sehen
Branchenvertreter gegenwärtig den individualisierten
Transport von Markenkern-Botschaften im Fokus. Am Ende
steht ein „Social Context Aware Advertising“, das dezent
begleitet und vor allem punktgenau ins Bewusstsein des
Konsumenten rückt.
Abb. 2: Engineering Emotions mit Smart Semantics auf Big Social Data
TechDivision GmbH
Big Data – Vorsprung durch Wissen
16
Über den Erfolg entscheidet am Ende, wer weiterhin
verkauft. So werden die Produktpräsentationen in OnlineShops zunehmend komplexer und beziehen den
Konsumenten mit ein. Die Möglichkeit, ein Foto des Kunden
einzufügen, um „anzuprobieren“, die neue Schrankwand
virtuell schon im eigenen Zimmer zu bewundern oder die
Information zum Wein im Brillenglas zu lesen – dieses
„Augmented Shopping“ erfordert Werkzeuge für das
Verarbeiten und Auswerten großer Datenmengen in Echtzeit.
Grundlage der ersten Erkenntnisse ist das weitere Vorgehen
zu strukturieren und messbare Erfolgskriterien für die
Fortführung des Dachprojektes zu bestimmen. Am Ende
wird Big Data Excellence erreicht, wenn ein kontinuierlicher,
datengestützter Verbesserungsprozess in der
Wertschöpfung etabliert ist.
Infobox: Best Practice:
Roadmap Big Data
Eine Vielzahl verschiedener Big-Data-Werkzeuge und Technologien steht bereit, die alle auf den
Wissensvorsprung in Echtzeit abzielen.
Big Data Excellence erreichen Unternehmen in der Praxis
über ein agiles, iteratives Vorgehen. Das Fundament bildet
das Wissen um Big Data und eine unternehmenseigene BigData-Strategie. Aus der strategischen Bedeutung heraus
ergibt sich die Notwendigkeit der Unterstützung durch das
Management. Für eine zentrale Fragestellung kann eine
vorgelagerte Pilotstudie erste Antworten liefern und Risiken,
Mehrwerte und Kosten besser abschätzen lassen. Über die
Definition konkreter Use Cases erarbeitet ein
interdisziplinäres Projektteam einen Proof-of-Concept. Auf
TechDivision GmbH
Big Data – Vorsprung durch Wissen
Big-Data-Werkzeuge
Smart Semantics ist ein Technologiebündel, um Social Data
zu analysieren. Es kombiniert statistische und linguistische
Verfahren, um Inhalte, Meinungen und implizite
Beziehungen in geschriebenen Aussagen aufzudecken. Ein
Anwendungsbeispiel ist die Verbindung von
Kundenfrustration mit CRM und Qualitätsmanagement.
Mobile Analytics erschließt das Verhalten der Nutzer und
liefert Customer Insights. Eingesetzt werden Methoden zur
Mustererkennung, regelbasierten Beschreibung von
Verhaltensweisen oder Besucherstromanalysen. Die
Außenwerbung nutzt Mobile Analytics.
17
Abb. 3: Lambda-Architektur für Big Data (Quelle: Fraunhofer IAIS)
Visual Analytics setzt den Entscheider ans Steuer. Interaktive
Visualisierungstechniken zur Darstellung komplexer
Resultate und Echtzeit-Dashboards werden kombiniert mit
Ad-hoc-Analysefunktionalität (z. B. Clustering).
Den Grundstein für Big Data Analytics legt eine flexible und
skalierbare Architektur. Beispiele wie die LambdaArchitektur von Nathan Marz (siehe Abb. 3) kombinieren die
schnelle Analyse einkommender Daten mit komplexeren,
weniger zeitkritischen Analysen im Batch. Wie die
Architektur mit Softwareprodukten – gleich ob
kostengünstige Open-Source oder kommerzielle Lösungen –
instanziiert wird, hängt vom konkreten Setting ab.
Dies birgt allerdings auch Gefahren. Alle Entscheidungen im
Kontext von Big Data setzen ein umfassendes Verständnis
der Konzepte und Technologien voraus. Nicht jede – wenn
auch frei nutzbare – Lösung ist für den jeweiligen Zweck
geeignet. Es überrascht nicht, dass erste Unternehmen
enttäuscht von ihren ersten Gehversuchen mit Big Data
zurückkehren. Laut einer Innovationspotenzialanalyse
(www.bigdata-studie.de) wünschen sich 95% der
Unternehmen gezielte Förderung in Form von Best
Practices und Trainings, gefolgt von Anbieter- und
Lösungsübersichten.
TechDivision GmbH
Big Data – Vorsprung durch Wissen
Data Scientists – die
Architekten von Big Data
Die Architekten des Erfolgs sind Data Scientists. Eine
Berufsgruppe mit Zukunft. US-Marktforscher Gartner schätzt
den Bedarf an Data Scientists weltweit auf über vier
Millionen. Schulungsangebote zum Data Scientist werden
deshalb zunehmend angeboten. Für den Einstieg in Big Data
ist es jedoch wichtig, erst einmal von Einzeltechnologien zu
abstrahieren und sich modular einzelnen Aspekten wie BigData-Architekturen, Big Data Analytics oder Visual Analytics
zu widmen. Anwendungsorientierte Angebote arbeiten direkt
in einem Living Lab Big Data, um Technologien und
Lösungsansätze anhand praktischer Anwendung
„anfassbar“ zu machen und Best Practices zu vermitteln.
Vertrauen in Daten
Weitere Hindernisse für den Einsatz von Big Data sieht jedes
zweite Unternehmen im Bereich Datenschutz &
Datensicherheit und dem Setzen der richtigen Prioritäten.
Dabei sind der Schutz der Privatsphäre und das Extrahieren
relevanter Informationen für individuelle Angebote längst
kein Widerspruch mehr. Viele Bedenken bei den Kunden
sind ursächlich meist auf negative Vorfälle oder fehlenden
Transparenz zurückzuführen. Offenheit im Umgang mit Big
18
Data und gleichzeitig ein striktes Umsetzen des „Privacy by
Design“-Konzeptes machen Datenschutz und
Informationssicherheit zum integralen Bestandteil jedes
Produktes oder Services. Aber auch die Politik ist gefordert,
die Rahmenbedingungen für einen modernen Datenschutz
zu schaffen.
Big Data bedeutet aber auch aktive Sicherheit für den
Kunden. Neue Fraud-Mining-Technologien erkennen
zuverlässig Betrugsversuche mit Informationen aus Big Data.
Der entscheidende Mehrwert entsteht durch die
Kombination verschiedener Daten und setzt auf die
komplexe Vernetzung der Fakten zu nachvollziehbaren
Entscheidungen, warum ein Vorgang als verdächtig
eingestuft wurde. Diese Vernetzung und der Einsatz
semantischer Verfahren bieten schon heute den
Wissensvorsprung in Bezug auf den Wahrheitsgehalt der
teils subjektiven oder fehlerhaften Daten.
Fazit
Mit Big Data können die Unternehmen auf einen
Technologiebaukasten und intelligente Analysewerkzeuge
zugreifen, die es ermöglichen, datengetriebene
Entscheidungen im übergeordneten Kontext zu treffen und
gleichzeitig mit Gespür für den jeweiligen Kunden und
dessen Situation überzeugende Angebote zu offerieren. Es
ist diese ganzheitliche Sicht, die den Wert von Big Data
ausmacht.
Mit der Verfügbarkeit von immer mehr Datenbeständen und
dem gezielten Erfassen neuer Daten wächst auch Big Data
mit seinen Aufgaben. Unternehmen können auf Best
Practices und umfangreiches Know-how zu Big Data
zugreifen. Die Technologien zur Verarbeitung und
Auswertung sind kostengünstig nutzbar und Daten können
in jeglicher Form verarbeitet werden. Alles zusammen bildet
die Basis für neuartige Wertschöpfungsmodelle – in jeder
Branche.
Big Data –
zwischen Urheberrecht
und Datenschutzrecht
Interview mit Dr. Clemens Wass, Rechtsexperte
Big Data steht nicht nur für große Datenmengen, sondern auch für unstrukturierte Informationen aus den
verschiedensten Bereichen. Daten werden in kürzester Zeit gesammelt, analysiert und ausgewertet. Je größer der
Datenberg wird, desto größer ist auch die Gefahr des Missbrauchs und Kontrollverlustes. Big Data Anwendungen
haben nicht nur großes Potential für die Wirtschaft, sondern können auch zur Lösung gesellschaftlicher Probleme
beitragen. Umfangreiche Daten-Analysen treffen jedoch nur dann auf die Akzeptanz der Verbraucher, wenn der
Datenschutz auf hohem Niveau gewährleistet ist. Wir haben uns mit dem Rechtsexperten Dr. Clemens Wass über
Big Data und die rechtlichen Rahmenbedingungen unterhalten – ein Experteninterview.
TechDivision GmbH
Big Data – Vorsprung durch Wissen
19
Big Data vs. Privatsphäre?
Im Zeitalter großer Datenberge lassen sich ziemlich präzise
Vorhersagen über die Eigenschaften von Facebook-Nutzern
machen. Egal, wie sehr Facebook die Daten seiner User
auch schützen mag, durch die Kombination aller
vorhandenen Daten können exakte Prognosen über einzelne
Nutzer gemacht werden – das behaupten zumindest viele
Daten-Wissenschaftler.
„Die meisten Menschen denken, aus ihren Facebook-Posts
lasse sich nichts Spannendes herauslesen. Aber das stimmt
nicht. Data-Wissenschaftler können mit diesen Daten sehr
wohl etwas anfangen. Indem sie Verbindungen zu ihren
Freunden mit berücksichtigen, lassen sich Eigenschaften
wie die Intelligenz oder ihre politische Einstellung mit einer
bemerkenswerten Präzision vorhersagen“, so der MITProfessor Erik Brynjolfsson.
Der entscheidende Punkt ist es, zwei Datenquellen
zusammenzuführen. Dann können anonymisierte Daten
Personen zugeordnet werden. Unternehmen nutzen diese
Kenntnisse bereits, indem sie Gutscheine aufs Handy
zusenden und dabei Informationen über Einkäufe im Netz
mit Smartphone-Daten zum Aufenthaltsort verschiedener
Personen miteinander verknüpfen. Laut Aussagen des
Daten-Wissenschaftlers Brynjolfsson gibt es bereits eine
Reihe von Start-Up Unternehmen, die sämtliche öffentliche
Informationen über Menschen sammeln und zu Profilen
zusammenfassen. Die Folge ist das Verschwinden von
Privatsphäre.
Bundesverbraucherministerin Ilse Aigner bezeichnete die
großen Datenmengen auf dem „Safer Internet Day 2013“
als „das Gold des digitalen Zeitalters“. In diesem
Zusammenhang sei es auch notwendig, klare Regeln und
Grenzen für die Datennutzung zu definieren. So müsse
gerade bei Big Data-Anwendungen der Datenschutz bereits
im Design berücksichtigt werden und die Selbstbestimmung
der Betroffenen gewahrt bleiben, indem Nutzer aktiv
einwilligen müssen. Dies würde vor allem dann gelten, wenn
Nutzerprofile gebildet werden, so Aigner. Eine
Massenauswertung ist nur bei effektiv anonymisierten Daten
gerechtfertigt. Laut Aigner reiche es hier nicht, nur Namen
zu löschen, denn Bewegungsdaten könnten auch einfach
ohne Namen oder Telefonnummer zugeordnet werden,
wenn beispielsweise jemand bestimmte Aufenthaltsorte
einer Person kennt.
TechDivision GmbH
Big Data – Vorsprung durch Wissen
BITKOM-Präsident Prof. Dieter Kempf ergänzte auf der
Veranstaltung „Safer Internet Day 2013“, dass durch die
fortschreitende Digitalisierung in den Bereichen Energie,
Gesundheit, Verkehr, Bildung und öffentliche Verwaltung
das Datenvolumen noch mehr wachsen wird: „Der Wert
digitaler Infrastrukturen liegt in der sinnvollen, kontrollierten
Nutzung von Daten zum Wohl des einzelnen Menschen
sowie der Gesellschaft insgesamt.“
Ilse Aigner fordert, eine EU-Datenschutz-Grundverordnung
zügig voran zu bringen und europaweit durchzusetzen, um
Verbraucher und Internetnutzer ausreichend schützen zu
können. Das Datenschutzrecht müsse endlich auch im
Informationszeitalter verankert werden – und das auf
europäischer Ebene. Angesichts immer perfekterer
Aufzeichnungs- und Analysetechniken sei eine breite
Debatte über den Datenschutz notwendig. So sei es jetzt
wichtig, den Rahmen für Datenschutz und Big Data
festzulegen, bevor es zu spät sei, erklärt Aigner.
Experten-Info:
Dr. Clemens Wass, MBL, MBA, ist ausgebildeter
Wirtschaftsjurist mit langjähriger Berufserfahrung in
internationalen Technologie-Unternehmen. Neben
verschiedenen innovativen rechtlichen Projekten ist Dr.
Wass Unternehmensberater (Schwerpunkt
Innovationsmanagement, geistiges Eigentum und Datenschutz) sowie externer Lektor an der
Wirtschaftsuniversität Wien am Institut für
Entrepreneurship & Innovation.
20
Interview mit
Dr. Clemens Wass
TechDivision: Welche rechtlichen Rahmenbedingungen
sind zu beachten, wenn mit Big Data gearbeitet wird? Big Data ist ein neuer Begriff, den die Rechtsordnung als
solchen nicht kennt. Wie bei vielen Trends wird über genaue
Definitionen in Fachkreisen noch diskutiert. Wenn wir Big
Data jedoch simplifiziert als eine große Anhäufung von
Datenmengen betrachten und uns überlegen, was man mit
Daten alles machen kann, wird schnell klar, dass weite
Bereiche der Rechtsordnung betroffen sein können.
Dennoch treten aus der Masse von anwendbaren Normen
sicherlich das Datenschutzrecht und das Urheberrecht
hervor. Die Situation ist im weitesten Sinn europaweit
vergleichbar, da hier eine gewisse Harmonisierung aufgrund
einschlägiger Richtlinien existiert. Selbstverständlich
kommen auch etliche verwaltungsrechtliche Vorschriften
oder auch das Wettbewerbsrecht hinzu. Viele Fragen sind
für Juristen komplett neu, so wie das Recht häufig der
Technologie zeitlich hinterherläuft. Oft wird erst die
Rechtsprechung bei der Auslegung der einzelnen Gesetze in
Bezug auf Big Data Gewissheit und Vertrauen schaffen.
Jedoch müssen sich Unternehmen dennoch so gut wie
irgendwie möglich mit den rechtlichen Aspekten der
Thematik auseinandersetzen, um kein unnötiges
wirtschaftliches oder rechtliches Risiko einzugehen und
auch um Kunden nicht zu verärgern. Es sind bereits einige
Unternehmen zu beobachten, die gerade das
publikumswirksame Thema Datenschutzrecht – bei dem es
schließlich um den Schutz der Privatsphäre eines jeden von
uns geht – gezielt auch zur Schaffung eines USPs und zu
Marketingzwecken einsetzen. Nämlich durch
datenschutzkonformen Umgang, der auch klar mitgeteilt
wird.
TechDivision: Dürfen Unternehmen und Entwickler
einfach große Datenmengen nach Lust und Laune
auswerten und verwenden? Auch hier ist zuallererst die Frage zu stellen, um welche
Daten es sich handelt. Sind es tatsächlich die eigenen Daten
TechDivision GmbH
Big Data – Vorsprung durch Wissen
eines Unternehmens und sind keine personenbezogenen
Daten betroffen, wird es weniger Probleme geben, als wenn
die Daten von Dritten stammen und private Informationen
über Menschen enthalten. Ich muss die Privatsphäre der
Betroffenen achten und ich darf auch aus urheberrechtlicher
Sicht nicht einfach die Datenbank eines anderen ohne
Genehmigung anzapfen, selbst wenn ich dies technisch
über Schnittstellen könnte. Die Versuchung ist
selbstverständlich groß, alle Daten zu verwenden und
auszuprobieren, was man damit machen kann. Die
Datenbestände erscheinen derzeit wie eine große Kiste mit
LEGO Bausteinen und Unternehmen und Entwickler
probieren einfach aus, welche innovativen Anwendungen
damit geschaffen werden können. Nach Lust und Laune
geht es allerdings sicher nicht, auch wenn es Spaß macht
und selbst wenn dabei Wert geschaffen wird. Unternehmen
müssen sich im Rahmen der Gesetze bewegen. So lästig
gewisse rechtliche Vorschriften auch mitunter erscheinen
mögen, letztlich können wir doch froh sein, dass diese uns
ein gewisses Schutzniveau bieten. Selbst in den USA, wo
gerade die Google Brille vorgestellt wird, und wo
Datenschutz typischerweise weniger Beachtung findet als in
Europa, wird der Ruf nach rechtlicher Klarheit laut.
Persönlich möchte ich nicht, dass mittels Google Brille und
Gesichtserkennung sofort jeder auf der Straße
beispielsweise meinen Beruf, meine Adresse, meine
Telefonnummer und meinen Freundeskreis etc. kennt – von
sensiblen personenbezogenen Daten, wie etwa Gesundheit,
ganz abgesehen.
TechDivision: Was geschieht, wenn personenbezogene
Daten betroffen sind oder wenn auf fremde
Datenbanken zugegriffen wird? Wenn personenbezogene Daten ins Spiel kommen, findet
das Datenschutzrecht Anwendung. Dies kann jedoch
unterschiedlich ausgestaltet sein, je nachdem wo der
Betreiber seinen Sitz hat und je nachdem welches nationale
Recht anwendbar ist. Grundsätzlich gilt im
Datenschutzrecht: Es ist unzulässig personenbezogene
Daten zu verarbeiten, außer wenn ich eine spezielle
Rechtfertigung dafür habe, wie etwa eine gesetzliche oder
eine vertragliche Ermächtigung. In Kundenbeziehungen ist
es daher so, dass der Nutzer der Verarbeitung ausdrücklich
zustimmen muss. Zudem kommt, dass der Grundsatz der
Sparsamkeit im Umgang mit Daten gilt. Es dürfen die Daten
21
wirklich nur für den Zweck verarbeitet werden, für den der
Nutzer diese zur Verfügung gestellt hat. Natürlich fragt man
sich bei der Taschenlampen-App, die man sich für sein
Smartphone heruntergeladen hat, dann schon, warum diese
auf die GPS Position zugreifen möchte. Vorteil hier ist, dass
Smartphones bei der Installation von Apps zumindest
teilweise darauf hinweisen, welche Daten übermittelt
werden, was immerhin ein Anfang ist.
Wenn ein Unternehmen oder auch ein privater ohne
Genehmigung, also ohne jegliche Lizenz, auf fremde
Datenbanken zugreift, befinden wir uns typischerweise im
Leistungsschutzrecht des Urheberrechts. Der Hersteller
einer Datenbank, für die eine wesentliche Investition
erforderlich war, hat weitreichende Rechte an seiner
Datenbank. Selbstverständlich kann er den Zugang
untersagen, aber auch mitunter angemessenes Entgelt bzw.
Schadenersatz fordern. Unter Mitbewerbern kann auch ein
Verstoß gegen das Wettbewerbsrecht vorliegen. Solche
Themen sind nicht neu, selbst die Verlinkung von Inhalten
kann je nach Ausgestaltung schon eine Ausbeutung der
Leistung eines anderen darstellen.
TechDivision: Sie führten ja auf eigene Initiative eine
Befragung mehrerer Unternehmen durch, wie diese mit
Daten umgehen. Wie sind Sie vorgegangen und was
waren Ihre Ergebnisse? Ich habe im Juli 2011 51 österreichische Unternehmen und
Institutionen kontaktiert, zu denen ich einen persönlichen
Bezug hatte, und um Auskunft hinsichtlich der über mich
gespeicherten Daten gebeten. Ich wollte wissen, woher sie
die Daten haben, wozu sie die Daten verwenden, an wen sie
die Daten weitergeben, ob Daten ins Ausland übermittelt
werden, etc. Die Auswahl war umfassend und hat
verschiedenste Branchen umfasst, wie etwa meine Banken
und Versicherungen, Einzelhandelsunternehmen bei denen
ich eine Vorteilskarte habe, meine früheren Arbeitgeber, IT
Unternehmen, bei den ich einen Account habe,
Telekommunikationsunternehmen etc. Grundlage war der
datenschutzrechtliche Auskunftsanspruch, den jeder Bürger
in der EU gegenüber datenverarbeitenden Unternehmen hat.
Die Erkenntnisse waren durchaus spannend. Ich hatte eine
Rücklaufquote von beachtlichen 95%, was natürlich aber
auch daran liegen mag, dass ich Jurist bin und die Anfrage
per eingeschriebenem Brief verschickt habe – aber
immerhin. Die Qualität der Beantwortung war sehr
TechDivision GmbH
Big Data – Vorsprung durch Wissen
unterschiedlich, auch wenn alle beteuert haben, wie wichtig
ihnen das Thema ist. Während einige sehr professionell
geantwortet haben, mitunter sogar unter Hinzuziehung von
Datenschutz- und Datensicherheitsexperten, wussten
andere noch nicht einmal, dass Nutzer ein solches
Auskunftsrecht haben. Nur wenige reagierten beleidigt auf
meine Anfrage, der Großteil war sehr interessiert und hat
dies zum Anlass genommen, sich besser über dieses Thema
zu informieren. Ein großes und bekanntes
Möbelunternehmen hat sogar extra einen Experten
engagiert, um Prozesse neu zu organisieren. Hier zahle ich
dann auch gerne weiterhin mit meiner Kundenkarte. Durch
die Anfrage sind einige falsche oder widersprüchliche
Informationen aufgetaucht, die ich als Betroffener
selbstverständlich korrigieren lassen kann. Interessant
waren für mich auch vergangene Befunde aus meiner
Krankenakte, an die ich mich schon fast nicht mehr erinnern
konnte. Bezeichnend war schließlich auch, dass viele
Unternehmen gar nicht wussten oder recherchieren
konnten, welche Daten sie über mich haben. Gerade bei
einzelnen IT Unternehmen weiß ich, dass dort mehr Daten
von mir vorhanden sind, weil ich weiß, dass ich diese Daten
einmal preisgegeben habe. Ich unterstelle den Unternehmen
nicht, dass sie dies absichtlich bei der Beantwortung
zurückgehalten haben. Ich vermute eher, dass sie einfach
selbst nicht immer wissen, wo die Daten sind. Bei der Frage
hinsichtlich der Übermittlung ins Ausland kamen relativ
wenige Antworten, obwohl dies aufgrund von Cloud Services
und Informationsverbundsystemen in Konzernen vermutlich
deutlich mehr hätten sein müssen.
TechDivision: Welche Gefahren sehen Sie durch „Big
Data“? Big Data ist klarerweise auch der nächste große Schritt hin
zum gläsernen Menschen und zu Utopien wie von Orwell
und Huxley. In einer Hollywood Komödie rief ein ehemaliger
Agent einmal bei der CIA an und wollte
Geheimdienstinformationen über seinen zukünftigen
Schwiegersohn. Die Auskunft wurde ihm verwehrt, aber
zugleich wurde er auf eine Internetsuchmaschine verwiesen
mit der Aussage: "Wir wissen auch nicht mehr als die!". Und
tatsächlich: Wenn man sich gewisse Transparenzberichte
großer IT Unternehmen ansieht, geht daraus klar hervor,
dass die Anfragen von staatlichen Einrichtungen an
Internetdienstleister stark ansteigen. Wir alle sind bereits
22
heute wesentlich transparenter als vor der Zeit des Internet.
Ängste zu schüren ist natürlich keine Lösung, aber wir
dürfen das Thema Privatsphäre nicht ignorieren. Weder aus
privater noch aus unternehmerischer Sicht.
TechDivision: Welche Chancen sehen Sie durch „Big
Data“? Die Analyse von großen Datenmengen bietet ungeheuere
Möglichkeiten. Ich bin mir sicher, dass in beinahe jedem
Lebensbereich Big Data Analysen möglich sein werden. Es
gibt nur weniges, was man nicht messen kann. Und was
man messen kann, kann man dank neuer Technologien
immer besser analysieren. Dadurch wächst oft der Komfort,
es werden neue wissenschaftliche Erkenntnisse erzielt, es
wird ein höherer volkswirtschaftlicher Nutzen erzielt, was in
einer Wissensgesellschaft natürlich von großer Bedeutung
ist. Die Fabriken der Zukunft stehen schon heute in unseren
Köpfen – oder in unseren Rechenzentren. Wenn ich nur in
einen mir nahen Anwendungsbereich, die Rechtsinformatik,
sehe, dann kann ich mir vorstellen, dass Big Data zu mehr
Transparenz im Recht führen kann, zu besseren und faireren
Entscheidungen, zu einer stärkeren direkten Demokratie,
und somit letztlich zu mehr Gerechtigkeit. Dieser soll das
Recht schließlich dienen. Aber auch hier ist Vorsicht
angesagt, etwa beim Schutz von Minderheiten. Denn nur
weil eine Million "Likes" zu einem Thema eine Datenbank
befüllen, heißt dies noch lange nicht, dass dies aus einer
umfassenden gesellschaftlichen Sicht auch so erwünscht
ist.
TechDivision: Wie können sich Menschen am besten
gegen Missbrauch ihrer Daten schützen? Jeder Mensch muss letztlich für sich selbst entscheiden, wie
er mit dem Schutz seiner Privatsphäre umgehen möchte. Je
mehr Daten ich preisgebe, desto größer ist das
Missbrauchsrisiko. Es kommt aber natürlich auch darauf an,
wem ich die Daten gebe. Zum Glück gibt es oft noch die
Wahl, obgleich wir den Komfort zunehmend gewohnt
werden und nicht mehr darauf verzichten wollen. Ich kann
im Supermarkt noch mit Bargeld bezahlen, dann bin ich
anonym. Bei Zahlung mit meiner Bankomatkarte lassen sich
schon starke Muster erkennen, etwa wo und wieviel ich bei
wem einkaufe. Wenn ich dazu noch eine Kundenkarte zum
TechDivision GmbH
Big Data – Vorsprung durch Wissen
Sammeln von Punkten verwende, bin ich schon ein sehr
gläserner Kunde. Wenn ich im Internet neue Cloud Services
nutze, verwende ich häufig ein Log-In, wodurch auch hier
die Transparenz steigt. Wenn ich US-Lösungen verwende,
kann dank Patriot Act auch der dortige Geheimdienst
mitlesen. Für Interessierte empfiehlt es sich, Auskunft- und
Richtigstellungsbegehren zu stellen. Dies ist gegenüber
europäischen Datenverarbeitern verhältnismäßig
unkompliziert und kann sehr aufschlussreich sein. Je nach
Antwort kann ich dann entscheiden, ob ich zu einem
anderen Anbieter wechsle, und dann am besten gleich auch
beim alten Datenverarbeiter den Antrag auf Löschung
meiner Daten stelle. Ob dies dann tatsächlich auch passiert
ist eine andere Frage, denn das Problem bei
datenschutzrechtlichen Verstößen ist, dass sie oft unsichtbar
sind. Wenn meine Brieftasche gestohlen wird, merke ich es
bald. Wenn meine Privatsphäre verletzt wird, passiert das oft
nur still und heimlich.
Fazit
Laut Prof. Kempf unterstützt die IKT-Branche das
Vorhaben der EU, den Datenschutz in Europa auf ein
einheitliches Niveau zu bringen. Dabei müsse aber
verhindert werden, dass die neuen Regelungen eine
sinnvolle Nutzung von Daten zu stark einschränken
oder sogar unmöglich machen. So besteht die Gefahr,
dass die bereits eingegrenzten Freiräume für eine
zuverlässige Datenverarbeitung weiter eingeengt
werden und mit bürokratischen Informations- und
Dokumentationspflichten überladen werden. Kempf
verdeutlicht, dass nur ein sinnvoll eingesetzter
Datenschutz Vorteile bringt. In diesem Zusammenhang
sei es Aufgabe der Gesetzgeber, Anreize zu schaffen,
damit Daten anonymisiert oder verschlüsselt verarbeitet
werden, um Missbrauch zu verhindern.
23
Big Data und
Customer Journey –
Träume werden wahr...
Thorben Fasching, hmmh
Die Customer Journey in Online Shops wird heute zwar vielfach analysiert, ein wirklicher Mehrwert für den Kunden
entsteht dadurch häufig aber nicht. Es hakt nicht selten am richtigen Wissen, um geeignete Ableitungen aus den
Analysen zu bilden. Oft können mit Unterstützung von kompetenter Seite die vorhandenen Problemstellungen gelöst
und die Relevanz der Marketingaktivitäten deutlich erhöht werden.
Sie wissen, dass Ihre Kunden durchschnittlich vier
Werbemittelkontakte benötigen, bis diese ihren Kauf
abschließen und dass dieser Prozess in etwa zwei Tage
dauert. Welchen Nutzen ziehen Sie aber aus diesen
Informationen? Die entsprechenden Datengrundlagen sind
meist vorhanden, aber es fehlt an sinnvollen
Verwendungsmöglichkeiten dafür.
Hürden der Customer
Journey
Betrachten wir beispielsweise folgenden Case: Sie sind ein
Multichannel Händler, der sowohl über einen Online Shop,
als auch stationäre Ladengeschäfte verfügt.
Selbstverständlich bedienen Sie verschiedene Online
Marketing Kanäle wie SEA, Affiliate und weitere. Ihre
Kunden kommen nun an verschiedenen Stellen mit den
Marketingaktivitäten Ihres Unternehmens in Berührung und
bilden damit die jeweilige Customer Journey ab. Doch was
passiert mit den Kunden, die sich online über Ihre Produkte
informiert haben und offline gekauft haben? Die reine
TechDivision GmbH
Big Data – Vorsprung durch Wissen
Online-Betrachtung der Customer Journey Analyse weist
diese Ketten als abgebrochen aus, obwohl diese Kunden
nachweislich Umsatz eingebracht haben. Das Ergebnis: Sie
ziehen falsche Schlüsse aus diesen Ketten.
Ein leider immer noch häufig auftretendes Phänomen im
Online Marketing ist das Gießkannenprinzip. Die
Werbebotschaften der Advertiser erreichen die Kunden
oftmals zur falschen Zeit am falschen Ort. In welcher Phase
sich dieser in der Customer Journey befindet, wird häufig
nicht mit in die Aussteuerung der Werbemittel
miteinbezogen. Die Folge sind Streuverluste und damit
verlorenes Budget. Ein prominentes Beispiel ist an dieser
Stelle Retargeting. Aus eigener Erfahrung können Sie
sicherlich von Fällen berichten, in denen Sie online in
verschiedenen Online Shops nach bestimmten Produkten
recherchiert haben und danach noch wochenlang durch
Retargeting-Banner wieder angesprochen wurden – dabei
haben Sie das Produkt entweder offline gekauft haben oder
das Interesse verloren. In beiden Fällen ist aus Sicht der
Advertiser festzustellen: Das investierte Marketingbudget
wird in diesem Fall keinen messbaren Return mehr
erwirtschaften.
24
Der Fokus der Marketingaktivitäten von Unternehmen liegt
häufig auf Neukundengenerierung. Bereits 2008 stellte Prof.
Dr. Gerrit Heinemann in seinem Buch „Multi-ChannelHandel: Erfolgsfaktoren und Best Practices“ fest, dass es bis
zu zehn Mal teurer ist, Neukunden zu gewinnen, als
Bestandskunden an das Unternehmen zu binden. Aufgrund
des immer stärker werdenden Wettbewerbs in den Online
Marketing Kanälen wird es immer teurer, Neukunden zu
generieren und bestehende Kunden werden vernachlässigt.
Dabei ist das Potenzial der Bestandskunden häufig noch
nicht ausgeschöpft.
Wie können diese
Herausforderungen durch
Big Data Analysen gelöst
werden?
Um geeignete Schlüsse aus den Big Data Analysen für die
Customer Journey zu ziehen, bedarf es zuerst der richtigen
Datengrundlage. Das bedeutet, dass ausnahmslos alle
Kundendaten, sofern dies datenschutzrechtlich gebilligt ist,
intelligent miteinander verknüpft werden müssen. Dies
schließt sowohl Onsite-, als auch Offsite-Daten von
Drittanbietern ein. Nur wenn diese Grundlage geschaffen ist,
lassen sich akkurate Schlüsse aus diesem Datenberg
ziehen.
Big Data ermöglicht Ihnen, Ihre Kunden besser kennen zu
lernen als jemals zuvor. In Zukunft legen Sie keine
Zielgruppen a priori mehr für Ihre Produkte fest, sondern
diese basieren auf datengestützten Analysen. Weiterhin
können diese Analysen zu dem Ergebnis führen, dass Sie
nicht mehr die große, relativ unscharfe Zielgruppe
definieren, sondern viele Kunden-Cluster mit sehr präzise
definierten Interessen, da diese am affinsten sind.
Optimalerweise lernt die Software mit jedem Kunden dazu.
Sie erhalten von allen Kunden Informationen darüber, für
welche Produkte sie sich interessiert haben und welche
Produkte sie im Verbund gekauft haben. Auch wenn nicht
jeder Kunde exakt die selben Interessen hat, lassen sich
doch häufig Bewegungsmuster erkennen, die Ihnen
TechDivision GmbH
Big Data – Vorsprung durch Wissen
ermöglichen, ähnlichen Kunden Produktempfehlungen
während oder nach dem Einkauf auszusprechen.
Die gesammelten Daten können Sie auch extern zur Online
Marketing Steuerung verwenden. Ziel sollte sein, die
Customer Journey bestmöglich auszugestalten und an
jedem Touchpoint mit relevanten Informationen einen echten
Mehrwert zu liefern – basierend auf historischen Daten
ähnlicher Kunden (sogenannter Look-alikes) werden die
nächsten Touchpoints gewissermaßen vorhersagt und
darauf aufbauend die passende Werbebotschaft
ausgesteuert. Ein denkbares Szenario wäre beispielsweise,
dass ein Kunde, der an Testberichten zu einem Produkt
interessiert ist, gezielt mit Werbebotschaften angesprochen
wird, in denen der Advertiser sein Produkt als Testsieger
platziert. Diese Relevanzsteigerung der Marketingaktivitäten
resultiert in einer höheren Effizienz des Marketingbudgets
und einem höheren ROI. Der amerikanische RTA-Anbieter
Rocket Fuel nennt in einer Case Study eine mögliche ROISteigerung von rund 200% über einen Zeitraum von drei
Jahren. Durch die gezieltere Aussteuerung der Kampagne
ein durchaus realistischer Wert!
Die derzeit verbreiteten Customer Journey Modelle enden
zumeist mit dem Kauf des Produktes. Advertiser sollten aber
auch die Touchpoints nach dem Kauf im Auge behalten.
Viele Kunden teilen ihre Erfahrungen in sozialen Netzwerken
oder auf Bewertungsplattformen. Hier gilt es, diese
Bestandskunden zu erkennen, mit ihnen in den Dialog zu
treten und von ihnen Feedback zu erhalten. Wie heißt es so
schön: Nur ein zufriedener Kunde ist ein guter Kunde. Hier
wird auch deutlich, dass die Customer Journey nicht mehr
als abgeschlossenen Prozess betrachtet werden sollte,
sondern als fortlaufenden Kreislauf. Basierend auf den
vorherigen Käufen können daraufhin die wahrscheinlichen
Touchpoints dieses Kunden vorhergesagt und entsprechend
optimiert werden. Das permanente Lernen der Software
dient der besseren Ausschöpfung des Kunden.
Was kann ich tun, um
meinen ROI mit Big Data zu
steigern?
25
Sowohl Neukunden, als auch Bestandskunden haben diverse Berührungspunkte mit Ihrem Shop, bevor sie kaufen. Der Blick
auf alle Berührungspunkte des Kunden ermöglicht eine gezielte Ansprache im Aftersales-Erlebnis. Dies versetzt Sie in die Lage,
Ihren Kunden langfristig als Bestandskunden zu etablieren.
Mit dem reinen Datensammeln ist es allerdings noch nicht
getan, denn mit der Analyse beginnt erst die eigentliche
Arbeit. Das beste Tool hilft wenig, wenn kein Know-how
vorhanden ist, wie dieser Datenwust intelligent genutzt
werden kann. Sie brauchen einen Analysten, der Ihr
TechDivision GmbH
Big Data – Vorsprung durch Wissen
Geschäftsmodell versteht und aus Nutzersicht die richtigen
Fragen stellt: Was suchen Ihre Kunden und was kaufen sie?
Wie viel Information benötigt der Kunde mini- und maximal
auf dem Weg zum Kauf? Welche Hinweise wirken
unterstützend nach dem Kauf?
26
Die Antworten auf diese Fragen helfen vorherzusagen, wie
sich bestimmte Kundengruppen und -typen entwickeln, für
welche Produkte sie sich in absehbarer Zeit interessieren
und, viel wichtiger, wie hoch die Wahrscheinlichkeit des
Kaufes ist. Die gesammelten Bewegungs- und
Aktivitätsdaten können zur Erstellung sogenannter „business
rules“ dienen. Mit dieser Hilfe können Sie personalisierte
Informationen auf der eigenen Website oder extern
ausspielen. Anbieter wie nugg.ad, aber auch Rocket Fuel,
xplosion oder Criteo bieten mit punktgenauer
Werbemittelausstrahlung die Möglichkeit, die Relevanz und
damit den ROI massiv zu steigern.
Handlungsempfehlungen:
Sicherstellen, dass ein lückenloses und fehlerfreies
Multichannel Tracking eingerichtet ist
Alle Daten, die zur Verfügung stehen, müssen zentral
verwaltet und intelligent miteinander verknüpft werden
In kompetente Unterstützung investieren, die aus
Nutzersicht die richtigen Fragen stellt
Relevanz der Marketingaktivitäten anhand von
Touchpoint-Analysen erhöhen
Bestandskunden besser an das Unternehmen binden
Um die gesamte Customer Journey inklusive DrittanbieterSeiten abdecken zu können, ist es sinnvoll, alle Marketing
Aktivitäten zentral zu steuern. Dies hat einen einfachen
Grund: Nur wenn alle Touchpoints der Customer Journey
abgebildet werden, können Sie die richtigen Botschaften
vermitteln. Verwenden Sie bei der Bewertung der Online
Marketing Kanäle sogenannte Attributionsmodelle. Dabei
wird der Warenkorbwert auf die verschiedenen Touchpoints
aufgeteilt und damit ein deutlich realistischerer ROI auf
Touchpoint-Ebene ausgewiesen. Sie erhalten nur dann
valide Zahlen, wenn Sie alle Berührungspunkte in der
Übersicht haben. Die Bewertung und Gewichtung der
einzelnen Touchpoints erfolgt nach verschiedenen vorab
festgelegten Kriterien wie beispielsweise Verweildauer,
Zeitraum zwischen zwei Touchpoints, demografische oder
geografische Merkmale und Erfahrungswerte aus vorherigen
Käufen des Kunden.
TechDivision GmbH
Big Data – Vorsprung durch Wissen
und diese auch nach dem Kauf begleiten
Fazit
Viel Potenzial versteckt sich in den Analysedaten der
Kunden. Mit der richtigen Strategie können Sie sich einen
nicht zu unterschätzenden Vorteil gegenüber den
Mitbewerbern sichern. Die reine Analyse und Auswertung
der vorhandenen Daten ist dabei nur eine Station auf dem
Weg zum Erfolg. Wichtig sind die richtigen Fragestellungen,
um den Mehrwert für den Nutzer herauszukristallisieren. Die
gewonnene Erkenntnis und die damit verbundene ROISteigerung werden den investierten Aufwand in jedem Fall
rechtfertigen.
27
Zusammenfassung
TechDivision:
Wie sich anhand der unterschiedlichen Expertenartikel und interviews nachvollziehen lässt, ist das Potential von Big
Data groß und in Deutschland noch lange nicht
ausgeschöpft. Aus unternehmerischer Sicht birgt das viel
diskutierte Thema sicherlich neue Möglichkeiten und
Chancen im E-Commerce-Bereich.
Das Fraunhofer Institut IAIS hat drei wichtige
Einsatzbereiche für „Big Data“ in deutschen Unternehmen
analysiert:
Effiziente und vorausschauende Unternehmensführung
(z.B. Monitoring von Produkten, Transportmitteln sowie
Anlagen)
Massenindividualisierung auf Grundlage von
Kundeninformationen (z.B. individuellere Services für
Kunden)
Intelligente Produkte (z.B. Auswertung produktbezogener
Daten)
Nach Befragung einiger Unternehmen wird der Big DataNutzen vor allem in der Prognose zur Wirksamkeit von
Werbemaßnahmen, in der Beobachtung der Wahrnehmung
einer Marke und in der genaueren Fixierung des Preises
gesehen. Die Möglichkeiten von Big Data sind beinahe
unbegrenzt. Das komplexe Thema erfordert jedoch neue
Kompetenzen, damit Daten richtig analysiert werden und
einen Nutzen bringen können. So ist es auch für kleinere
und mittlere Unternehmen möglich durch richtig aufbereitete
Daten bessere Entscheidungen zu treffen.
Die Zukunft wird zeigen, ob sich auch beim Mittelstand Big
Data durchsetzen wird. Die aktuelle Studie des Fraunhofer
Instituts IAIS „Potentialanalyse Big Data in Deutschland“
zeigt derzeit noch Hemmnisse gegenüber Big Data auf: So
haben 49 Prozent der deutschen Unternehmen
Datenschutz- und Sicherheitsbedenken. Bei 45 Prozent
mangelt es an Budget. Unternehmen haben die Potentiale
jedoch bereits erkannt und es wird wohl eine Frage der Zeit
sein, bis die letzten Hemmnisse überwunden sind.
Ein Vorteil der Datenauswertung ist beispielsweise im
Einzelhandel der bessere Überblick darüber, wann Produkte
verkauft werden und wann diese nachbestellt werden
müssen. So gewann zum Beispiel die bayerische Andechser
Molkerei Scheitz durch die Datenanalyse die Erkenntnis,
dass Kunden an wärmeren Tagen Joghurt-Getränke
bevorzugen. Das wetterabhängige Muster im
Kundenverhalten konnte für die Produktion genutzt werden.
Dem Unternehmen war es so möglich vorausschauender
und effektiver zu planen.
TechDivision GmbH
Big Data – Vorsprung durch Wissen
28
Autorenübersicht:
Josef Willkommer,
TechDivision GmbH
Als Geschäftsführer der TechDivision
GmbH, einer der führenden Magento- und E-CommerceAgenturen im deutschsprachigen Raum, beschäftigt sich
Josef Willkommer seit vielen Jahren sehr intensiv mit ECommerce und Online-Marketing. Darüber hinaus ist er
als Chef-Redakteur des eStrategy-Magazins sowie als Autor
diverser Fachbeiträge rund um E-Commerce und OnlineMarketing auch journalistisch tätig. Neben diversen
Beratungstätigkeiten für unterschiedlichste Unternehmen
trifft man ihn bei diversen Fachkonferenzen auch als
Speaker zu E-Commerce- und Online- Marketing-Themen.
Experteninterview:
Dr. Michael May, Fraunhofer
Institut IAIS
Dr. May leitet seit 1998 die Abteilung
Knowledge Discovery am Fraunhofer IAIS, die sich mit den
Themen Data Mining, Maschinelles Lernen und Big Data
befasst. Er leitet derzeit eine Anzahl von Big Data Projekten
in Forschung und Wirtschaft und war für die vom deutschen
Wirtschaftsministerium geförderte „Potentialanalyse Big
Data in Deutschland“ verantwortlich. Seine
Forschungsschwerpunkte sind derzeit die Data-MiningAnalyse von verteilten Data Streams sowie die Analyse von
Telekommunikations- und Mobilitätsdaten.
Interview und Umsetzung des Artikels:
Dominik Haller, TechDivision GmbH
TechDivision GmbH
Big Data – Vorsprung durch Wissen
Hendrik Stange,
Fraunhofer Institit IAIS
Hendrik Stange studierte
Wirtschaftsinformatik mit den Schwerpunkten Data Mining
und Corporate Governance an der Otto- von-Guericke
Universität Magdeburg. Schon frühzeitig befasste er sich mit
Spatial Business Intelligence Lösungen für den Einzelhandel.
Seit 2007 ist er Analyst in der Abteilung Knowledge
Discovery am Fraunhofer-Institut für intelligente
Informations- und Analysesysteme IAIS und ist dort seit
2009 als Projektleiter tätig. Sein ak- tueller
Forschungsschwerpunkt liegt im Bereich Big Data Analytics
und im Spezialgebiet Reality Monitoring. Er unterstützt
Unternehmen im strategischen Umgang mit dem
wettbewerbs- entscheidenden Rohstoff „Daten“ auf dem
Weg zu „Data-driven Enterprises“.
Experteninterview:
Dr. Clemens Wass, Rechtsexperte
Dr. Clemens Wass, MBL, MBA, ist
ausgebildeter Wirtschaftsjurist mit langjähriger
Berufserfahrung in internationalen TechnologieUnternehmen. Neben verschiedenen innovativen rechtlichen
Projekten ist Dr. Wass Unternehmensberater (Schwerpunkt
Innovationsmanagement, geistiges Eigentum und
Datenschutz) sowie externer Lektor an der
Wirtschaftsuniversität Wien am Institut für Entrepreneurship
& Innovation.
Interview und Umsetzung des Artikels:
Dominik Haller, TechDivision GmbH
Thorben Fasching, hmmh
Thorben Fasching steuert seit 2007
den Bereich Marketing & User
Experience der hmmh. In dieser Funktion treibt er auch die
Geschäftsentwicklung der Agentur voran. Daneben ist er
stellvertretender Vorsitzender der Fachgruppe E-Commerce
im Bundesverband Digitale Wirtschaft (BVDW) e.V.
29
TechDivision ist ein etablierter E-Commerce Solution Partner
und unterstützt seit vielen Jahren nationale und internationale
Kunden in der integrierten Planung, Design und
Implementierung von komplexen E-Commerce-Lösungen. Als
Magento Gold Partner der ersten Stunde, gehört TechDivision
zu den führenden Magento Solution Partnern in Europa.
Mittelgroße Kunden und internationale Unternehmen wie
WMF oder Ritter-Sport, vertrauen auf die Kompetenz und
Erfahrung von TechDivision. Derzeit hat TechDivision zwei
Standorte in Rosenheim / Kolbermoor und München.
TechDivision GmbH
Spinnereiinsel 3a
83059 Kolbermoor
Telefon: +49 8031 2210 55 - 0
Telefax: +49 8031 2210 55 - 22
Balanstr. 73
Haus 8, 3. OG
81541 München
Telefon +49 89 4161 4787 - 0
Ansprechpartner:
Josef Willkommer
[email protected]
www.techdivision.com
TechDivision GmbH
Big Data – Vorsprung durch Wissen
30
Herunterladen