www.techdivision.com BIG DATA Vorsprung durch Wissen Tante Emma 2.0 oder Big-Data (Josef Willkommer, TechDivision GmbH) Big Data – Zwischen Urheberrecht und Datenschutzrecht (Interview mit Dr. Clemens Wass, Rechtsexperte) Big Data – Modebegriff oder Trend? (Interview mit Dr. Michael May, Fraunhofer Institut IAIS) Big Data – Vorsprung durch Wissen (Hendrik Stange, Fraunhofer Institut IAIS) Big Data und Customer Journey (Thorben Fasching, hmmh) ...Big Data ist in aller Munde! Das Wachstum der Datenberge scheint unaufhaltsam, ist sehr komplex und meist auch unstrukturiert. Wie kein zweiter Begriff prägt das Thema „Big Data“ derzeit die IT-Diskussionen. Für die herkömmliche IT bedeutet das Thema einerseits eine große Herausforderung, andererseits birgt es neue Chancen und Möglichkeiten in sich. Für die meisten Anwender bleibt jedoch das große Potential, das sich aus der Anwendung von Big Data für das eigene Unternehmen ergibt, schwer zu fassen. Big Data gilt als das „Rohöl des Informationszeitalters“ – es muss nur verstanden werden, es richtig zu nutzen. TechDivision hat sich mit dem Thema „Big Data“ näher auseinander gesetzt und mit Experten der Szene diskutiert. Mit aktuellem Know-How aus dem Hause Fraunhofer Institut IAIS und hochwertigen Expertenartikeln und Interviews stellt das vorliegende Whitepaper das Potential von Big Data ausführlich dar. Tante Emma 2.0 oder Big-Data Josef Willkommer, TechDivision GmbH Erinnern wir uns doch mal an unsere Jugend. In den meisten Fällen gab es da – zumindest bei der Oma – einen kleinen Tante Emma Laden, der häufig Dreh- und Angelpunkt des täglichen Lebens war. Dort traf man sich, tauschte sich aus und bekam – entweder von Tante Emma oder von anderen Kunden – allerlei Neuigkeiten, Tipps für das tägliche Leben, Produktempfehlungen und vieles mehr. Im Prinzip eigentlich „Social Media 1.0“. Tante Emma war damals auch deswegen erfolgreich und hatte ein tragfähiges Geschäftsmodell, weil die Mobilität noch nicht in der heutigen Form gegeben war und viele auf Nahversorgung ohne eigenes Auto angewiesen waren. Wie wir alle wissen, nahm die Mobilität gerade während des Wirtschaftswunders enorm zu, viele kauften sich ihr erstes Auto und die ersten Supermärkte – wie man sie heute kennt – wurden aus dem Boden gestampft. Für Tante Emma & Kolleginnen natürlich harte Konkurrenz. TechDivision GmbH Big Data – Vorsprung durch Wissen Dennoch hat Tante Emma – im Kleinen – immer noch Erfolg, weil sie genau das bieten kann, was in der Anonymität eines Supermarktes, Discounters oder SBWarenhauses größtenteils untergeht: Persönlichkeit. Tante Emma kannte und kennt ihre Kunden und deren Vorlieben sowie Besonderheiten. Welche Konserven Herr Maier am liebsten mag, wieviele Brötchen Frau Müller am Samstag benötigt. Sie weiß auch entsprechende Zusammenhänge und kann aus eigener Erfahrung berichten und Empfehlungen abgeben: „Wenn Ihnen der Joghurt zu süß ist, sollten sie mal diesen versuchen.“ 2 Nach aktuellen Berechnungen verdoppelt sich das weltweite Datenvolumen alle 2 Jahre. Diese Entwicklung wird vor allem getrieben durch die zunehmende maschinelle Erzeugung von Daten z. B. über Protokolle von Telekommunikationsverbindungen (CDR) und Web-Zugriffen (Logdateien), automatische Erfassungen von RFID-Lesern, Kameras, Mikrofonen und sonstigen Sensoren. Big Data fallen auch in der Finanzindustrie an (Finanz-Transaktionen, Börsendaten), sowie im Energiesektor (Verbrauchsdaten) und im Gesundheitswesen (Verschreibungen). In der Wissenschaft fallen ebenfalls große Datenmengen an, z. B. in der Geologie, Genetik, Klimaforschung und Kernphysik. Der IT-Branchenverband Bitkom hat Big Data als einen Trend im Jahr 2012 bezeichnet.“ (Quelle: Wikipedia) Mit anderen Worten Tante Emma machte und macht intuitiv das, was heute – aufgrund der enormen Zunahme an Produkten, Werbebotschaften und generellen Optionen beim Einkauf und der damit zusammenhängenden Explosion der Datenmengen – auch zum Begriff Big Data und der damit einhergehenden Personalisierung gehört. Das Ergebnis sind exponentiell ansteigende Datenberge. Dies erklärt auch, warum ca. 90% der weltweiten Daten in den letzten 2 Jahren entstanden sind und nur 15% der Marketing-Entscheider ein klares Verständnis darüber haben, welchen Mehrwert einzelne Kommunikationskanäle bieten. [1] Was aber bedeutet Big Data eigentlich? „Als Big Data werden besonders große Datenmengen bezeichnet, die mit Hilfe von Standard-Datenbanken und DatenmanagementTools nicht oder nur unzureichend verarbeitet werden können. Problematisch sind dabei vor allem die Erfassung, die Speicherung, die Suche, Verteilung, Analyse und Visualisierung von großen Datenmengen. Das Volumen dieser Datenmengen geht in die Terabytes, Petabytes und Exabytes. Wie Big-Data heute in der Praxis aussehen kann, zeigt ein Beispiel der AOK. Auch die Wissenschaftler des Wissenschaftlichen Instituts der AOK (WIdO) wissen genau, wie essenziell Zahlen gerade für den Versicherungsmarkt sind. Mit welchen Datenmengen hier hantiert wird, zeigt die nachfolgende Auflistung: Dass die Datenströme aus immer mehr Kanälen generiert werden – bei denen die Grenzen inzwischen auch immer häufiger verschwimmen – zeigt das Beispiel Fernsehen. Während zu Tante Emma´s Zeiten in der Regel drei Fernsehprogramme zur Verfügung standen, weiß man heute häufig gar nicht mehr wieviele und welche Sender verfügbar sind. Im Schnitt dürften hier pro Haushalt sicherlich inzwischen 30 bis 50 Sender – mitunter auch deutlich mehr – um die Gunst der Zuschauer „buhlen“. So verwundert es auch nicht, dass Konsumenten heutzutage rund 10.000 Werbebotschaften pro Tag ausgesetzt sind, die in der Folge natürlich auch immense Datenmengen nach sich ziehen. Durch die Vernetzung von Web und TV sowie entsprechende Tracking-Technologien werden daher inzwischen oft „wie wild“ Daten gesammelt – häufig ohne klares Ziel und entsprechende strategische Vorabplanungen. 24 Millionen AOK-Versicherte mit: sechs Millionen Behandlungen/Jahr 55 Millionen Diagnosen 18 Millionen Prozeduren 55 Millionen Entgeltinformationen 140.000 ambulant tätige Ärzte mit: über 370 Millionen Behandlungen über 1,3 Milliarden Abrechnungsziffern über 800 Millionen codierten ICD-10-Diagnosen 3,6 Millionen OPS-Codes 12 Millionen Arbeitsunfähigkeiten „All diese Daten helfen den Wissenschaftlern des WIdO dabei, für die Gesundheitsversorgung wichtige Korrelationen aufzudecken. Dabei sorgen bereits einfachste Analysen dafür, dass vermeintlich schwierige Fragen beantwortet [1] http://www.owm.de/dokumente/studien/publikationen_detail.php?id=11 [2] http://www.computerwoche.de/a/wenn-pythagoras-mit-big-data-hantiert,2527754 TechDivision GmbH Big Data – Vorsprung durch Wissen 3 werden können: Welche und wie viele Versicherte müssen in nächster Zeit vermutlich ins Krankenhaus? Wie oft geht, im Vergleich zu einem regulären Patienten, ein chronisch Kranker zum Arzt? Wo müssen Patienten häufiger wiederholt behandelt werden? Weiterführende Analysen sind möglich wenn etwa Daten aus den verschiedenen Leistungsbereichen miteinander verknüpft und analysiert werden. Dabei besteht innerhalb des AOK-Wissenschaftsinstituts eine große Schwierigkeit: Jeder Sektor – also die Arzneimittelversorgung, die Kliniken, die ambulante Versorgung und die Arbeitsunfähigkeit – besitzt eine separate Datenverwaltung. Sie alle müssen aufwendig miteinander verbunden und synchronisiert werden. Diese Verknüpfungen sind jedoch sehr wichtig, da sie Rückschlüsse auf gesellschaftliche Gesundheitszustände erlauben.“ [2] An diesem Beispiel wird auch gleich eines der größten Probleme im Bereich Big-Data klar. Viele Unternehmen besitzen bereits Unmengen von Daten bzw. haben zwischenzeitlich begonnen, entsprechende Daten zu erheben. Diese werden meist jedoch in unterschiedlichsten Bereichen und Systemen generiert und gespeichert und müssen dann wieder zusammengeführt werden um übergreifende Analysen zu ermöglichen. Walmart – Tante Emma 3.0 Versuchen wir aber mal, den Bogen zur eingangs erwähnten Tante Emma zu schlagen, die inzwischen in den meisten Fällen von Walmart & Co. abgelöst wurde. Aufgrund der enormen Größenunterschiede sowie der Tatsache, dass inzwischen unterschiedlichste Kanäle „bespielt“ werden müssen, funktioniert das, was Tante Emma so erfolgreich gemacht hat und was sie meist einzig in ihrem Kopf hatte, heutzutage nicht mehr. Willkommen in der Welt von BigData! Beispiel gefällig? Mit mehr als 200 Millionen Kunden, die jede Woche in die 10.700 Stores mit 69 Firmierungen in 27 Ländern „einfallen“ und in 10 Ländern auch über Webshops TechDivision GmbH Big Data – Vorsprung durch Wissen einkaufen, kontrolliert Walmart mehr als 1,5 Mio. Kundentransaktionen pro Stunde! Alle dadurch generierten Daten fließen in eine zentrale Datenbank, die aktuell rund 3 Petabyte an Informationen enthält. Da sie mit Petabyte vermutlich noch nicht so viel anfangen können hier ein vereinfachtes Praxisbeispiel: Für unser Beispiel bedienen wir uns des sog. ASCII Zeichensatzes, bei dem jedes Zeichen mit einem Byte codiert wird. Auf einer DIN-A4 Seite lassen sich mit einer Schreibmaschine 80 Zeichen pro Zeile und 53 Zeilen pro Seite schreiben. Damit passen 4.240 Zeichen (80 x 53) auf eine einseitig bedruckte DIN-A4 Seite. Der Einfachheit halber vernachlässigen wir im folgenden Dateisysteme und Header Informationen, welche zusätzlichen Platz beanspruchen würden – aber am Ende wird ersichtlich, das dies auch keinen großen Unterschied machen wird. Rechnen wir mit 4.000 Zeichen (80 x 50) pro A4 Seite, was dann 4.000 Byte oder ~ 3,9 KiB oder 4 KB entspricht (?iB vs ?B). Der Einfachheit halber nehmen wir an, wir haben eine Festplatte mit 2 Terabyte Fassungsvermögen, also 2.000.000.000.000 Byte. Damit wird bereits ersichtlich, dass es sich um recht große Zahlen handelt. Um das Ganze etwas greifbarer zu machen bedienen wir uns eines konkreteren Beispiels: Ein Stapel Papier, A4, 100 Seiten, hat etwa eine Höhe von 1 cm. Wie groß ist nun der Papierstapel, wenn ich den gesamten Inhalt meiner 2TB Festplatte einseitig auf Papier in ASCII Symbolen mit 80×50 Zeichen pro Blatt ausdrucken würde? 2.000.000.000.000 Byte / 4.000 Byte pro Seite = 500.000.000 Seiten Papier 500.000.000 Seiten / 100 Seiten pro 1 cm = 5.000.000 cm / 100 = 50.000 m / 1.000 = 50 km Das entspricht etwa einem Papierstapel von München nach Rosenheim – Luftlinie. Ein Petabyte ist die nächstgrößere Einheit nach Terabyte, somit sind 1000 TB = 1 PB und damit 3 PB = 4 3.000.000.000.000.000 Byte. Wir kommen zu folgender Rechnung: http://norwied.wordpress.com/2011/07/17/was-ist- 3.000.000.000.000.000 Byte / 4.000 Byte pro Seite = 750.000.000.000 Seiten Papier Was Walmart mit diesen Daten unter anderem anstellt bzw. anstellen kann, soll nachfolgendes Beispiel verdeutlichen, das aus dem Buch „Big Data“ von Viktor MayerSchönberger und Kenneth Cukier stammt: Walmart erfasst sämtliche Kaufvorgänge aller Kunden um Vorhersagen bzw. entsprechenden Ableitungen treffen zu können. Anhand dieser erfassten Kaufvorgänge konnte Walmart ableiten, dass bei einer Hurrikan-Warnung in den Walmart-Läden des jeweiligen Hurrikan-Zielgebietes die 750.000.000.000 Seiten / 100 Seiten pro 1 cm = 7.500.000.000 cm / 100 = 75.000.000 m / 1.000 = 75.000 km Dieser Papierstapel aus Walmart Kundeninformationen würde knapp 12 mal um den Erdäquator verlaufen, bei 6.370 km Erdumfang. (Beispiel in Anlehnung an: eigentlich-ein-petabyte/) Quelle: WalmartLabs Nachfrage nach Kellog´s Pop-Tarts signifikant steigt. Daraufhin wurden die Store-Manager von Walmart informiert, dass während der Hurrikansaison die Kellog´s Pop-Tarts im Eingangsbereich platziert werden sollten. Das Ergebnis war ein enormer „Boost“ der Abverkaufszahlen für dieses Produkt, den man ohne entsprechende Datenanalyse sicherlich kaum realisieren hätte können, da eine Korrelation zwischen Hurrikanen und bestimmten Frühstückssnacks nicht gerade offensichtlich ist. TechDivision GmbH Big Data – Vorsprung durch Wissen Inzwischen betreibt Walmart genau für solche Zwecke auch eine umfassende Online-Marketing-Plattform, in der die Datenströme unterschiedlichster Kanäle zusammenlaufen und entsprechend analysiert werden. Durch komplexe Algorithmen, semantische Analysen, maschinelles Lernen und automatische Skalierung ermöglicht die WalmartLabs Plattform folgendes: 5 Analyse von 100 Millionen Keywords hinsichtlich TrafficVolumen, Synonymen, relevanten Keywords, Wert und Qualität des Keywords, Keywords mit dem optimalen Produktbezug sowie Kategorisierung von Keywords. Aktives Bidding für jedes Keyword mittels API mehrmals täglich Analyse des Userverhaltens während des Kaufvorganges um optimale Produktempfehlungen abgegeben zu können. Durchführung paralleler Test um neue Datenmodelle prüfen zu können Big-Data wird zu Open-Data Zukünftig möchte Walmart seine Big-Data Tools Open Source zur Verfügung stellen. Durch die Entwicklung mehrerer Tools zur Migration von Big Data plant Walmart von 10 unterschiedlichen Datenquellen auf eine zu reduzieren und von einem testweiten 10-node Hadoop Cluster auf einen 250-node Hadoop Cluster umzusteigen. "Apache Hadoop ist ein freies, in Java geschriebenes Framework für skalierbare, verteilt arbeitende Software. Es basiert auf dem bekannten MapReduce-Algorithmus von Google Inc. sowie auf Vorschlägen des Google-Dateisystems und ermöglicht es, intensive Rechenprozesse mit großen Datenmengen (Big Data, Petabyte-Bereich) auf Computerclustern durchzuführen. Hadoop wurde ursprünglich durch den Lucene-Erfinder Doug Cutting initiiert. Am 23. Januar 2008 wurde es zum Top-LevelProjekt der Apache Software Foundation. Nutzer sind unter anderem Facebook, a9.com, AOL, Baidu, IBM, Imageshack und Yahoo. Das Hadoop Distributed File System (HDFS) ist ein hochverfügbares, leistungsfähiges Dateisystem zur Speicherung sehr großer Datenmengen auf den Dateisystemen mehrerer Rechner (Knoten). Dateien werden in Datenblöcke mit fixer Länge zerlegt und diese redundant auf die teilnehmenden Knoten verteilt. HDFS verfolgt hierbei TechDivision GmbH Big Data – Vorsprung durch Wissen einen Master-Slave-Ansatz. Ein Masterknoten, der so genannte NameNode, bearbeitet eingehende Datenanfragen, organisiert die Ablage von Dateien in den Slaveknoten und speichert anfallende Metadaten. HDFS unterstützt dabei Dateisysteme mit mehreren 100 Mio. Dateien. Sowohl Dateiblocklänge als auch Redundanzgrad sind konfigurierbar. Hive erweitert Hadoop um Data-WarehouseFunktionalitäten, namentlich die Anfragesprache HiveQL und Indizes. HiveQL ist eine auf SQL basierende Abfragesprache und ermöglicht dem Entwickler somit die Verwendung einer SQL-ähnlichen Syntax. Im Sommer 2008 stellte Facebook, der ursprüngliche Entwickler von Hive, das Projekt der Open-Source-Gemeinde zur Verfügung. Die von Facebook verwendete Hadoop-Datenbank gehört mit etwas mehr als 100 Petabyte (Stand: August 2012) zu den größten der Welt. HBase ist eine skalierbare, einfache Datenbank zur Verwaltung sehr großer Datenmengen innerhalb eines Hadoop-Clusters. Die HBase-Datenbank basiert auf einer freien Implementierung von Google BigTable. Diese Datenstruktur ist für Daten geeignet, die selten verändert, dafür aber sehr häufig ergänzt werden. Mit HBase lassen sich Milliarden von Zeilen verteilt und effizient verwalten." Quelle: Wikipedia (http://de.wikipedia.org/wiki/ Apache_Hadoop) Daten werden die Markenkommunikation revolutionieren Gemäß einer Online-Befragung durch die Agentur Interone im Februar/März 2013, bei der insgesamt 400 Marketer aus Unternehmen sowie Agentur-Insider teilgenommen haben, sind 65% der Befragten der Meinung, dass die Bedeutung von Daten für die Markenkommunikation stark zunehmen wird. „Vor allem drei Datenquellen ermöglichen kontextsensitives Marketing: 6 Konsumenten vermessen digital ihr Leben, um sich selbst zu optimieren (Quantified Self) Unternehmen sind in der Lage, große Datenmengen in der Lage, ihre Kunden besser kennenzulernen und individueller anzusprechen. Sie können Kanäle und Touchpoints wirksamer und virtuoser orchestrieren. Kampagnen lassen sich durch Daten kreativ anreichern und aktueller halten. Inhalte werden relevanter und resonanzfähiger, neue Ideen für Kommunikation entstehen.“ kürzester Zeit zu analysieren (Big Data) Daten werden öffentlich und über Schnittstellen verfügbar gemacht (Open Data). „Big Context“ entsteht durch eine Schnittmenge dieser Datenquellen. Mit „Big Context“ wird die Markenkommunikation effektiver, individueller und involvierender. Marken sind durch die neuen Datenquellen in (Quelle: „Big Context“ - http://bigcontext.interone.de/) Die Befragung förderte zudem einige weitere, recht interessante Informationen zu Tage: 34% der Befragten können noch nichts mit Big Data anfangen 39% wissen nicht was Open Data ist Abb.: Zusammenhang von „Big Context“ - http://bigcontext.interone.de/ TechDivision GmbH Big Data – Vorsprung durch Wissen 7 50% haben bisher noch nichts von Quantified Self gehört Nur 13% sehen heute schon die Zukunft: Daten für neue Produkte oder Services zu nutzen 20% versprechen sich davon vorrangig effizienter zu kommunizieren 28% sehen den größten Nutzen in einem besseren Verständnis der Zielgruppe Absichten und Ziele sind. Daraus ergeben sich zentrale Erfolgskriterien, Hypothesen und Anforderungen. 2. Klein anfangen, statt groß denken Identifizieren Sie überschaubare Bereiche, in denen Sie ohne großes Risiko mit kleinem Budget mit „Big Context“ experimentieren können. Ist Ihr Experiment erfolgreich, können Sie darüber sprechen und Ihre Aktivitäten ausweiten. Scheitert es, haben Sie nichts verloren. 38% sehen in der fehlenden Transparenz, welche Daten vorhanden sind, die wichtigste Hürde 3. Holen Sie sich Hilfe 37% halten eine fehlende Kultur im Umgang mit Daten für die zentrale Barriere 9% sehen rechtliche Probleme Big Data wird zukünftig ein zentrales Element bei der Steuerung von Unternehmen darstellen. Jedoch muss bei der Einführung sowie der Nutzung auf ein paar ganze wesentliche Parameter geachtet werden, die aus der absolut empfehlenswerten Interone-Studie „Big Context“ stammen: 1. Wissen, was man wissen will Wer Neuland betreten will, geht Risiken ein. Umso wichtiger ist es sicherzustellen, dass der erste Schritt erfolgreich ist. „Big Context“ schafft vielfältige neue Möglichkeiten. Um sich nicht zu verlieren, sollten Sie zuerst identifizieren, was Ihre „Big Context“ betritt zentrale Aspekte Ihres Unternehmens. Mittelfristig werden Marketer größere Daten-Kompetenzen aufbauen müssen. Gerade am Anfang ist es jedoch wichtig, den Stein ins Rollen zu bringen. Dafür ist externe Expertise hilfreich. 4. Experimentieren Sie Sie wollen mit „Big Context“ neue Wege gehen? Experimentieren Sie, formulieren Sie Hypothesen, und stellen Sie neue Fragen. Reduzieren Sie lieber die Zahl der Datensätze, als zu komplex zu werden. Häufig übersieht man bei Experimenten, dass man gerade eine wichtige Entdeckung gemacht hat. Viele der größten Innovationen sind zufällig entstanden. Quelle: Quelle: IDC, Oktober 2012 (n= 254, Angaben in Prozent) TechDivision GmbH Big Data – Vorsprung durch Wissen 8 Quelle: Quelle: IDC, Oktober 2012 (n= 254, Angaben in Prozent) 5. Bieten Sie bessere Erlebnisse und Emotionen Stellen Sie sicher, dass Ihre „Big Context“ Aktivitäten nicht zu technisch werden, sondern Ihren Kunden Mehrwerte in Form von höherer Relevanz, weniger Störung, neuer Services, besserer Kundenerlebnisse etc. bieten. Menschen wollen auch weiter emotional berührt werden und sich an guten Geschichten und Ideen erfreuen. Daten können hierbei unterstützen Quelle: Interone-Studie „Big Context“ http://bigcontext.interone.de/ Interessant sind hier auch die Ergebnisse einer im Oktober 2012 durchgeführten Studie von IDC zum Thema Big Data. Auf die Frage „Worin liegt Ihrer Meinung nach das Potenzial von Big-Data-Technologie auf Business-Ebene?“ kamen folgenden Antworten zustande: Und die Frage „Welche Geschäftsbereiche können den höchsten Business-Nutzen aus Big Data ziehen und welche Themen sind für Sie relevant?“ wurde wie folgt beantwortet: TechDivision GmbH Big Data – Vorsprung durch Wissen Insofern wird Big Data gerade im Hinblick auf die Kostenoptimierung aber auch zur allgemeinen Unternehmenssteuerung zukünftig in vielen Fällen nicht mehr wegzudenken sein. Fazit Das Thema Big Data ist sicherlich kein Hype-Thema mehr, sondern absolute Realität, die aktuell vielleicht noch nicht in allen Bereichen angekommen ist bzw. häufig noch in den Kinderschuhen steckt, aufgrund der immer weiter steigenden Datenmengen aber zukünftig selbst vor „Lieschen Müller“ nicht halt machen wird. Dabei wird sich das Wachstum der Datenmengen insbesondere durch Mobile Web und deren Nutzung sowie das Social Web zukünftig noch weiter beschleunigen. Daten werden zukünftig mehr und mehr zum Produkt! 9 Da Daten häufig sehr politisch sind, sollte das Thema Big Data zur Chefsache erklärt bzw. vom Chef nachhaltig überwacht und mitgetragen werden. Dabei wird der Wettbewerbsvorteil zukünftig nicht durch die Existenz bzw. die Generierung von Datenbergen, sondern vielmehr durch deren intelligente Verknüpfung entstehen. So hat Barack Obama – jetzt sind wir wirklich in der Politik – die beiden Wahlen zu einem nicht unerheblichen Teil über gezieltes Micro-Targeting gewonnen, indem rund 10 Terabyte an Rohdaten aus Webanalyse, Social Media, Apps, Soziodemographie, Medienplänen und -analysen, Anzeigenpreisen etc. von 100 Analysten ausgewertet wurden, um „Unentschlossene“ und „Bekehrbare“ in den Swing-States zu identifizieren und gezielt anzusprechen. (Quelle: Interone-Studie „Big-Data) In diesem Zusammenhang wird zukünftig auch ein neues Berufsbild Einzug in viele Unternehmen halten – der DataScientist. „Hilary Mason, Chief Data Scientist bei bit.ly und Meister dieser neuen Disziplin, hat Data Science einmal als Schnittstellenkompetenz beschrieben. Data Science liegt da, wo Computerwissenschaften, Statistik und Mathematik, Ingenieurskunst und „Hacking“, der neugierige, kreative Umgang mit Computern, Software und Algorithmen, zusammentreffen. Data Science ist ein multidisziplinärer Raum, in dem neue Ideen und Lösungen entstehen. Hilary Mason nennt die Menschen die diesen Raum bewohnen, „awesome nerds“.“ (Quelle: http://www.computerwoche.de/ a/wo-wissenschaft-und-business-it-zusammentreffen, Abschließen möchte ich mit einem Zitat von Florian Resinger, Head of Online Communication & Web Marketing bei BMW, der ebenfalls in der Interone-Studie auf die Frage, worauf Marketer achten sollten, sofern sie erste Schritte in die neue Datenwelt gehen möchten, folgendes geantwortet hat: „Die Kunst besteht nicht darin, Daten zu generieren, sondern handlungsrelevante Informationen zu erhalten. Angesichts der Fülle an Möglichkeiten muss man mehr denn je wissen, was man will, was man sucht und über welche Daten man bereits verfügt. Zudem sind Daten auch mit Vorsicht zu genießen. Häufig werden einmalig bestimmte Kennzahlen festgelegt und nicht wieder hinterfragt. Daten werden dann zu Automatismen und entwickeln eine Eigendynamik.“ Dem ist eigentlich nichts mehr hinzuzufügen. 2527192#) TechDivision GmbH Big Data – Vorsprung durch Wissen 10 Big Data – Modebegriff oder Trend Interview mit Dr. Michael May, Fraunhofer Institut IAIS Im letzten Jahr wurden weltweit 1,8 Zettabyte (1,8 x 1021 Byte) an Daten generiert. Glaubt man Expertenprognosen, so wird sich das Datenvolumen alle zwei Jahre verdoppeln. Das Potential von Big Data ist groß. Durch die automatische Erfassung von Daten, den Siegeszug von Smartphones und die Durchdringung aller Lebensbereiche durch Social Media wird das Datenangebot in Zukunft immer größer werden. Wir haben Dr. Michael May, den Big Data-Experten des Fraunhofer Instituts, interviewt, der uns über Potentiale, Möglichkeiten für Unternehmen und neue Herausforderungen durch Big Data aufklärte. Personen und Prozesse generieren weltweit immer mehr neue Daten und lassen das Datenvolumen stetig wachsen: 350 Billionen Meter Dokumente, 5 Millionen abgeschlossene Transaktionen pro Sekunde, 500 Millionen Online-Verbindungen. Daten aus Simulationen, Modellberechnungen, Social Media, etc. – die Datenflut wird immer größer. In diesem Zusammenhang liefern auch Facebook-Nutzer mit Kommentaren und „Likes“ wichtige Informationen, die Marktrends vorgeben. Ein anderes Beispiel sind Konsumenten, die ihren Verbrauch über intelligente Stromsysteme managen. IT-Systeme werden von den Datenlawinen regelrecht überrollt und sind mit der Auswertung meist überfordert. Experten-Info: Dr. May leitet seit 1998 die Abteilung Knowledge Discovery am Fraunhofer IAIS, die sich mit den Themen Data Mining, Maschinelles Lernen und Big Data befasst. Er leitet derzeit eine Anzahl von Big Data Projekten in Forschung und Wirtschaft und war für die vom deutschen Wirtschaftsministerium geförderte „Potentialanalyse Big Data in Deutschland“ verantwortlich. Seine Forschungsschwerpunkte sind derzeit die Data-MiningAnalyse von verteilten Data Streams sowie die Analyse von Telekommunikations- und Mobilitätsdaten. Welche Produkte kauft der Verbraucher von morgen? Welche Dienstleitungen und Services sind bei Zielgruppen gefragt und werden aktuell diskutiert? Und welche Trends kommen zukünftig auf uns zu? Big Data könnte diese Fragen beantworten. Doch ist das Thema mittlerweile auch bei deutschen Unternehmen angekommen und wird es hinreichend wahrgenommen? Oder ist das Thema nur ein Hype, der in naher Zukunft wieder abflauen wird? Dr. Michael May vom Fraunhofer Institut stellte sich unseren Fragen in einem Interview. TechDivision GmbH Big Data – Vorsprung durch Wissen 11 Interview mit Dr. Michael May TechDivision: Big Data – Modebegriff oder Trend? Ganz klar: Beides. TechDivision: Ab welcher Größenordnung spricht man von Big-Data? Gibt es heutzutage überhaupt noch „Small Data“? Wenn man von Big Data spricht, denkt man normalerweise an Datenmengen in den Größenordnungen von vielen Tera-, Peta- oder sogar Exabyte. Allerdings ist die Datenmenge (englisch: Volume) nur eines der drei kennzeichnenden Merkmale von Big Data. Die beiden anderen sind die Geschwindigkeit der Datenverarbeitung (Velocity) und die Vielfalt und Heterogenität (Variety) der Datenquellen. Zudem ist die Komplexität der Analyse ein zentrales Kriterium. Was für die eine Analyse, z. B. ein Text-Mining-Verfahren zur Sentiment-Erkennung, „Big Data“ ist, mag für das andere, z. B. eine simple Summenbildung nach Regionen, „Small Data“ sein. TechDivision: Warum denken Sie ist der Hype um „Big Data“ jetzt so groß? Der erste Grund ist die Verfügbarkeit immer größerer Datenmengen im Internet, aus Smartphones, aber auch in technischen Prozessen. Ein weiterer wichtiger Grund ist, dass in den letzten Jahren Open-Source-Tools zur Verarbeitung von Big Data breit verfügbar geworden sind, z. B. Hadoop. Sie haben einen gewissen Reifegrad erreicht, so dass sie für viele Unternehmen interessant werden. Und natürlich haben Google, Facebook & Co. gezeigt, wie ganz auf Big Data gebaute Geschäftsmodelle Unternehmen in sehr kurzer Zeit sehr reich machen können. Das beflügelt die Phantasie junger Start-Ups wie auch von Industriegiganten überall in der Welt. TechDivision: Welche Auswirkungen hat Big Data auf Unternehmen? TechDivision GmbH Big Data – Vorsprung durch Wissen Richtig verstanden ist Big Data in erster Linie kein Technologiethema – obwohl es natürlich großen technologischen Sachverstand braucht, um es umzusetzen. Es geht darum, Entscheidungsprozesse in Unternehmen zu verändern und zu automatisieren, indem man sie auf die intelligente, sehr zeitnahe Auswertung von Daten stützt, die im Geschäftsbetrieb anfallen. „Data Driven Enterprises“ heißt hier das Schlüsselwort. So verstanden können die Auswirkungen auf die Unternehmen fundamental sein. TechDivision: Welche Auswirkungen hat Big Data auf unsere Gesellschaft? Das beginnen wir gerade erst zu erahnen. Bei dieser Frage kommen ja fast reflexartig Fragen des Datenschutzes hoch. Aber man sollte darüber hinaus die positiven Aspekte, z. B. die Aussicht auf neue datengetriebe Entwicklungen in der Medizin, die Entwicklung energieeffizienterer Verfahren mit den positiven Auswirkungen auf die Umwelt oder auch die Chancen für eine validere Theorienbildung z. B. in der Soziologie, nicht vergessen. Ansätze zu letzterem erleben wir gerade in der Theorie sozialer Netzwerke, wo inzwischen dank Facebook oder Twitter-Daten empirische Quellen vorhanden sind, von denen man vor 15 Jahren nicht einmal träumen konnte. TechDivision: Bei Fraunhofer waren Sie maßgeblich an der Studie „Potenzialanalyse Big Data in Deutschland“ beteiligt. Welche Hauptergebnisse konnten Sie gewinnen? Die Potenzialanalyse wurde vom Bundeswirtschaftsministerium im Rahmen des TheseusProjektes gefördert. Wir haben existierende Business Cases analysiert, Zukunftsworkshops in sechs verschiedenen Branchen und eine Online-Befragung durchgeführt. Zusammengefasst lässt sich sagen: Grundsätzlich ist das Thema in Deutschland angekommen. Über viele Branchen hinweg denken Unternehmen über den Einsatz von Big Data nach. Innovationscenter und Big Data-Task Forces werden überall ins Leben gerufen. Aber es existieren auch Hemmnisse. Neben Problemen des Datenschutzes – ein in dieser Ausprägung sehr deutsches Phänomen – ist insbesondere die mangelnde Vertrautheit mit den neuen Technologien ein Problem. Was gegenwärtig am meisten benötigt wird, sind Orientierungshilfen wie erfolgreiche Use 12 Cases, Best Practices, Lösungsübersichten, aber auch Trainingsmaßnahmen. Das Jahr 2013 wird hier sehr spannend. TechDivision: Welche Handlungsempfehlungen geben Sie in Richtung Unternehmen? Jetzt mit Big Data zu beginnen und zu prüfen, wo für das eigene Unternehmen der Mehrwert und die neuen Geschäftsmodelle liegen. Technologisches Know-How aufbauen. Über wahrgenommene Hemmnisse im Datenschutz nicht nur klagen, sondern gegebenenfalls prüfen, wie sich mit datenschutzkonformen Angeboten speziell im deutschen Markt Wettbewerbsvorteile erzielen lassen. TechDivision: „Big Data“ in der Praxis – können Sie uns Beispiele nennen? TechDivision: Warum ist es wichtig Personal in diesem Bereich auszubilden? Mangelnde Expertise wurde in unserer Potenzialanalyse als eines der Haupthemmnisse identifiziert. Ausgebildetes Personal ist gegenwärtig am Markt nicht in ausreichendem Umfang verfügbar. Die neuen Technologien unterscheiden sich oft grundsätzlich von bisherigen Paradigmen z. B. im Bereich der Business Intelligence. Um identifizierte Chancen für das Geschäft wirklich nutzen zu können, ist es deshalb entscheidend, über geeignet qualifiziertes Personal zu verfügen. Neben der rein technischen Expertise ist es dabei wesentlich, eine Generation von Informatikern und Statistikern heranzuziehen, die in der Lage ist, technischmathematische Konzepte in Anwendungslösungen zu übersetzen. Das neue Berufsbild, das hierfür gebraucht wird, nennt sich „Data Scientist“. Am Fraunhofer IAIS bieten wir z. B. Schulungen an, um Mitarbeiter in Unternehmen gezielt in dieser Richtung zu qualifizieren. TechDivision: Gibt es inzwischen StandardTools bzw. -Software für den Umgang mit Big-Data oder ist das Ganze zu individuell und speziell für Standardisierung? TechDivision GmbH Der Markt ist noch zu sehr im Fluss, als dass man eine baldige Standardisierung erwarten könnte. Das Angebot an Open-Source- und kommerziellen Lösungen ist inzwischen nahezu unüberschaubar. Neben wirklich neuen und innovativen Lösungen erhält so manches lange verfügbare Produkt auch einen eiligen „Big Data-Anstrich“, wodurch die Landschaft noch unübersichtlicher wird. Auf lange Sicht wird es aber zu einer Konsolidierung kommen. Der Finanzbereich profitiert beispielsweise von Big DataTechnologie bei der automatischen Betrugserkennung in Kreditkartentransaktionen. Mit neuen sogenannten „InMemory“-Technologien ist es möglich, die riesigen Datenvolumina effizient und automatisiert nach neu auftauchenden Betrugsmustern zu durchsuchen. Eine entsprechende, vom Fraunhofer IAIS entwickelte, Technologie ist bereits bei Banken im Einsatz. Im Bereich der Social Media-Analyse haben wir eine Software entwickelt, welche mit intelligentem Text-Mining die vielen Millionen Postings eines Forums von Automobilnutzern analysiert und daraus Emotionen zu Automarken extrahiert. Nützlich ist das beispielsweise für Automobilhersteller zum Trendmonitoring. Und im öffentlichen Bereich entwickeln wir in einem Forschungsprojekt zusammen mit Anwendungspartnern gegenwärtig Werkzeuge, die TwitterNachrichten und andere Social Media-Daten mit intelligenten Text-Mining-Verfahren in Echtzeit analysieren, um sich frühzeitig ein Lagebild von einer Katastrophe machen zu können. Fazit Die größte Herausforderung von Big Data ist es, relevante Daten für eine effizientere Geschäftsstrategie zu erkennen. Meist ist es jedoch komplex, Informationen aus unübersichtlichen Datensammlungen herauszufiltern. Unternehmen stehen so zukünftig vor wettbewerbskritischen Herausforderungen. Big Data – Vorsprung durch Wissen 13 Big Data – Vorsprung durch Wissen Mit neuen Technologien zum datengestützten „Tante-Emma-Laden“ Hendrik Stange, Fraunhofer Institut IAIS Noch nie standen die Chancen besser, um als Unternehmen oder Kunde auf vielfältige Weise von der „Datenexplosion“ zu profitieren. „Tante Emmas“ Erben haben gelernt, dass es nicht nur auf eine effiziente Wertschöpfung ankommt, sondern dass man auch im E-Commerce-Zeitalter ein offenes Ohr für die Bedürfnisse der Kunden braucht. Der entscheidende Unterschied: Waren es früher wenige hundert Kunden, sind es heute Millionen Stimmen, die tagtäglich direkt oder indirekt mit den Unternehmen kommunizieren. Zusammen mit den innerbetrieblichen Daten aus den Wertschöpfungsprozessen liefert dies die Ausgangsbasis für innovative Veränderungen, wie intelligente Produkte, individualisierte Angebote und effizient ausgerichtete Prozesse. Jeder ging gern zu ihr in den Laden, denn „Tante Emma“ kannte ihre Kunden genau. Seit damals hat sich viel verändert, doch dieses natürliche Gespür und Fingerspitzengefühl für die Bedürfnisse und Interessen wollen Handelsunternehmen für ihre Kunden auch im Internet abbilden. Denn kaum eine Branche ist stärker darauf angewiesen, ihre Kunden besser zu verstehen und ihre Dienstleistungen sowie Angebote auf die jeweiligen Kundenbedürfnisse auszurichten, als der E-Commerce. Dies ist ein Grund, weshalb der IT-Branchenverband BITKOM den E-Commerce in einer Vorreiterrolle beim Einsatz von BigData-Technologien in Deutschland sieht. In Big Data steckt die Kraft innovativer Veränderung für einen besseren Kundenservice, individuellere Angebote und effizientere Prozesse in einem dynamischeren Marktumfeld. Den Wissensvorsprung, um den Markt zu gestalten, generieren die Unternehmen nicht mehr nur aus einzelnen Datenbeständen und manuellen Auswertungen. Vielmehr steckt das Potenzial in der automatisierten Echtzeit-Analyse verknüpfter Daten aus verschiedenen Quellen über die Grenzen eines Unternehmens hinweg. TechDivision GmbH Big Data – Vorsprung durch Wissen Ein Meilenstein für die datengetriebene Entwicklung ist die Vernetzung unseres Alltages. Smartphones, Tablets und zukünftig sogar Datenbrillen lassen die Grenzen zwischen digitaler und physischer Einkaufswelt verschwinden. Gleichzeitig erzeugen sie zusammen mit den klassischen Datenquellen entlang der Wertschöpfungsprozesse einen multidimensionalen Datenpool. Darin liegen wegweisende Herausforderungen für Unternehmen. So sehen wir beispielsweise eine zunehmende Emanzipation des Kunden, der sich fragt: „Wirklich (m)ein Angebot oder doch nur (t)eure Restposten?“ Der vernetzte Kunde validiert, evaluiert und vergleicht, und wird dabei zunehmend von Sensoren und Apps unterstützt. In der Folge wandeln sich seine Erwartungen und sein Verhalten und es steigen die Anforderungen an Unternehmen, ihre Angebote an den individuellen Bedürfnissen ihrer Kunden auszurichten. Dafür müssen die Unternehmen in den massiven Datenströmen lesen und die Daten vor allem im Kontext verstehen können. So hat Google gerade erst seinen Nutzeranalysedienst Universal Analytics als Nachfolger von Google Analytics lanciert und trägt dem 14 veränderten Nutzerverhalten durch ein geräteübergreifendes Tracking Rechnung. Big Data – groß, unterschiedlich, rasant Insgesamt steht das Phänomen Big Data heute erst am Anfang. Weltweit gehen die Schätzungen weit auseinander, wie tief der „Datenozean“ ist und wie schnell er sich weiter füllt. Unterm Strich wird man sich schnell einig, dass es so viele Daten sind, dass traditionelle Analysewerkzeuge an ihre Grenzen stoßen. Dabei sind es nicht nur die Datenvolumen allein, die Big Data ausmachen. Kennzeichnend für Big Data sind im Kern drei Eigenschaften, die auch als „3 V’s“ bezeichnet werden: Volume, Variety, Velocity. Volume steht für die große Menge der zu analysierenden Daten; Variety für deren Verschiedenartigkeit in Bezug auf Datentyp und Ursprung. Velocity beschreibt die hohe Geschwindigkeit der Datengenerierung und damit auch wie groß der Datenstrom ist, den es in Echtzeit zu analysieren gilt. Wobei man sich nicht einzelne Dateninseln wie etwa aus dem Kundenservice oder Warensystem ansieht, sondern möglichst alle relevanten Daten ganzheitlich betrachtet und analysiert. Das Potenzial von Big Data entfaltet sich somit erst durch die Verknüpfung der Datenbestände über Grenzen hinweg. Big-Data-Anwendungen In diesen Datenozeanen liegen wahre Schätze. So erklären es Big-Data-Experten und verweisen auf erfolgreiche Geschäftsanwendungen. Dabei sind es nicht mehr nur die Namen der Big 5 der Internetbranche – Yahoo, Google, Amazon, Facebook, Twitter – die genannt werden. Es sind Banken, Versicherungen, Pharmaunternehmen, Telekommunikations- und Industrieunternehmen, die BigData-Anwendungen aktiv für ihr Geschäft nutzen. Wissenschaftler des Fraunhofer-Instituts für Intelligente Analyse- und Informationssysteme IAIS haben weltweit 50 Big Data Anwendungen systematisch aufbereitet und dabei charakteristische Unternehmensbereiche je nach Branche identifiziert (siehe Abb. 1). Für den Handel zeigt sich der Schwerpunkt im Bereich „Marketing, Vertrieb und Kundenbetreuung“. Unternehmen starten mit ersten BigData-Anwendungen im Bereich der Absatzprognose, des Marktmonitoring oder Kundenfeedbackanalyse. Abb. 1: Anwendungen für Big Data je nach Branche und Unternehmensbereich (n=50, Quelle: Fraunhofer IAIS) TechDivision GmbH Big Data – Vorsprung durch Wissen 15 Wegbereiter wie Google, Yahoo oder Amazon zeigen, welcher Mehrwert in Big Data auch für den E-Commerce steckt. Wer sich anschaut, wie Google die verschiedensten Facetten des Internets in Millisekunden durchforstet oder das Nutzungsverhalten zu nutzerzentrierten Landkarten verdichtet, will auch selbst von derartigen Techniken profitieren, um die eigenen Daten zu analysieren und visuell zu explorieren. eCom-Roadmap Big Data Wo der Mehrwert für E-Commerce und für den Versandhandel liegt und welche Herausforderungen und Probleme gesehen werden, wurde von Branchenvertretern und Teilnehmern eines Zukunftsworkshops Big Data am Fraunhofer IAIS diskutiert. Das Ergebnis wurde aufbereitet, gebündelt und zu einer branchenspezifischen Roadmap speziell für den Online- und Versandhandel verdichtet. Die Möglichkeiten, Big Data im E-Commerce zu nutzen, sind ähnlich vielfältig wie der Variety-Aspekt bei Big Data. So wünschen sich Entscheider ganzheitliche Lagebilder zur aktuellen Geschäftslage mit allen Einflussfaktoren und Abhängigkeiten, ergänzt um Trendprognosen und Konsummuster vieler Millionen Menschen. Der gleichzeitige Blick auf Wettbewerb, Warenbestände, Bestellungen, Kunden und soziale Trends ist für die ECommerce-Branche von großer Bedeutung. Die Unternehmen versprechen sich gesteigerte Reaktionsfähigkeit und datengestützte Entscheidungen mit Weitblick. Kurzfristig unterstützen sollen u. a. EchtzeitMonitoring über die Verfügbarkeit bestimmter Artikel bei verschiedenen Händlern. Auch der Bereich SaaS/ Outsourcing und Kernkompetenzorientierung bleiben diskutierte Themen. Langfristig führt die rasante Vernetzung und Dynamisierung der Prozesse dazu, dass selbstoptimierende Verfahren nicht nur bei der Prozesssteuerung und Qualitätssicherung entscheidend mitwirken, sondern auch im Bereich Sicherheit und Kundenservice. Insbesondere im Kundendialog entstehen viele unstrukturierte Daten. So ist in den E-Mail-Rückfragen, Supportanfragen oder Beschwerden wie auch in den sozialen Medien, Blogs und Produkttests wertvolles Feedback zu den eigenen Angeboten und der Unternehmenswahrnehmung kodiert. Wozu Big Data im Stande ist, zeigt das Fraunhofer IAIS mit seiner EmotionsMonitoring-Infrastruktur (siehe Abb. 2) Mit intelligenten Verfahren aus dem Technologiestack „Smart Semantics“ können Emotionen zu verschiedenen Produkten bzw. Produkteigenschaften identifiziert werden. Dafür wurden im genannten Anwendungsfall über 30 Millionen Postings eines Community-Forums in kurzer Zeit ausgewertet. Wobei nicht einfach auf positiv oder negativ aufgeladene Worte geachtet, sondern der komplexe Sinnzusammenhang jedes Nutzerbeitrages beachtet wurde. Mit entsprechender Visualisierung ist das Resultat für jeden anschaulich nutzbar. Damit sind die Stimmungen und Meinungen der Kunden nicht nur für den Kundenservice, die Produktentwicklung oder das Qualitätsmanagement verwendbar. Auch das Online-Marketing profitiert vom Monitoren der Stimmungslage. Insbesondere im Online-Marketing sehen Branchenvertreter gegenwärtig den individualisierten Transport von Markenkern-Botschaften im Fokus. Am Ende steht ein „Social Context Aware Advertising“, das dezent begleitet und vor allem punktgenau ins Bewusstsein des Konsumenten rückt. Abb. 2: Engineering Emotions mit Smart Semantics auf Big Social Data TechDivision GmbH Big Data – Vorsprung durch Wissen 16 Über den Erfolg entscheidet am Ende, wer weiterhin verkauft. So werden die Produktpräsentationen in OnlineShops zunehmend komplexer und beziehen den Konsumenten mit ein. Die Möglichkeit, ein Foto des Kunden einzufügen, um „anzuprobieren“, die neue Schrankwand virtuell schon im eigenen Zimmer zu bewundern oder die Information zum Wein im Brillenglas zu lesen – dieses „Augmented Shopping“ erfordert Werkzeuge für das Verarbeiten und Auswerten großer Datenmengen in Echtzeit. Grundlage der ersten Erkenntnisse ist das weitere Vorgehen zu strukturieren und messbare Erfolgskriterien für die Fortführung des Dachprojektes zu bestimmen. Am Ende wird Big Data Excellence erreicht, wenn ein kontinuierlicher, datengestützter Verbesserungsprozess in der Wertschöpfung etabliert ist. Infobox: Best Practice: Roadmap Big Data Eine Vielzahl verschiedener Big-Data-Werkzeuge und Technologien steht bereit, die alle auf den Wissensvorsprung in Echtzeit abzielen. Big Data Excellence erreichen Unternehmen in der Praxis über ein agiles, iteratives Vorgehen. Das Fundament bildet das Wissen um Big Data und eine unternehmenseigene BigData-Strategie. Aus der strategischen Bedeutung heraus ergibt sich die Notwendigkeit der Unterstützung durch das Management. Für eine zentrale Fragestellung kann eine vorgelagerte Pilotstudie erste Antworten liefern und Risiken, Mehrwerte und Kosten besser abschätzen lassen. Über die Definition konkreter Use Cases erarbeitet ein interdisziplinäres Projektteam einen Proof-of-Concept. Auf TechDivision GmbH Big Data – Vorsprung durch Wissen Big-Data-Werkzeuge Smart Semantics ist ein Technologiebündel, um Social Data zu analysieren. Es kombiniert statistische und linguistische Verfahren, um Inhalte, Meinungen und implizite Beziehungen in geschriebenen Aussagen aufzudecken. Ein Anwendungsbeispiel ist die Verbindung von Kundenfrustration mit CRM und Qualitätsmanagement. Mobile Analytics erschließt das Verhalten der Nutzer und liefert Customer Insights. Eingesetzt werden Methoden zur Mustererkennung, regelbasierten Beschreibung von Verhaltensweisen oder Besucherstromanalysen. Die Außenwerbung nutzt Mobile Analytics. 17 Abb. 3: Lambda-Architektur für Big Data (Quelle: Fraunhofer IAIS) Visual Analytics setzt den Entscheider ans Steuer. Interaktive Visualisierungstechniken zur Darstellung komplexer Resultate und Echtzeit-Dashboards werden kombiniert mit Ad-hoc-Analysefunktionalität (z. B. Clustering). Den Grundstein für Big Data Analytics legt eine flexible und skalierbare Architektur. Beispiele wie die LambdaArchitektur von Nathan Marz (siehe Abb. 3) kombinieren die schnelle Analyse einkommender Daten mit komplexeren, weniger zeitkritischen Analysen im Batch. Wie die Architektur mit Softwareprodukten – gleich ob kostengünstige Open-Source oder kommerzielle Lösungen – instanziiert wird, hängt vom konkreten Setting ab. Dies birgt allerdings auch Gefahren. Alle Entscheidungen im Kontext von Big Data setzen ein umfassendes Verständnis der Konzepte und Technologien voraus. Nicht jede – wenn auch frei nutzbare – Lösung ist für den jeweiligen Zweck geeignet. Es überrascht nicht, dass erste Unternehmen enttäuscht von ihren ersten Gehversuchen mit Big Data zurückkehren. Laut einer Innovationspotenzialanalyse (www.bigdata-studie.de) wünschen sich 95% der Unternehmen gezielte Förderung in Form von Best Practices und Trainings, gefolgt von Anbieter- und Lösungsübersichten. TechDivision GmbH Big Data – Vorsprung durch Wissen Data Scientists – die Architekten von Big Data Die Architekten des Erfolgs sind Data Scientists. Eine Berufsgruppe mit Zukunft. US-Marktforscher Gartner schätzt den Bedarf an Data Scientists weltweit auf über vier Millionen. Schulungsangebote zum Data Scientist werden deshalb zunehmend angeboten. Für den Einstieg in Big Data ist es jedoch wichtig, erst einmal von Einzeltechnologien zu abstrahieren und sich modular einzelnen Aspekten wie BigData-Architekturen, Big Data Analytics oder Visual Analytics zu widmen. Anwendungsorientierte Angebote arbeiten direkt in einem Living Lab Big Data, um Technologien und Lösungsansätze anhand praktischer Anwendung „anfassbar“ zu machen und Best Practices zu vermitteln. Vertrauen in Daten Weitere Hindernisse für den Einsatz von Big Data sieht jedes zweite Unternehmen im Bereich Datenschutz & Datensicherheit und dem Setzen der richtigen Prioritäten. Dabei sind der Schutz der Privatsphäre und das Extrahieren relevanter Informationen für individuelle Angebote längst kein Widerspruch mehr. Viele Bedenken bei den Kunden sind ursächlich meist auf negative Vorfälle oder fehlenden Transparenz zurückzuführen. Offenheit im Umgang mit Big 18 Data und gleichzeitig ein striktes Umsetzen des „Privacy by Design“-Konzeptes machen Datenschutz und Informationssicherheit zum integralen Bestandteil jedes Produktes oder Services. Aber auch die Politik ist gefordert, die Rahmenbedingungen für einen modernen Datenschutz zu schaffen. Big Data bedeutet aber auch aktive Sicherheit für den Kunden. Neue Fraud-Mining-Technologien erkennen zuverlässig Betrugsversuche mit Informationen aus Big Data. Der entscheidende Mehrwert entsteht durch die Kombination verschiedener Daten und setzt auf die komplexe Vernetzung der Fakten zu nachvollziehbaren Entscheidungen, warum ein Vorgang als verdächtig eingestuft wurde. Diese Vernetzung und der Einsatz semantischer Verfahren bieten schon heute den Wissensvorsprung in Bezug auf den Wahrheitsgehalt der teils subjektiven oder fehlerhaften Daten. Fazit Mit Big Data können die Unternehmen auf einen Technologiebaukasten und intelligente Analysewerkzeuge zugreifen, die es ermöglichen, datengetriebene Entscheidungen im übergeordneten Kontext zu treffen und gleichzeitig mit Gespür für den jeweiligen Kunden und dessen Situation überzeugende Angebote zu offerieren. Es ist diese ganzheitliche Sicht, die den Wert von Big Data ausmacht. Mit der Verfügbarkeit von immer mehr Datenbeständen und dem gezielten Erfassen neuer Daten wächst auch Big Data mit seinen Aufgaben. Unternehmen können auf Best Practices und umfangreiches Know-how zu Big Data zugreifen. Die Technologien zur Verarbeitung und Auswertung sind kostengünstig nutzbar und Daten können in jeglicher Form verarbeitet werden. Alles zusammen bildet die Basis für neuartige Wertschöpfungsmodelle – in jeder Branche. Big Data – zwischen Urheberrecht und Datenschutzrecht Interview mit Dr. Clemens Wass, Rechtsexperte Big Data steht nicht nur für große Datenmengen, sondern auch für unstrukturierte Informationen aus den verschiedensten Bereichen. Daten werden in kürzester Zeit gesammelt, analysiert und ausgewertet. Je größer der Datenberg wird, desto größer ist auch die Gefahr des Missbrauchs und Kontrollverlustes. Big Data Anwendungen haben nicht nur großes Potential für die Wirtschaft, sondern können auch zur Lösung gesellschaftlicher Probleme beitragen. Umfangreiche Daten-Analysen treffen jedoch nur dann auf die Akzeptanz der Verbraucher, wenn der Datenschutz auf hohem Niveau gewährleistet ist. Wir haben uns mit dem Rechtsexperten Dr. Clemens Wass über Big Data und die rechtlichen Rahmenbedingungen unterhalten – ein Experteninterview. TechDivision GmbH Big Data – Vorsprung durch Wissen 19 Big Data vs. Privatsphäre? Im Zeitalter großer Datenberge lassen sich ziemlich präzise Vorhersagen über die Eigenschaften von Facebook-Nutzern machen. Egal, wie sehr Facebook die Daten seiner User auch schützen mag, durch die Kombination aller vorhandenen Daten können exakte Prognosen über einzelne Nutzer gemacht werden – das behaupten zumindest viele Daten-Wissenschaftler. „Die meisten Menschen denken, aus ihren Facebook-Posts lasse sich nichts Spannendes herauslesen. Aber das stimmt nicht. Data-Wissenschaftler können mit diesen Daten sehr wohl etwas anfangen. Indem sie Verbindungen zu ihren Freunden mit berücksichtigen, lassen sich Eigenschaften wie die Intelligenz oder ihre politische Einstellung mit einer bemerkenswerten Präzision vorhersagen“, so der MITProfessor Erik Brynjolfsson. Der entscheidende Punkt ist es, zwei Datenquellen zusammenzuführen. Dann können anonymisierte Daten Personen zugeordnet werden. Unternehmen nutzen diese Kenntnisse bereits, indem sie Gutscheine aufs Handy zusenden und dabei Informationen über Einkäufe im Netz mit Smartphone-Daten zum Aufenthaltsort verschiedener Personen miteinander verknüpfen. Laut Aussagen des Daten-Wissenschaftlers Brynjolfsson gibt es bereits eine Reihe von Start-Up Unternehmen, die sämtliche öffentliche Informationen über Menschen sammeln und zu Profilen zusammenfassen. Die Folge ist das Verschwinden von Privatsphäre. Bundesverbraucherministerin Ilse Aigner bezeichnete die großen Datenmengen auf dem „Safer Internet Day 2013“ als „das Gold des digitalen Zeitalters“. In diesem Zusammenhang sei es auch notwendig, klare Regeln und Grenzen für die Datennutzung zu definieren. So müsse gerade bei Big Data-Anwendungen der Datenschutz bereits im Design berücksichtigt werden und die Selbstbestimmung der Betroffenen gewahrt bleiben, indem Nutzer aktiv einwilligen müssen. Dies würde vor allem dann gelten, wenn Nutzerprofile gebildet werden, so Aigner. Eine Massenauswertung ist nur bei effektiv anonymisierten Daten gerechtfertigt. Laut Aigner reiche es hier nicht, nur Namen zu löschen, denn Bewegungsdaten könnten auch einfach ohne Namen oder Telefonnummer zugeordnet werden, wenn beispielsweise jemand bestimmte Aufenthaltsorte einer Person kennt. TechDivision GmbH Big Data – Vorsprung durch Wissen BITKOM-Präsident Prof. Dieter Kempf ergänzte auf der Veranstaltung „Safer Internet Day 2013“, dass durch die fortschreitende Digitalisierung in den Bereichen Energie, Gesundheit, Verkehr, Bildung und öffentliche Verwaltung das Datenvolumen noch mehr wachsen wird: „Der Wert digitaler Infrastrukturen liegt in der sinnvollen, kontrollierten Nutzung von Daten zum Wohl des einzelnen Menschen sowie der Gesellschaft insgesamt.“ Ilse Aigner fordert, eine EU-Datenschutz-Grundverordnung zügig voran zu bringen und europaweit durchzusetzen, um Verbraucher und Internetnutzer ausreichend schützen zu können. Das Datenschutzrecht müsse endlich auch im Informationszeitalter verankert werden – und das auf europäischer Ebene. Angesichts immer perfekterer Aufzeichnungs- und Analysetechniken sei eine breite Debatte über den Datenschutz notwendig. So sei es jetzt wichtig, den Rahmen für Datenschutz und Big Data festzulegen, bevor es zu spät sei, erklärt Aigner. Experten-Info: Dr. Clemens Wass, MBL, MBA, ist ausgebildeter Wirtschaftsjurist mit langjähriger Berufserfahrung in internationalen Technologie-Unternehmen. Neben verschiedenen innovativen rechtlichen Projekten ist Dr. Wass Unternehmensberater (Schwerpunkt Innovationsmanagement, geistiges Eigentum und Datenschutz) sowie externer Lektor an der Wirtschaftsuniversität Wien am Institut für Entrepreneurship & Innovation. 20 Interview mit Dr. Clemens Wass TechDivision: Welche rechtlichen Rahmenbedingungen sind zu beachten, wenn mit Big Data gearbeitet wird? Big Data ist ein neuer Begriff, den die Rechtsordnung als solchen nicht kennt. Wie bei vielen Trends wird über genaue Definitionen in Fachkreisen noch diskutiert. Wenn wir Big Data jedoch simplifiziert als eine große Anhäufung von Datenmengen betrachten und uns überlegen, was man mit Daten alles machen kann, wird schnell klar, dass weite Bereiche der Rechtsordnung betroffen sein können. Dennoch treten aus der Masse von anwendbaren Normen sicherlich das Datenschutzrecht und das Urheberrecht hervor. Die Situation ist im weitesten Sinn europaweit vergleichbar, da hier eine gewisse Harmonisierung aufgrund einschlägiger Richtlinien existiert. Selbstverständlich kommen auch etliche verwaltungsrechtliche Vorschriften oder auch das Wettbewerbsrecht hinzu. Viele Fragen sind für Juristen komplett neu, so wie das Recht häufig der Technologie zeitlich hinterherläuft. Oft wird erst die Rechtsprechung bei der Auslegung der einzelnen Gesetze in Bezug auf Big Data Gewissheit und Vertrauen schaffen. Jedoch müssen sich Unternehmen dennoch so gut wie irgendwie möglich mit den rechtlichen Aspekten der Thematik auseinandersetzen, um kein unnötiges wirtschaftliches oder rechtliches Risiko einzugehen und auch um Kunden nicht zu verärgern. Es sind bereits einige Unternehmen zu beobachten, die gerade das publikumswirksame Thema Datenschutzrecht – bei dem es schließlich um den Schutz der Privatsphäre eines jeden von uns geht – gezielt auch zur Schaffung eines USPs und zu Marketingzwecken einsetzen. Nämlich durch datenschutzkonformen Umgang, der auch klar mitgeteilt wird. TechDivision: Dürfen Unternehmen und Entwickler einfach große Datenmengen nach Lust und Laune auswerten und verwenden? Auch hier ist zuallererst die Frage zu stellen, um welche Daten es sich handelt. Sind es tatsächlich die eigenen Daten TechDivision GmbH Big Data – Vorsprung durch Wissen eines Unternehmens und sind keine personenbezogenen Daten betroffen, wird es weniger Probleme geben, als wenn die Daten von Dritten stammen und private Informationen über Menschen enthalten. Ich muss die Privatsphäre der Betroffenen achten und ich darf auch aus urheberrechtlicher Sicht nicht einfach die Datenbank eines anderen ohne Genehmigung anzapfen, selbst wenn ich dies technisch über Schnittstellen könnte. Die Versuchung ist selbstverständlich groß, alle Daten zu verwenden und auszuprobieren, was man damit machen kann. Die Datenbestände erscheinen derzeit wie eine große Kiste mit LEGO Bausteinen und Unternehmen und Entwickler probieren einfach aus, welche innovativen Anwendungen damit geschaffen werden können. Nach Lust und Laune geht es allerdings sicher nicht, auch wenn es Spaß macht und selbst wenn dabei Wert geschaffen wird. Unternehmen müssen sich im Rahmen der Gesetze bewegen. So lästig gewisse rechtliche Vorschriften auch mitunter erscheinen mögen, letztlich können wir doch froh sein, dass diese uns ein gewisses Schutzniveau bieten. Selbst in den USA, wo gerade die Google Brille vorgestellt wird, und wo Datenschutz typischerweise weniger Beachtung findet als in Europa, wird der Ruf nach rechtlicher Klarheit laut. Persönlich möchte ich nicht, dass mittels Google Brille und Gesichtserkennung sofort jeder auf der Straße beispielsweise meinen Beruf, meine Adresse, meine Telefonnummer und meinen Freundeskreis etc. kennt – von sensiblen personenbezogenen Daten, wie etwa Gesundheit, ganz abgesehen. TechDivision: Was geschieht, wenn personenbezogene Daten betroffen sind oder wenn auf fremde Datenbanken zugegriffen wird? Wenn personenbezogene Daten ins Spiel kommen, findet das Datenschutzrecht Anwendung. Dies kann jedoch unterschiedlich ausgestaltet sein, je nachdem wo der Betreiber seinen Sitz hat und je nachdem welches nationale Recht anwendbar ist. Grundsätzlich gilt im Datenschutzrecht: Es ist unzulässig personenbezogene Daten zu verarbeiten, außer wenn ich eine spezielle Rechtfertigung dafür habe, wie etwa eine gesetzliche oder eine vertragliche Ermächtigung. In Kundenbeziehungen ist es daher so, dass der Nutzer der Verarbeitung ausdrücklich zustimmen muss. Zudem kommt, dass der Grundsatz der Sparsamkeit im Umgang mit Daten gilt. Es dürfen die Daten 21 wirklich nur für den Zweck verarbeitet werden, für den der Nutzer diese zur Verfügung gestellt hat. Natürlich fragt man sich bei der Taschenlampen-App, die man sich für sein Smartphone heruntergeladen hat, dann schon, warum diese auf die GPS Position zugreifen möchte. Vorteil hier ist, dass Smartphones bei der Installation von Apps zumindest teilweise darauf hinweisen, welche Daten übermittelt werden, was immerhin ein Anfang ist. Wenn ein Unternehmen oder auch ein privater ohne Genehmigung, also ohne jegliche Lizenz, auf fremde Datenbanken zugreift, befinden wir uns typischerweise im Leistungsschutzrecht des Urheberrechts. Der Hersteller einer Datenbank, für die eine wesentliche Investition erforderlich war, hat weitreichende Rechte an seiner Datenbank. Selbstverständlich kann er den Zugang untersagen, aber auch mitunter angemessenes Entgelt bzw. Schadenersatz fordern. Unter Mitbewerbern kann auch ein Verstoß gegen das Wettbewerbsrecht vorliegen. Solche Themen sind nicht neu, selbst die Verlinkung von Inhalten kann je nach Ausgestaltung schon eine Ausbeutung der Leistung eines anderen darstellen. TechDivision: Sie führten ja auf eigene Initiative eine Befragung mehrerer Unternehmen durch, wie diese mit Daten umgehen. Wie sind Sie vorgegangen und was waren Ihre Ergebnisse? Ich habe im Juli 2011 51 österreichische Unternehmen und Institutionen kontaktiert, zu denen ich einen persönlichen Bezug hatte, und um Auskunft hinsichtlich der über mich gespeicherten Daten gebeten. Ich wollte wissen, woher sie die Daten haben, wozu sie die Daten verwenden, an wen sie die Daten weitergeben, ob Daten ins Ausland übermittelt werden, etc. Die Auswahl war umfassend und hat verschiedenste Branchen umfasst, wie etwa meine Banken und Versicherungen, Einzelhandelsunternehmen bei denen ich eine Vorteilskarte habe, meine früheren Arbeitgeber, IT Unternehmen, bei den ich einen Account habe, Telekommunikationsunternehmen etc. Grundlage war der datenschutzrechtliche Auskunftsanspruch, den jeder Bürger in der EU gegenüber datenverarbeitenden Unternehmen hat. Die Erkenntnisse waren durchaus spannend. Ich hatte eine Rücklaufquote von beachtlichen 95%, was natürlich aber auch daran liegen mag, dass ich Jurist bin und die Anfrage per eingeschriebenem Brief verschickt habe – aber immerhin. Die Qualität der Beantwortung war sehr TechDivision GmbH Big Data – Vorsprung durch Wissen unterschiedlich, auch wenn alle beteuert haben, wie wichtig ihnen das Thema ist. Während einige sehr professionell geantwortet haben, mitunter sogar unter Hinzuziehung von Datenschutz- und Datensicherheitsexperten, wussten andere noch nicht einmal, dass Nutzer ein solches Auskunftsrecht haben. Nur wenige reagierten beleidigt auf meine Anfrage, der Großteil war sehr interessiert und hat dies zum Anlass genommen, sich besser über dieses Thema zu informieren. Ein großes und bekanntes Möbelunternehmen hat sogar extra einen Experten engagiert, um Prozesse neu zu organisieren. Hier zahle ich dann auch gerne weiterhin mit meiner Kundenkarte. Durch die Anfrage sind einige falsche oder widersprüchliche Informationen aufgetaucht, die ich als Betroffener selbstverständlich korrigieren lassen kann. Interessant waren für mich auch vergangene Befunde aus meiner Krankenakte, an die ich mich schon fast nicht mehr erinnern konnte. Bezeichnend war schließlich auch, dass viele Unternehmen gar nicht wussten oder recherchieren konnten, welche Daten sie über mich haben. Gerade bei einzelnen IT Unternehmen weiß ich, dass dort mehr Daten von mir vorhanden sind, weil ich weiß, dass ich diese Daten einmal preisgegeben habe. Ich unterstelle den Unternehmen nicht, dass sie dies absichtlich bei der Beantwortung zurückgehalten haben. Ich vermute eher, dass sie einfach selbst nicht immer wissen, wo die Daten sind. Bei der Frage hinsichtlich der Übermittlung ins Ausland kamen relativ wenige Antworten, obwohl dies aufgrund von Cloud Services und Informationsverbundsystemen in Konzernen vermutlich deutlich mehr hätten sein müssen. TechDivision: Welche Gefahren sehen Sie durch „Big Data“? Big Data ist klarerweise auch der nächste große Schritt hin zum gläsernen Menschen und zu Utopien wie von Orwell und Huxley. In einer Hollywood Komödie rief ein ehemaliger Agent einmal bei der CIA an und wollte Geheimdienstinformationen über seinen zukünftigen Schwiegersohn. Die Auskunft wurde ihm verwehrt, aber zugleich wurde er auf eine Internetsuchmaschine verwiesen mit der Aussage: "Wir wissen auch nicht mehr als die!". Und tatsächlich: Wenn man sich gewisse Transparenzberichte großer IT Unternehmen ansieht, geht daraus klar hervor, dass die Anfragen von staatlichen Einrichtungen an Internetdienstleister stark ansteigen. Wir alle sind bereits 22 heute wesentlich transparenter als vor der Zeit des Internet. Ängste zu schüren ist natürlich keine Lösung, aber wir dürfen das Thema Privatsphäre nicht ignorieren. Weder aus privater noch aus unternehmerischer Sicht. TechDivision: Welche Chancen sehen Sie durch „Big Data“? Die Analyse von großen Datenmengen bietet ungeheuere Möglichkeiten. Ich bin mir sicher, dass in beinahe jedem Lebensbereich Big Data Analysen möglich sein werden. Es gibt nur weniges, was man nicht messen kann. Und was man messen kann, kann man dank neuer Technologien immer besser analysieren. Dadurch wächst oft der Komfort, es werden neue wissenschaftliche Erkenntnisse erzielt, es wird ein höherer volkswirtschaftlicher Nutzen erzielt, was in einer Wissensgesellschaft natürlich von großer Bedeutung ist. Die Fabriken der Zukunft stehen schon heute in unseren Köpfen – oder in unseren Rechenzentren. Wenn ich nur in einen mir nahen Anwendungsbereich, die Rechtsinformatik, sehe, dann kann ich mir vorstellen, dass Big Data zu mehr Transparenz im Recht führen kann, zu besseren und faireren Entscheidungen, zu einer stärkeren direkten Demokratie, und somit letztlich zu mehr Gerechtigkeit. Dieser soll das Recht schließlich dienen. Aber auch hier ist Vorsicht angesagt, etwa beim Schutz von Minderheiten. Denn nur weil eine Million "Likes" zu einem Thema eine Datenbank befüllen, heißt dies noch lange nicht, dass dies aus einer umfassenden gesellschaftlichen Sicht auch so erwünscht ist. TechDivision: Wie können sich Menschen am besten gegen Missbrauch ihrer Daten schützen? Jeder Mensch muss letztlich für sich selbst entscheiden, wie er mit dem Schutz seiner Privatsphäre umgehen möchte. Je mehr Daten ich preisgebe, desto größer ist das Missbrauchsrisiko. Es kommt aber natürlich auch darauf an, wem ich die Daten gebe. Zum Glück gibt es oft noch die Wahl, obgleich wir den Komfort zunehmend gewohnt werden und nicht mehr darauf verzichten wollen. Ich kann im Supermarkt noch mit Bargeld bezahlen, dann bin ich anonym. Bei Zahlung mit meiner Bankomatkarte lassen sich schon starke Muster erkennen, etwa wo und wieviel ich bei wem einkaufe. Wenn ich dazu noch eine Kundenkarte zum TechDivision GmbH Big Data – Vorsprung durch Wissen Sammeln von Punkten verwende, bin ich schon ein sehr gläserner Kunde. Wenn ich im Internet neue Cloud Services nutze, verwende ich häufig ein Log-In, wodurch auch hier die Transparenz steigt. Wenn ich US-Lösungen verwende, kann dank Patriot Act auch der dortige Geheimdienst mitlesen. Für Interessierte empfiehlt es sich, Auskunft- und Richtigstellungsbegehren zu stellen. Dies ist gegenüber europäischen Datenverarbeitern verhältnismäßig unkompliziert und kann sehr aufschlussreich sein. Je nach Antwort kann ich dann entscheiden, ob ich zu einem anderen Anbieter wechsle, und dann am besten gleich auch beim alten Datenverarbeiter den Antrag auf Löschung meiner Daten stelle. Ob dies dann tatsächlich auch passiert ist eine andere Frage, denn das Problem bei datenschutzrechtlichen Verstößen ist, dass sie oft unsichtbar sind. Wenn meine Brieftasche gestohlen wird, merke ich es bald. Wenn meine Privatsphäre verletzt wird, passiert das oft nur still und heimlich. Fazit Laut Prof. Kempf unterstützt die IKT-Branche das Vorhaben der EU, den Datenschutz in Europa auf ein einheitliches Niveau zu bringen. Dabei müsse aber verhindert werden, dass die neuen Regelungen eine sinnvolle Nutzung von Daten zu stark einschränken oder sogar unmöglich machen. So besteht die Gefahr, dass die bereits eingegrenzten Freiräume für eine zuverlässige Datenverarbeitung weiter eingeengt werden und mit bürokratischen Informations- und Dokumentationspflichten überladen werden. Kempf verdeutlicht, dass nur ein sinnvoll eingesetzter Datenschutz Vorteile bringt. In diesem Zusammenhang sei es Aufgabe der Gesetzgeber, Anreize zu schaffen, damit Daten anonymisiert oder verschlüsselt verarbeitet werden, um Missbrauch zu verhindern. 23 Big Data und Customer Journey – Träume werden wahr... Thorben Fasching, hmmh Die Customer Journey in Online Shops wird heute zwar vielfach analysiert, ein wirklicher Mehrwert für den Kunden entsteht dadurch häufig aber nicht. Es hakt nicht selten am richtigen Wissen, um geeignete Ableitungen aus den Analysen zu bilden. Oft können mit Unterstützung von kompetenter Seite die vorhandenen Problemstellungen gelöst und die Relevanz der Marketingaktivitäten deutlich erhöht werden. Sie wissen, dass Ihre Kunden durchschnittlich vier Werbemittelkontakte benötigen, bis diese ihren Kauf abschließen und dass dieser Prozess in etwa zwei Tage dauert. Welchen Nutzen ziehen Sie aber aus diesen Informationen? Die entsprechenden Datengrundlagen sind meist vorhanden, aber es fehlt an sinnvollen Verwendungsmöglichkeiten dafür. Hürden der Customer Journey Betrachten wir beispielsweise folgenden Case: Sie sind ein Multichannel Händler, der sowohl über einen Online Shop, als auch stationäre Ladengeschäfte verfügt. Selbstverständlich bedienen Sie verschiedene Online Marketing Kanäle wie SEA, Affiliate und weitere. Ihre Kunden kommen nun an verschiedenen Stellen mit den Marketingaktivitäten Ihres Unternehmens in Berührung und bilden damit die jeweilige Customer Journey ab. Doch was passiert mit den Kunden, die sich online über Ihre Produkte informiert haben und offline gekauft haben? Die reine TechDivision GmbH Big Data – Vorsprung durch Wissen Online-Betrachtung der Customer Journey Analyse weist diese Ketten als abgebrochen aus, obwohl diese Kunden nachweislich Umsatz eingebracht haben. Das Ergebnis: Sie ziehen falsche Schlüsse aus diesen Ketten. Ein leider immer noch häufig auftretendes Phänomen im Online Marketing ist das Gießkannenprinzip. Die Werbebotschaften der Advertiser erreichen die Kunden oftmals zur falschen Zeit am falschen Ort. In welcher Phase sich dieser in der Customer Journey befindet, wird häufig nicht mit in die Aussteuerung der Werbemittel miteinbezogen. Die Folge sind Streuverluste und damit verlorenes Budget. Ein prominentes Beispiel ist an dieser Stelle Retargeting. Aus eigener Erfahrung können Sie sicherlich von Fällen berichten, in denen Sie online in verschiedenen Online Shops nach bestimmten Produkten recherchiert haben und danach noch wochenlang durch Retargeting-Banner wieder angesprochen wurden – dabei haben Sie das Produkt entweder offline gekauft haben oder das Interesse verloren. In beiden Fällen ist aus Sicht der Advertiser festzustellen: Das investierte Marketingbudget wird in diesem Fall keinen messbaren Return mehr erwirtschaften. 24 Der Fokus der Marketingaktivitäten von Unternehmen liegt häufig auf Neukundengenerierung. Bereits 2008 stellte Prof. Dr. Gerrit Heinemann in seinem Buch „Multi-ChannelHandel: Erfolgsfaktoren und Best Practices“ fest, dass es bis zu zehn Mal teurer ist, Neukunden zu gewinnen, als Bestandskunden an das Unternehmen zu binden. Aufgrund des immer stärker werdenden Wettbewerbs in den Online Marketing Kanälen wird es immer teurer, Neukunden zu generieren und bestehende Kunden werden vernachlässigt. Dabei ist das Potenzial der Bestandskunden häufig noch nicht ausgeschöpft. Wie können diese Herausforderungen durch Big Data Analysen gelöst werden? Um geeignete Schlüsse aus den Big Data Analysen für die Customer Journey zu ziehen, bedarf es zuerst der richtigen Datengrundlage. Das bedeutet, dass ausnahmslos alle Kundendaten, sofern dies datenschutzrechtlich gebilligt ist, intelligent miteinander verknüpft werden müssen. Dies schließt sowohl Onsite-, als auch Offsite-Daten von Drittanbietern ein. Nur wenn diese Grundlage geschaffen ist, lassen sich akkurate Schlüsse aus diesem Datenberg ziehen. Big Data ermöglicht Ihnen, Ihre Kunden besser kennen zu lernen als jemals zuvor. In Zukunft legen Sie keine Zielgruppen a priori mehr für Ihre Produkte fest, sondern diese basieren auf datengestützten Analysen. Weiterhin können diese Analysen zu dem Ergebnis führen, dass Sie nicht mehr die große, relativ unscharfe Zielgruppe definieren, sondern viele Kunden-Cluster mit sehr präzise definierten Interessen, da diese am affinsten sind. Optimalerweise lernt die Software mit jedem Kunden dazu. Sie erhalten von allen Kunden Informationen darüber, für welche Produkte sie sich interessiert haben und welche Produkte sie im Verbund gekauft haben. Auch wenn nicht jeder Kunde exakt die selben Interessen hat, lassen sich doch häufig Bewegungsmuster erkennen, die Ihnen TechDivision GmbH Big Data – Vorsprung durch Wissen ermöglichen, ähnlichen Kunden Produktempfehlungen während oder nach dem Einkauf auszusprechen. Die gesammelten Daten können Sie auch extern zur Online Marketing Steuerung verwenden. Ziel sollte sein, die Customer Journey bestmöglich auszugestalten und an jedem Touchpoint mit relevanten Informationen einen echten Mehrwert zu liefern – basierend auf historischen Daten ähnlicher Kunden (sogenannter Look-alikes) werden die nächsten Touchpoints gewissermaßen vorhersagt und darauf aufbauend die passende Werbebotschaft ausgesteuert. Ein denkbares Szenario wäre beispielsweise, dass ein Kunde, der an Testberichten zu einem Produkt interessiert ist, gezielt mit Werbebotschaften angesprochen wird, in denen der Advertiser sein Produkt als Testsieger platziert. Diese Relevanzsteigerung der Marketingaktivitäten resultiert in einer höheren Effizienz des Marketingbudgets und einem höheren ROI. Der amerikanische RTA-Anbieter Rocket Fuel nennt in einer Case Study eine mögliche ROISteigerung von rund 200% über einen Zeitraum von drei Jahren. Durch die gezieltere Aussteuerung der Kampagne ein durchaus realistischer Wert! Die derzeit verbreiteten Customer Journey Modelle enden zumeist mit dem Kauf des Produktes. Advertiser sollten aber auch die Touchpoints nach dem Kauf im Auge behalten. Viele Kunden teilen ihre Erfahrungen in sozialen Netzwerken oder auf Bewertungsplattformen. Hier gilt es, diese Bestandskunden zu erkennen, mit ihnen in den Dialog zu treten und von ihnen Feedback zu erhalten. Wie heißt es so schön: Nur ein zufriedener Kunde ist ein guter Kunde. Hier wird auch deutlich, dass die Customer Journey nicht mehr als abgeschlossenen Prozess betrachtet werden sollte, sondern als fortlaufenden Kreislauf. Basierend auf den vorherigen Käufen können daraufhin die wahrscheinlichen Touchpoints dieses Kunden vorhergesagt und entsprechend optimiert werden. Das permanente Lernen der Software dient der besseren Ausschöpfung des Kunden. Was kann ich tun, um meinen ROI mit Big Data zu steigern? 25 Sowohl Neukunden, als auch Bestandskunden haben diverse Berührungspunkte mit Ihrem Shop, bevor sie kaufen. Der Blick auf alle Berührungspunkte des Kunden ermöglicht eine gezielte Ansprache im Aftersales-Erlebnis. Dies versetzt Sie in die Lage, Ihren Kunden langfristig als Bestandskunden zu etablieren. Mit dem reinen Datensammeln ist es allerdings noch nicht getan, denn mit der Analyse beginnt erst die eigentliche Arbeit. Das beste Tool hilft wenig, wenn kein Know-how vorhanden ist, wie dieser Datenwust intelligent genutzt werden kann. Sie brauchen einen Analysten, der Ihr TechDivision GmbH Big Data – Vorsprung durch Wissen Geschäftsmodell versteht und aus Nutzersicht die richtigen Fragen stellt: Was suchen Ihre Kunden und was kaufen sie? Wie viel Information benötigt der Kunde mini- und maximal auf dem Weg zum Kauf? Welche Hinweise wirken unterstützend nach dem Kauf? 26 Die Antworten auf diese Fragen helfen vorherzusagen, wie sich bestimmte Kundengruppen und -typen entwickeln, für welche Produkte sie sich in absehbarer Zeit interessieren und, viel wichtiger, wie hoch die Wahrscheinlichkeit des Kaufes ist. Die gesammelten Bewegungs- und Aktivitätsdaten können zur Erstellung sogenannter „business rules“ dienen. Mit dieser Hilfe können Sie personalisierte Informationen auf der eigenen Website oder extern ausspielen. Anbieter wie nugg.ad, aber auch Rocket Fuel, xplosion oder Criteo bieten mit punktgenauer Werbemittelausstrahlung die Möglichkeit, die Relevanz und damit den ROI massiv zu steigern. Handlungsempfehlungen: Sicherstellen, dass ein lückenloses und fehlerfreies Multichannel Tracking eingerichtet ist Alle Daten, die zur Verfügung stehen, müssen zentral verwaltet und intelligent miteinander verknüpft werden In kompetente Unterstützung investieren, die aus Nutzersicht die richtigen Fragen stellt Relevanz der Marketingaktivitäten anhand von Touchpoint-Analysen erhöhen Bestandskunden besser an das Unternehmen binden Um die gesamte Customer Journey inklusive DrittanbieterSeiten abdecken zu können, ist es sinnvoll, alle Marketing Aktivitäten zentral zu steuern. Dies hat einen einfachen Grund: Nur wenn alle Touchpoints der Customer Journey abgebildet werden, können Sie die richtigen Botschaften vermitteln. Verwenden Sie bei der Bewertung der Online Marketing Kanäle sogenannte Attributionsmodelle. Dabei wird der Warenkorbwert auf die verschiedenen Touchpoints aufgeteilt und damit ein deutlich realistischerer ROI auf Touchpoint-Ebene ausgewiesen. Sie erhalten nur dann valide Zahlen, wenn Sie alle Berührungspunkte in der Übersicht haben. Die Bewertung und Gewichtung der einzelnen Touchpoints erfolgt nach verschiedenen vorab festgelegten Kriterien wie beispielsweise Verweildauer, Zeitraum zwischen zwei Touchpoints, demografische oder geografische Merkmale und Erfahrungswerte aus vorherigen Käufen des Kunden. TechDivision GmbH Big Data – Vorsprung durch Wissen und diese auch nach dem Kauf begleiten Fazit Viel Potenzial versteckt sich in den Analysedaten der Kunden. Mit der richtigen Strategie können Sie sich einen nicht zu unterschätzenden Vorteil gegenüber den Mitbewerbern sichern. Die reine Analyse und Auswertung der vorhandenen Daten ist dabei nur eine Station auf dem Weg zum Erfolg. Wichtig sind die richtigen Fragestellungen, um den Mehrwert für den Nutzer herauszukristallisieren. Die gewonnene Erkenntnis und die damit verbundene ROISteigerung werden den investierten Aufwand in jedem Fall rechtfertigen. 27 Zusammenfassung TechDivision: Wie sich anhand der unterschiedlichen Expertenartikel und interviews nachvollziehen lässt, ist das Potential von Big Data groß und in Deutschland noch lange nicht ausgeschöpft. Aus unternehmerischer Sicht birgt das viel diskutierte Thema sicherlich neue Möglichkeiten und Chancen im E-Commerce-Bereich. Das Fraunhofer Institut IAIS hat drei wichtige Einsatzbereiche für „Big Data“ in deutschen Unternehmen analysiert: Effiziente und vorausschauende Unternehmensführung (z.B. Monitoring von Produkten, Transportmitteln sowie Anlagen) Massenindividualisierung auf Grundlage von Kundeninformationen (z.B. individuellere Services für Kunden) Intelligente Produkte (z.B. Auswertung produktbezogener Daten) Nach Befragung einiger Unternehmen wird der Big DataNutzen vor allem in der Prognose zur Wirksamkeit von Werbemaßnahmen, in der Beobachtung der Wahrnehmung einer Marke und in der genaueren Fixierung des Preises gesehen. Die Möglichkeiten von Big Data sind beinahe unbegrenzt. Das komplexe Thema erfordert jedoch neue Kompetenzen, damit Daten richtig analysiert werden und einen Nutzen bringen können. So ist es auch für kleinere und mittlere Unternehmen möglich durch richtig aufbereitete Daten bessere Entscheidungen zu treffen. Die Zukunft wird zeigen, ob sich auch beim Mittelstand Big Data durchsetzen wird. Die aktuelle Studie des Fraunhofer Instituts IAIS „Potentialanalyse Big Data in Deutschland“ zeigt derzeit noch Hemmnisse gegenüber Big Data auf: So haben 49 Prozent der deutschen Unternehmen Datenschutz- und Sicherheitsbedenken. Bei 45 Prozent mangelt es an Budget. Unternehmen haben die Potentiale jedoch bereits erkannt und es wird wohl eine Frage der Zeit sein, bis die letzten Hemmnisse überwunden sind. Ein Vorteil der Datenauswertung ist beispielsweise im Einzelhandel der bessere Überblick darüber, wann Produkte verkauft werden und wann diese nachbestellt werden müssen. So gewann zum Beispiel die bayerische Andechser Molkerei Scheitz durch die Datenanalyse die Erkenntnis, dass Kunden an wärmeren Tagen Joghurt-Getränke bevorzugen. Das wetterabhängige Muster im Kundenverhalten konnte für die Produktion genutzt werden. Dem Unternehmen war es so möglich vorausschauender und effektiver zu planen. TechDivision GmbH Big Data – Vorsprung durch Wissen 28 Autorenübersicht: Josef Willkommer, TechDivision GmbH Als Geschäftsführer der TechDivision GmbH, einer der führenden Magento- und E-CommerceAgenturen im deutschsprachigen Raum, beschäftigt sich Josef Willkommer seit vielen Jahren sehr intensiv mit ECommerce und Online-Marketing. Darüber hinaus ist er als Chef-Redakteur des eStrategy-Magazins sowie als Autor diverser Fachbeiträge rund um E-Commerce und OnlineMarketing auch journalistisch tätig. Neben diversen Beratungstätigkeiten für unterschiedlichste Unternehmen trifft man ihn bei diversen Fachkonferenzen auch als Speaker zu E-Commerce- und Online- Marketing-Themen. Experteninterview: Dr. Michael May, Fraunhofer Institut IAIS Dr. May leitet seit 1998 die Abteilung Knowledge Discovery am Fraunhofer IAIS, die sich mit den Themen Data Mining, Maschinelles Lernen und Big Data befasst. Er leitet derzeit eine Anzahl von Big Data Projekten in Forschung und Wirtschaft und war für die vom deutschen Wirtschaftsministerium geförderte „Potentialanalyse Big Data in Deutschland“ verantwortlich. Seine Forschungsschwerpunkte sind derzeit die Data-MiningAnalyse von verteilten Data Streams sowie die Analyse von Telekommunikations- und Mobilitätsdaten. Interview und Umsetzung des Artikels: Dominik Haller, TechDivision GmbH TechDivision GmbH Big Data – Vorsprung durch Wissen Hendrik Stange, Fraunhofer Institit IAIS Hendrik Stange studierte Wirtschaftsinformatik mit den Schwerpunkten Data Mining und Corporate Governance an der Otto- von-Guericke Universität Magdeburg. Schon frühzeitig befasste er sich mit Spatial Business Intelligence Lösungen für den Einzelhandel. Seit 2007 ist er Analyst in der Abteilung Knowledge Discovery am Fraunhofer-Institut für intelligente Informations- und Analysesysteme IAIS und ist dort seit 2009 als Projektleiter tätig. Sein ak- tueller Forschungsschwerpunkt liegt im Bereich Big Data Analytics und im Spezialgebiet Reality Monitoring. Er unterstützt Unternehmen im strategischen Umgang mit dem wettbewerbs- entscheidenden Rohstoff „Daten“ auf dem Weg zu „Data-driven Enterprises“. Experteninterview: Dr. Clemens Wass, Rechtsexperte Dr. Clemens Wass, MBL, MBA, ist ausgebildeter Wirtschaftsjurist mit langjähriger Berufserfahrung in internationalen TechnologieUnternehmen. Neben verschiedenen innovativen rechtlichen Projekten ist Dr. Wass Unternehmensberater (Schwerpunkt Innovationsmanagement, geistiges Eigentum und Datenschutz) sowie externer Lektor an der Wirtschaftsuniversität Wien am Institut für Entrepreneurship & Innovation. Interview und Umsetzung des Artikels: Dominik Haller, TechDivision GmbH Thorben Fasching, hmmh Thorben Fasching steuert seit 2007 den Bereich Marketing & User Experience der hmmh. In dieser Funktion treibt er auch die Geschäftsentwicklung der Agentur voran. Daneben ist er stellvertretender Vorsitzender der Fachgruppe E-Commerce im Bundesverband Digitale Wirtschaft (BVDW) e.V. 29 TechDivision ist ein etablierter E-Commerce Solution Partner und unterstützt seit vielen Jahren nationale und internationale Kunden in der integrierten Planung, Design und Implementierung von komplexen E-Commerce-Lösungen. Als Magento Gold Partner der ersten Stunde, gehört TechDivision zu den führenden Magento Solution Partnern in Europa. Mittelgroße Kunden und internationale Unternehmen wie WMF oder Ritter-Sport, vertrauen auf die Kompetenz und Erfahrung von TechDivision. Derzeit hat TechDivision zwei Standorte in Rosenheim / Kolbermoor und München. TechDivision GmbH Spinnereiinsel 3a 83059 Kolbermoor Telefon: +49 8031 2210 55 - 0 Telefax: +49 8031 2210 55 - 22 Balanstr. 73 Haus 8, 3. OG 81541 München Telefon +49 89 4161 4787 - 0 Ansprechpartner: Josef Willkommer [email protected] www.techdivision.com TechDivision GmbH Big Data – Vorsprung durch Wissen 30