eBLMedium - Mittelstand Digital

Werbung
In der Region.
Für die Region.
INDUSTRIE 4.0
BIG DATA
DATENBANK
AUSWERTUNG
2015
Ausgabe 5
eBLMedium
Eine Informationsbroschüre des eBusiness-Lotsen Mittelhessen
Big Data
Aufgrund der Größe und Vielfalt vorliegender Daten stoßen bisherige Werkzeuge
zur Datenverarbeitung häufig an ihre Grenzen. Selbst wenn es gerade noch möglich sein sollte, die Flut an Daten verlustfrei zu speichern, so ist spätestens deren
zeitnahe Auswertung häufig nicht mehr gegeben. Das vorliegende eBLM-Medium
soll einige Ansätze vorstellen, wie man große Datenmengen handhabbar machen
und zeitnah auswerten kann.
Herausgeber
eBusiness-Lotse Mittelhessen
c/o TH Mittelhessen
35390 Gießen
[email protected]
www.ebusiness-lotse-mittelhessen.de
in Kooperation mit dem
Kompetenzzentrum für Informationstechnologie
Text und Redaktion
Dorothea Gugler
Prof. Dr. Christian Schulze
eBusiness-Lotse Mittelhessen
Gestaltung
Nicole Detzer, eBusiness-Lotse Mittelhessen
Bildnachweis
© Matthias Buehner, adistock, Coloures-Pic, Jeanette Dietl,
OrpheusXL, industrieblick, andreas, Kirill Kedrinski
IMPRESSUM
Druck: Saxoprint
Auflage: 500 Exemplare
Stand: Februar 2015
INHALT
Welche Vorteile bietet Big Data?................................... 6
Technologien für große Datenmengen....................... 12
Erkenntnisse gewinnen.................................................. 20
Fazit ................................................................................... 22
Literaturverzeichnis
2 800 000 000 000 000 000
Byte wurden bis 2012 erzeugt
000
1
WELCHE VORTEILE BIETET
BIG DATA?
1
VORTEILE VON BIG DATA
Welche Vorteile bietet Big Data?
Die im Unternehmen anfallenden immer größer werdenden Datenbestände versetzen Unternehmen durch geschickte Auswertungen in die Lage, Mehrwerte zu generieren. Technologische Fortschritte in den vergangenen Jahren bieten die Möglichkeit, Daten in hohen Frequenzen zu speichern und zu verarbeiten. Außerdem ist es möglich, wenig strukturierte externe
Daten beispielsweise aus den folgenden Quellen zu integrieren:
 Soziale Netzwerke, die Benutzern die Möglichkeit einräumen, eigene Beiträge zu verfassen, den aktuellen Standort (via GPS-Koordinaten) sowie Interessen zu teilen oder an
Gruppen teilzunehmen, um sich mit anderen Menschen themenbezogen auszutauschen.

Mobile Geräte wie Smartphone oder Tablet, die jederzeit einen Zugriff auf Internetseiten
und soziale Netzwerke ermöglichen.
 Chips und Sensoren, die in Maschinen und Produkten entlang von Lieferketten oder eingebaut in Fahrzeugen zeitaktuell Informationen über Staus, Standort und vieles mehr geben
können und durch deren Auswertung ein großes Potential für Optimierungen besteht.
Big Data
beschreibt Datenbestände, die durch herkömmliche Datenbanken aufgrund ihrer
schieren Menge, Vielfalt und Geschwindigkeit nur begrenzt gespeichert und verarbeitet werden können.
In Abgrenzung zu Business-Intelligence- und Data-Warehouse-Systemen arbeiten Big-Data-Anwendungen ohne Aufbereitung durch den ETL-Prozess (Extract,
Transform, Load), bei dem Daten aus unterschiedlichen Quellen vereinheitlicht
in eine einzige Datenbank überführt werden. Somit entstehen Auswertungen
schneller und flexibler, wodurch Kosten eingespart werden können.
6
VORTEILE VON BIG DATA
1
Diese neuen Technologien leisten einen großen Beitrag zum starken Anstieg des Datenvolumens, dessen Verarbeitung und Auswertung Unternehmen in vielen Fällen nutzen können,
um ihre Markposition auszubauen, auf Veränderungen im Markt zu reagieren und signifikante
Wettbewerbsvorteile zu erarbeiten.
Big Data kann Mehrwerte entlang der gesamten Lieferkette generieren: Daten aus Sensoren geben Auskunft über den Zustand von Maschienen, sodass Auffälligkeiten erkannt und
Stillstände durch frühzeitiges Eingreifen verhindert werden können. Mithilfe der Auswertung
mobiler Daten ist es möglich, die Nachfrage nach Produkten in Abhängigkeit von dem Standort eines potenziellen Kunden zu ermitteln, Einzelhändler bedarfsgerecht zu versorgen und
dadurch Lagerhaltungskosten zu senken. Schließlich kann die Kommunikation über Unternehmen und Produkte in den sozialen Netzen erfasst und ausgewertet werden, um dadurch
zeitnah und proaktiv auf Kritik oder Wünsche der Konsumenten reagieren zu können.
Aus ökonomischer Sicht ist Big Data gekennzeichnet durch die Verabeitung gewaltiger Mengen an Daten aus verschiedenen Quellen innerhalb kürzester Zeit, um daraus Entscheidungen abzuleiten und somit wirtschaftliche Vorteile zu erzielen.1 Deshalb wird Big Data auch
häufig als Erweiterung von Business Intelligence (BI) betrachtet: Es geht auch hier um die
zeitnahe Nutzung und Analayse vorliegender, aber eben sehr großer Datenbestände. Business Intelligence-Lösungen werden bereits von über 90% der Mittelständler in Deutschland
eingesetzt,2 sodass der Ansatz nicht neu ist.
1 Vgl. BITKOM-Arbeitskreis Big Data (2012). Big Data im Praxiseinsatz - Szenarien, Beispiele, Effekte. Berlin. S. 7ff
2 Vgl. IBM (2010). Business-Intelligence-Studie 2010. Einsatz, Nutzung und Probleme von Analyse- und Berichtssoftwarelösungen in mittelständischen Unternehmen in Deutschland. Conunit GmbH, IBM Deutschland GmbH, TU Chemnitz.
7
1
VORTEILE VON BIG DATA
Die Schwierigkeit der Verarbeitung der enormen Flut aus Daten
resultiert aus den nachfolgenden vier Merkmalen:
DATENMENGE
Die zuvor beschriebenen Technologien, die in der heutigen Gesellschaft bereits etabliert sind,
erzeugen fortlaufend Daten. 2 800 000 000 000 000 000 000 Byte an Daten existierten bereits
bis 2012, wobei Experten schätzen, dass sich diese Menge bis 2020 alle zwei Jahre verdoppeln wird.
DATENVIELFALT
Aufgrund der unterschiedlichen Herkunft der Daten besitzen diese stark variierende oder keine
festen Strukturen oder Formate. Selbst die Daten, die ausschließlich im eigenen Unternehmen
anfallen, können unstrukturiert sein. Beispiele dafür sind Präsentationen, die häufig nur lokal
gespeichert werden und nicht verschlagwortet sind, sodass eine breitere Nutzung schlichtweg
nicht möglich ist. Außerdem gehen wichtige Informationen, die durch E-Mail-Kommunikation
anfallen, dadurch verloren, dass Mails nach bestimmten Zeitpunkten gelöscht und die enthaltenen Daten nicht zentral zugänglich gemacht werden.
Die Vielfalt von Daten wird auch dadurch deutlich, dass Maschinen Informationen über ihre
Verwendung und auftretende Störungen an eine zentrale Überwachungsstelle senden. Diese
Protokolle sind häufig unstrukturiert und nur schwer lesbar für Menschen.
Daten, die aus externen Quellen ins Unternehmen gelangen, können beispielsweise Kundenbewertungen von Produkten oder Dienstleistungen auf diversen Internetplattformen oder Beiträge in Social-Media-Kanälen sein, wobei diese formlos verfasst werden und folglich überaus
unstrukturiert sind.
8
VORTEILE VON BIG DATA
1
GESCHWINDIGKEIT
Dieses Merkmal muss unter zwei Aspekten betrachtet werden. Zum einen werden Produktionsdaten oder Daten, die aus externen Quellen ins Unternehmen gelangen, häufig in hoher
Geschwindigkeit erzeugt und müssen unverzüglich gespeichert werden. Auf der anderen Seite
ist eine zeitnahe Auswertung der Daten wünschenswert, um daraus einen ökonomisch wertvollen Nutzen zu erzielen und Wettbewerbsvorteile zu schaffen. Dazu ist häufig der Zugriff
bzw. die Verarbeitung der Daten in Echtzeit erforderlich.
Für ein produzierendes Unternehmen kann beispielsweise die (positive wie negative) Rückmeldung von Kunden großen Einfluss auf die Produktion nehmen: Eine zeitnahe Änderung
der Produktionsprozesse oder der Produkte wird möglich, um Absatzproblemen vorzubeugen
bzw. Lieferengpässe zu vermeiden.
ANALYSEN
Durch die Analyse und Auswertung von Daten sollen Mehrwerte entstehen. Im Umfeld von Big
Data bedeutet das, dass in den großen Datenmengen Zusammenhänge und Muster erkannt
und deren Bedeutungen interpretiert werden müssen. Außerdem können Prognosen auf einer
wesentlich breiteren Datenbasis als bisher getroffen werden.
Neben dem zuvor beschriebenen Beispiel, welches die Analyse von Kundenmeinungen zur
Beeinflussung der Produktion erläutert, existieren zahlreiche andere Anwendungsszenarien,
die die Notwendigkeit der Analyse von Datenbeständen unterstreichen. So kann durch die
Überwachung der Log-Dateien von Produktionsmaschinen beispielweise durch Mustererkennung festgestellt werden, dass Komponenten ausgetauscht werden müssen, bevor diese
ausfallen. Somit können Produktionsstillstände, die durch Ausfall und Reparatur von Komponenten entstehen, vermieden werden.
9
2
TECHNOLOGIEN FÜR
GROSSE DATENMENGEN
2
TECHNOLOGIEN FÜR GROSSE DATENMENGEN
Big Data in den Griff bekommen
Die Kosten für Speicherplatz haben in den letzten Jahren stark abgenommen. Während 1998
der Preis für die Anschaffung von 1 Gigabyte (GB) Festplattenspeicher $228 betrug, waren es
im Jahr 2010 lediglich $0,06.
Der höhere Verbrauch von Speicherkapazitäten durch ein Mehr an Daten stellt also primär
keine Barriere dar. Die Erweiterung der Speicherkapazitäten kann dabei auf zwei Arten geschehen: Zum einen ist es möglich, in bessere Hardware zu investieren, wenn die bisher verwendete Hardware an ihre Grenzen stößt. Dieses Vorgehen ist allerdings in hohem Maße kostenintensiv, denn je stärker ein Rechner aufgerüstet wird, desto höher sind die Investitionen.
Zum anderen besteht eine weitere Möglichkeit für den Ausbau der Speicherkapazitäten darin, mehrere Standardkomponenten zu einem Verbund (engl. Cluster) zusammenzuschließen.
Statt Hardware auszutauschen können dem Cluster weitere Maschinen hinzugefügt werden,
sobald die Auslastung der Kapazität an ihre Grenzen gelangt. Eine solche Erweiterung erfordert keinesfalls die Investition in leistungsfähige Superrechner. Stattdessen ist der Einsatz von
Standardhardware problemlos möglich. Die Leistungsfähigkeit des Clusters entsteht durch
den Zusammenschluss mehrerer Komponenten.
12
2
TECHNOLOGIEN FÜR GROSSE DATENMENGEN
Während die Kosten für den Zusammenschluss von Standard-Systemen im Vergleich zu den
Anschaffungskosten eines Supercomputers wesentlich geringer sind, ist es gleichzeitig notwendig, die Verbindung dieser Komponenten über ein leistungsfähiges Netzwerk sicherzustellen. Um von einem solchen verteilten System, welches aus mehreren Standardrechnern
besteht, profitieren zu können, ist es wichtig, dass die Kommunikation der Maschinen untereinander ohne großen Zeitverzug stattfinden kann.
Die Erhöhung der Speicherkapazitäten stellt also keine Barriere dar. Als nächstes soll ein Blick
auf die Technologien geworfen werden, die zur Speicherung umfangreicher Datenbestände
entwickelt wurden. Als Gegenpol zu den etablierten relationalen Datenbanken, bei denen verschiedene Datensätze durch Zeilen einer Tabelle dargestellt werden (vgl. Tabelle 1), werden
sehr unterschiedliche neuartige Datenbank-Technologien unter dem Begriff „NoSQL“ zusammengefasst.
MitarbeiterNr Name
1
Schmidt
2
3
Möller
Schneider
Vorname
Max
Anrede
Herr
Geburtsdatum
22.07.1972
Position
Kundendienst
Theresa
Philipp
Frau
Herr
13.02.1959
02.11.1987
Buchhaltung
Marketing
Tabelle 1: Zeilenweise Darstellung von Datensätzen einer relationalen Datenbank
Der Begriff „NoSQL“ nimmt dabei Bezug auf die in klassischen relationalen Datenbanken verwendete Abfragesprache SQL. „NoSQL“ soll dabei aber nicht andeuten, dass keine Sprache
zur Abfrage von Inhalten einer Datenbank existiert, sondern vielmehr, dass nicht nur („not
only“) traditionelles SQL verwendet wird.
13
2
TECHNOLOGIEN FÜR GROSSE DATENMENGEN
Die unter dem Begriff „NoSQL“ zusammengefassten Technologien lassen sich grob in vier
Gruppen einteilen.
Die erste Gruppe umfasst Datenbanken, deren Inhalte einfache Schlüssel-Wert-Paare bilden.
Im Prinzip handelt es sich dabei um Paare mit folgendem Aufbau:
(SCHLÜSSEL : WERT)
Der Zugriff auf den Wert ist nur mithilfe des Schlüssels möglich, weshalb dieser einen Wert
eindeutig identifizieren muss. Als Beispiel ist die Verwaltung von Postleitzahlen denkbar, wobei
über die Eingabe der PLZ der Name der zugehörigen Stadt gefunden werden kann.
Zur zweiten Gruppe gehören spaltenorientierte Datenbanken. Im Gegensatz zu relationalen
Datenbanken, bei denen ein Datensatz zeilenweise zu lesen ist (vgl. Tabelle 1), ist bei Datenbanken dieser Kategorie ein Datensatz in einer Spalte zu finden (vgl. Tabelle 2). Während bei
Auswertungen eines Attributes einer relationalen Datenbank (entspricht einer Spalte) alle Zeilen einer Tabelle gelesen werden müssen, genügt es in einer spaltenorientierten Datenbank,
eine einzelne Zeile zu lesen. Dadurch werden Auswertungen über einzelne Attribute deutlich
beschleunigt. Gleichzeitig nimmt die Zeit, die zum Speichern eines Datensatzes benötigt wird,
verhältnismäßig zu, da dieser nicht in einer einzelnen Zeile, sondern in mehreren Zeilen einer
Spalte eingefügt werden muss.
Anrede
Vorname
Nachname
Jahresgehalt
Herr
Max
Schmidt
30.000 €
Frau
Theresa
Möller
36.000 €
Herr
Philipp
Schneider
41.000 €
Tabelle 2: Spaltenweise Darstellung von Datensätzen einer spaltenorientierten Datenbank
14
TECHNOLOGIEN FÜR GROSSE DATENMENGEN
2
Während es in Datenbanken auf Basis von Schlüssel-Wert-Paaren nur möglich ist, einen einzelnen Wert zu einem Schlüssel zu speichern, erweitern Dokumentdatenbanken diese Technologie. Inhalte dieser Datenbanktechnologie sind Dokumente, welche sich allerdings von Dokumenten im herkömmlichen Sinn unterscheiden. Während im allgemeinen Sprachgebrauch
ein Dokument eine Textdatei (Word, PDF etc.) beschreibt, handelt es sich bei einem Dokument
im Datenbank-Kontext im Prinzip um eine beliebige Datei. Als Erweiterung der Schlüssel-WertDatenbanken besteht ein einzelnes Dokument aus zahlreichen Schlüssel-Wert-Paaren und
kann daher umfangreichere Inhalte speichern.
Um das obige Beispiel aufzugreifen, ist es in einer Dokumentdatenbank möglich, außer der
Postleitzahl und dem Namen einer Stadt außerdem die Einwohnerzahl, den Namen des Bürgermeisters, das Stadtwappen, das Kfz-Kennzeichen sowie weitere denkbare Attribute, die für
die Verwaltung von Städten eine Rolle spielen, zu speichern.
Die letzte Gruppe an Datenbanken unterscheidet sich von den drei vorigen merklich: Dabei
handelt es sich um die sogenannten Graphdatenbanken. Diese basieren auf der mathematischen Disziplin der Graphentheorie, weshalb zahlreiche bereits existierende Algorithmen für
unterschiedliche Anwendungsfelder verwendet werden können.
15
2
TECHNOLOGIEN FÜR GROSSE DATENMENGEN
Der zentrale Unterschied von Datenbanken dieser Gruppe zu den Datenbanken der drei zuvor genannten Gruppen besteht darin, dass in einem Graphen Beziehungen verschiedener
Datensätze (die als Knoten modelliert werden) problemlos dargestellt werden können (dies
erfolgt über die Verbindung von Knoten über Kanten). Ein Beispiel für die Modellierung eines
Städte-Graphen findet sich in Abbildung 1.
Dillenburg
Marburg
Treysa
Alsfeld
Wetzlar
Gießen
Zugverbindung ohne Umstieg
Abbildung 1: Darstellung eines Städte-Graphen, wobei Zugverbindungen ohne Umstieg als Beziehungen der Städte zueinander modelliert werden
16
2
TECHNOLOGIEN FÜR GROSSE DATENMENGEN
Die vorgestellten neuen Technologien bieten die Möglichkeit, je nach Format, Struktur und Art
der Daten, die zum Anwendungsfall passende Datenbank auszuwählen. Wichtig ist an dieser
Stelle die Anmerkung, dass nicht jede Technologie für jeden Anwendungsfall geeignet ist und
in vielen Fällen auch die Verwendung von relationalen Datenbanken einfacher und sinnvoller
ist. Stoßen die bisherigen Technologien allerdings an ihre Grenzen, so ist die Verwendung
einer NoSQL-Datenbank in Betracht zu ziehen.
Zentraler Punkt in diesem Zusammenhang ist die oft notwendige zeitaktuelle oder wenigstens
zeitnahe Auswertung der betrachteten Daten. Abfragen oder Analysen, die mehrere Tage oder
Wochen andauern, sind wenig hilfreich, wenn kurzfristig Ergebnisse benötigt werden. Dies gilt
beispielsweise für Anfragen im Internet, die nahezu in Echtzeit bearbeitet werden müssen,
oder für Analysen von Unternehmensdaten, die schnelle Entscheidungen ermöglichen sollen.
Daher befasst sich der nächste Abschnitt mit einem Hilfsmittel der vorgestellten Technologien,
das eine zeitnahe Auswertung von Daten ermöglicht.
Die hier vorgestellten Technologien können genutzt werden, um Big Data beherrschbar zu
gestalten. Vor dem Einsatz sollten jedoch alle potentiellen Anwendungsfelder identifiziert und
bewertet werden, um im Anschluss zunächst einzelne erfolgversprechende Bereiche auszuwählen und zu spezifizieren. Daraus sollte sich ein Konzept ableiten, wie sich das weitere
Vorgehen gestaltet, um aus Big Data einen Mehrwert zu generieren. 1
1 Vgl. http://www.pwc.de/de/digitale-transformation/anwendungsfaelle-identifizieren-bewerten-und-definieren.jhtml
17
3
ERKENNTNISSE
GEWINNEN
3
ERKENNTNISSE GEWINNEN
Auswertungen mit Map-Reduce
Ausgehend von der Idee, sämtliche Daten auf mehreren Maschinen zu verteilen, die räumlich
voneinander getrennt sein können, besteht - um einen unternehmerischen Mehrwert aus der
Speicherung der Daten zu erzielen - die Notwendigkeit, diese verstreuten Daten effizient auszuwerten. Aus der Verwendung mehrerer Computer zur Speicherung der Daten resultiert eine
große Chance: Auf jeder einzelnen Maschine können Berechnungen und Auswertungen der
dort vorhandenen Daten durchgeführt werden.1 Da die Maschinen unabhängig voneinander
über eigene Rechenkapazitäten verfügen, bedeutet dies eine große Zeitersparnis, denn die
Berechnungen der einzelnen Maschinen finden gleichzeitig statt.
Außerdem kann die Auswertung vieler kleiner Datenbestände schneller durchgeführt werden,
als die Auswertung eines riesigen Datenbestandes. Die zusätzliche Zeit, die im Anschluss
daran zur Zusammenführung der Ergebnisse aller Teilbestände benötigt wird, fällt dabei kaum
merklich ins Gewicht.
Damit bei der Erstellung von Anwendungen zur Auswertung der Datenbestände eine Konzentration auf die Ziele der Auswertung stattfinden kann, existiert ein Konzept mit dem Namen
Map-Reduce. Dieses wurde 2004 bei Google entwickelt und erlaubt es, Auswertungen zu
erstellen, die parallel auf mehreren Rechnern durchgeführt werden können, ohne das Wissen
zu besitzen, wie die Parallelisierung im Einzelnen umgesetzt werden muss.
Das Vorgehen von Map-Reduce besteht aus zwei Schritten, die anhand
eines Beispiels verdeutlicht werden sollen. Besteht die Aufgabe einer
einzelnen Person darin, in einem 1000-seitigen Buch zu zählen, welche
Wörter wie oft vorkommen, so ist einleuchtend, dass dies einen großen
zeitlichen Aufwand bedeutet. Im übertragenen Sinn kann Map-Reduce erst
dann verwendet werden, wenn dieselbe Aufgabe von mehreren Personen
durchgeführt wird.
1 Diese Aufteilung von Berechnungen auf mehrere Rechner wird als Parallelisierung bezeichnet.
20
ERKENNTNISSE GEWINNEN
3
Teilen sich beispielsweise zwei Personen diese Aufgabe, so muss jede der
beiden lediglich die Wörter von 500 Seiten zählen (wofür sie aller Wahrscheinlichkeit nach nur die Hälfte der Zeit benötigen). Diese parallel durchgeführte Zählung entspricht dem Map-Schritt. Im Anschluss daran kann
eine Person alleine den Reduce-Schritt durchführen, indem sie die Ergebnisse der beiden Buchhälften zusammenführt.
Je mehr Personen für die Aufgabe zur Verfügung stehen, desto stärker nimmt die Dauer ab,
die zur Erfüllung benötigt wird. In dem Fall, dass 1000 Personen zur Zählung der Wörter eines
1000-seitigen Buches zur Verfügung stehen, besteht der Aufwand einer Person aus lediglich
einer einzigen Seite. Die enorme Zeitersparnis in diesem Fall ist offensichtlich.
Der beschriebene Fall stellt lediglich ein triviales Beispiel dar, um die Funktionsweise der Parallelisierung zu verdeutlichen. In der Praxis finden sich zahlreiche andere Anwendungsszenarien dafür.
21
3
FAZIT
Fazit
Wir haben nur einige neue Datenbank-Technologien betrachtet und uns kurz mit dem MapReduce-Konzept in verteilten Systemen beschäftigt. Diese Ansätze repräsentieren im Wesentlichen die Instrumente zum Umgang mit Big Data. Ob es sinnvoll ist, diese neuen Technologien
einzusetzen oder ob klassische relationale Datenbank-Lösungen ausreichen, hängt stark vom
Anwendungsszenario ab. Häufig ist die Performance relationaler Datenbanken einfach nicht
ausgereizt und bessere Modellierung und Indexierung können schon Abhilfe schaffen. Big
Data erfordert aber in vielen Fällen tatsächlich einen Technologiewechsel. Oft liegt eine Lösung auch in einer Kombination beider Technologien.
WESENTLICHE KERNAUSSAGEN
 Um Wettbewerbsvorteile zu erzielen, wird die Speicherung und Auswertung relevanter Daten immer wichtiger. Daten gelten mittlerweile zurecht als der vierte Produktionsfaktor.
 Wenn relationale Datenbanken wegen großer Datenmengen an ihre Grenzen stoßen,
kann der Einsatz von NoSQL-Datenbanken weiterhelfen.
 Für die Verarbeitung und Analyse großer Datenmengen muss nicht zwangsläufig in immer
teurere Hardware investiert werden. Verbesserungen können auch durch den Zusammenschluss von Standard-Komponenten zu einem Cluster erreicht werden.
 In einem Cluster birgt die Verwendung des Map-Reduce-Konzepts enorme Möglichkeiten
der Performance-Steigerung.
 Wird die Verwendung einer neuen Datenbanktechnologie in Betracht gezogen, sollte das
Anwendungsszenario genau analysiert werden, um die passende Technologie auszuwählen.
22
WEITERFÜHRENDE INFORMATIONEN
Big Data im Praxiseinsatz - Szenarien, Beispiele, Effekte
BITKOM-Arbeitskreis Big Data (2012)
Management von Big-Data-Projekten
BITKOM-Arbeitskreis Big Data (2013)
Big-Data-Technologien - Wissen für Entscheider
BITKOM-Arbeitskreis Big Data (2014)
Neue Studie zum digitalen Universum entdeckt Big Data Gap
EMC Deutschland GmbH (2012)
Big Data in der Praxis
Jonas Freiknecht (2014)
ISBN: 3446439595
NoSQL: Einstieg in die Welt nichtrelationaler Web 2.0 Datenbanken
Stefan Edlich et al. (2011)
ISBN: 3446427538
Das eKompetenz-Netzwerk für Unternehmen
Kiel
Lübeck
Schwerin
Hamburg
Neubrandenburg
Bremen
Berlin
Brandenburg a. d. H.
Lingen
Osnabrück
Magdeburg
Münster
Dortmund
Potsdam
Frankfurt
(Oder)
Hannover
Cottbus
Paderborn
Hagen
Leipzig
Dresden
Köln
Aachen
Ilmenau
Chemnitz
Gießen
Koblenz
Hof
Darmstadt
Saarbrücken
Würzburg
Kaiserslautern
Nürnberg
Regensburg
Stuttgart
Augsburg
Weingarten
Freilassing
eBusiness-Lotsen
Das „eKompetenz-Netzwerk für Unternehmen“ ist eine Förderinitiative des Bundes­ministeriums für Wirtschaft und
Energie (BMWi). 38 regionale eBusiness-Lotsen haben die Aufgabe, insbesondere mittelstän­dischen Unternehmen
deutschlandweit anbieter­neutrale und praxisnahe Informationen für die Nutzung moderner Informations- und Kommunikationstechnologien (IKT) und möglichst effiziente eBusiness-Prozesse zur Verfügung zu stellen.
Die Förderinitiative ist Teil des Förderschwerpunkts „Mittelstand-Digital – IKT-Anwendungen in der Wirtschaft“.
Zu „Mittelstand-Digital“ gehören ferner die Förderini­tiativen „eStandards: Geschäftsprozesse standardisieren, Erfolg sichern“ (16 Förderprojekte) und „Einfach intuitiv – Usability für den Mittelstand“ (13 Förderprojekte). Unter
www.mittelstand-digital.de können Unternehmen sich über die Aktivitäten der eBusiness-Lotsen informieren, auf die
Kontaktadressen der regionalen Ansprechpartner sowie aktuelle Veranstaltungs­termine zugreifen oder auch Publikationen einsehen und für sich herunterladen.
Herunterladen