In der Region. Für die Region. INDUSTRIE 4.0 BIG DATA DATENBANK AUSWERTUNG 2015 Ausgabe 5 eBLMedium Eine Informationsbroschüre des eBusiness-Lotsen Mittelhessen Big Data Aufgrund der Größe und Vielfalt vorliegender Daten stoßen bisherige Werkzeuge zur Datenverarbeitung häufig an ihre Grenzen. Selbst wenn es gerade noch möglich sein sollte, die Flut an Daten verlustfrei zu speichern, so ist spätestens deren zeitnahe Auswertung häufig nicht mehr gegeben. Das vorliegende eBLM-Medium soll einige Ansätze vorstellen, wie man große Datenmengen handhabbar machen und zeitnah auswerten kann. Herausgeber eBusiness-Lotse Mittelhessen c/o TH Mittelhessen 35390 Gießen [email protected] www.ebusiness-lotse-mittelhessen.de in Kooperation mit dem Kompetenzzentrum für Informationstechnologie Text und Redaktion Dorothea Gugler Prof. Dr. Christian Schulze eBusiness-Lotse Mittelhessen Gestaltung Nicole Detzer, eBusiness-Lotse Mittelhessen Bildnachweis © Matthias Buehner, adistock, Coloures-Pic, Jeanette Dietl, OrpheusXL, industrieblick, andreas, Kirill Kedrinski IMPRESSUM Druck: Saxoprint Auflage: 500 Exemplare Stand: Februar 2015 INHALT Welche Vorteile bietet Big Data?................................... 6 Technologien für große Datenmengen....................... 12 Erkenntnisse gewinnen.................................................. 20 Fazit ................................................................................... 22 Literaturverzeichnis 2 800 000 000 000 000 000 Byte wurden bis 2012 erzeugt 000 1 WELCHE VORTEILE BIETET BIG DATA? 1 VORTEILE VON BIG DATA Welche Vorteile bietet Big Data? Die im Unternehmen anfallenden immer größer werdenden Datenbestände versetzen Unternehmen durch geschickte Auswertungen in die Lage, Mehrwerte zu generieren. Technologische Fortschritte in den vergangenen Jahren bieten die Möglichkeit, Daten in hohen Frequenzen zu speichern und zu verarbeiten. Außerdem ist es möglich, wenig strukturierte externe Daten beispielsweise aus den folgenden Quellen zu integrieren: Soziale Netzwerke, die Benutzern die Möglichkeit einräumen, eigene Beiträge zu verfassen, den aktuellen Standort (via GPS-Koordinaten) sowie Interessen zu teilen oder an Gruppen teilzunehmen, um sich mit anderen Menschen themenbezogen auszutauschen. Mobile Geräte wie Smartphone oder Tablet, die jederzeit einen Zugriff auf Internetseiten und soziale Netzwerke ermöglichen. Chips und Sensoren, die in Maschinen und Produkten entlang von Lieferketten oder eingebaut in Fahrzeugen zeitaktuell Informationen über Staus, Standort und vieles mehr geben können und durch deren Auswertung ein großes Potential für Optimierungen besteht. Big Data beschreibt Datenbestände, die durch herkömmliche Datenbanken aufgrund ihrer schieren Menge, Vielfalt und Geschwindigkeit nur begrenzt gespeichert und verarbeitet werden können. In Abgrenzung zu Business-Intelligence- und Data-Warehouse-Systemen arbeiten Big-Data-Anwendungen ohne Aufbereitung durch den ETL-Prozess (Extract, Transform, Load), bei dem Daten aus unterschiedlichen Quellen vereinheitlicht in eine einzige Datenbank überführt werden. Somit entstehen Auswertungen schneller und flexibler, wodurch Kosten eingespart werden können. 6 VORTEILE VON BIG DATA 1 Diese neuen Technologien leisten einen großen Beitrag zum starken Anstieg des Datenvolumens, dessen Verarbeitung und Auswertung Unternehmen in vielen Fällen nutzen können, um ihre Markposition auszubauen, auf Veränderungen im Markt zu reagieren und signifikante Wettbewerbsvorteile zu erarbeiten. Big Data kann Mehrwerte entlang der gesamten Lieferkette generieren: Daten aus Sensoren geben Auskunft über den Zustand von Maschienen, sodass Auffälligkeiten erkannt und Stillstände durch frühzeitiges Eingreifen verhindert werden können. Mithilfe der Auswertung mobiler Daten ist es möglich, die Nachfrage nach Produkten in Abhängigkeit von dem Standort eines potenziellen Kunden zu ermitteln, Einzelhändler bedarfsgerecht zu versorgen und dadurch Lagerhaltungskosten zu senken. Schließlich kann die Kommunikation über Unternehmen und Produkte in den sozialen Netzen erfasst und ausgewertet werden, um dadurch zeitnah und proaktiv auf Kritik oder Wünsche der Konsumenten reagieren zu können. Aus ökonomischer Sicht ist Big Data gekennzeichnet durch die Verabeitung gewaltiger Mengen an Daten aus verschiedenen Quellen innerhalb kürzester Zeit, um daraus Entscheidungen abzuleiten und somit wirtschaftliche Vorteile zu erzielen.1 Deshalb wird Big Data auch häufig als Erweiterung von Business Intelligence (BI) betrachtet: Es geht auch hier um die zeitnahe Nutzung und Analayse vorliegender, aber eben sehr großer Datenbestände. Business Intelligence-Lösungen werden bereits von über 90% der Mittelständler in Deutschland eingesetzt,2 sodass der Ansatz nicht neu ist. 1 Vgl. BITKOM-Arbeitskreis Big Data (2012). Big Data im Praxiseinsatz - Szenarien, Beispiele, Effekte. Berlin. S. 7ff 2 Vgl. IBM (2010). Business-Intelligence-Studie 2010. Einsatz, Nutzung und Probleme von Analyse- und Berichtssoftwarelösungen in mittelständischen Unternehmen in Deutschland. Conunit GmbH, IBM Deutschland GmbH, TU Chemnitz. 7 1 VORTEILE VON BIG DATA Die Schwierigkeit der Verarbeitung der enormen Flut aus Daten resultiert aus den nachfolgenden vier Merkmalen: DATENMENGE Die zuvor beschriebenen Technologien, die in der heutigen Gesellschaft bereits etabliert sind, erzeugen fortlaufend Daten. 2 800 000 000 000 000 000 000 Byte an Daten existierten bereits bis 2012, wobei Experten schätzen, dass sich diese Menge bis 2020 alle zwei Jahre verdoppeln wird. DATENVIELFALT Aufgrund der unterschiedlichen Herkunft der Daten besitzen diese stark variierende oder keine festen Strukturen oder Formate. Selbst die Daten, die ausschließlich im eigenen Unternehmen anfallen, können unstrukturiert sein. Beispiele dafür sind Präsentationen, die häufig nur lokal gespeichert werden und nicht verschlagwortet sind, sodass eine breitere Nutzung schlichtweg nicht möglich ist. Außerdem gehen wichtige Informationen, die durch E-Mail-Kommunikation anfallen, dadurch verloren, dass Mails nach bestimmten Zeitpunkten gelöscht und die enthaltenen Daten nicht zentral zugänglich gemacht werden. Die Vielfalt von Daten wird auch dadurch deutlich, dass Maschinen Informationen über ihre Verwendung und auftretende Störungen an eine zentrale Überwachungsstelle senden. Diese Protokolle sind häufig unstrukturiert und nur schwer lesbar für Menschen. Daten, die aus externen Quellen ins Unternehmen gelangen, können beispielsweise Kundenbewertungen von Produkten oder Dienstleistungen auf diversen Internetplattformen oder Beiträge in Social-Media-Kanälen sein, wobei diese formlos verfasst werden und folglich überaus unstrukturiert sind. 8 VORTEILE VON BIG DATA 1 GESCHWINDIGKEIT Dieses Merkmal muss unter zwei Aspekten betrachtet werden. Zum einen werden Produktionsdaten oder Daten, die aus externen Quellen ins Unternehmen gelangen, häufig in hoher Geschwindigkeit erzeugt und müssen unverzüglich gespeichert werden. Auf der anderen Seite ist eine zeitnahe Auswertung der Daten wünschenswert, um daraus einen ökonomisch wertvollen Nutzen zu erzielen und Wettbewerbsvorteile zu schaffen. Dazu ist häufig der Zugriff bzw. die Verarbeitung der Daten in Echtzeit erforderlich. Für ein produzierendes Unternehmen kann beispielsweise die (positive wie negative) Rückmeldung von Kunden großen Einfluss auf die Produktion nehmen: Eine zeitnahe Änderung der Produktionsprozesse oder der Produkte wird möglich, um Absatzproblemen vorzubeugen bzw. Lieferengpässe zu vermeiden. ANALYSEN Durch die Analyse und Auswertung von Daten sollen Mehrwerte entstehen. Im Umfeld von Big Data bedeutet das, dass in den großen Datenmengen Zusammenhänge und Muster erkannt und deren Bedeutungen interpretiert werden müssen. Außerdem können Prognosen auf einer wesentlich breiteren Datenbasis als bisher getroffen werden. Neben dem zuvor beschriebenen Beispiel, welches die Analyse von Kundenmeinungen zur Beeinflussung der Produktion erläutert, existieren zahlreiche andere Anwendungsszenarien, die die Notwendigkeit der Analyse von Datenbeständen unterstreichen. So kann durch die Überwachung der Log-Dateien von Produktionsmaschinen beispielweise durch Mustererkennung festgestellt werden, dass Komponenten ausgetauscht werden müssen, bevor diese ausfallen. Somit können Produktionsstillstände, die durch Ausfall und Reparatur von Komponenten entstehen, vermieden werden. 9 2 TECHNOLOGIEN FÜR GROSSE DATENMENGEN 2 TECHNOLOGIEN FÜR GROSSE DATENMENGEN Big Data in den Griff bekommen Die Kosten für Speicherplatz haben in den letzten Jahren stark abgenommen. Während 1998 der Preis für die Anschaffung von 1 Gigabyte (GB) Festplattenspeicher $228 betrug, waren es im Jahr 2010 lediglich $0,06. Der höhere Verbrauch von Speicherkapazitäten durch ein Mehr an Daten stellt also primär keine Barriere dar. Die Erweiterung der Speicherkapazitäten kann dabei auf zwei Arten geschehen: Zum einen ist es möglich, in bessere Hardware zu investieren, wenn die bisher verwendete Hardware an ihre Grenzen stößt. Dieses Vorgehen ist allerdings in hohem Maße kostenintensiv, denn je stärker ein Rechner aufgerüstet wird, desto höher sind die Investitionen. Zum anderen besteht eine weitere Möglichkeit für den Ausbau der Speicherkapazitäten darin, mehrere Standardkomponenten zu einem Verbund (engl. Cluster) zusammenzuschließen. Statt Hardware auszutauschen können dem Cluster weitere Maschinen hinzugefügt werden, sobald die Auslastung der Kapazität an ihre Grenzen gelangt. Eine solche Erweiterung erfordert keinesfalls die Investition in leistungsfähige Superrechner. Stattdessen ist der Einsatz von Standardhardware problemlos möglich. Die Leistungsfähigkeit des Clusters entsteht durch den Zusammenschluss mehrerer Komponenten. 12 2 TECHNOLOGIEN FÜR GROSSE DATENMENGEN Während die Kosten für den Zusammenschluss von Standard-Systemen im Vergleich zu den Anschaffungskosten eines Supercomputers wesentlich geringer sind, ist es gleichzeitig notwendig, die Verbindung dieser Komponenten über ein leistungsfähiges Netzwerk sicherzustellen. Um von einem solchen verteilten System, welches aus mehreren Standardrechnern besteht, profitieren zu können, ist es wichtig, dass die Kommunikation der Maschinen untereinander ohne großen Zeitverzug stattfinden kann. Die Erhöhung der Speicherkapazitäten stellt also keine Barriere dar. Als nächstes soll ein Blick auf die Technologien geworfen werden, die zur Speicherung umfangreicher Datenbestände entwickelt wurden. Als Gegenpol zu den etablierten relationalen Datenbanken, bei denen verschiedene Datensätze durch Zeilen einer Tabelle dargestellt werden (vgl. Tabelle 1), werden sehr unterschiedliche neuartige Datenbank-Technologien unter dem Begriff „NoSQL“ zusammengefasst. MitarbeiterNr Name 1 Schmidt 2 3 Möller Schneider Vorname Max Anrede Herr Geburtsdatum 22.07.1972 Position Kundendienst Theresa Philipp Frau Herr 13.02.1959 02.11.1987 Buchhaltung Marketing Tabelle 1: Zeilenweise Darstellung von Datensätzen einer relationalen Datenbank Der Begriff „NoSQL“ nimmt dabei Bezug auf die in klassischen relationalen Datenbanken verwendete Abfragesprache SQL. „NoSQL“ soll dabei aber nicht andeuten, dass keine Sprache zur Abfrage von Inhalten einer Datenbank existiert, sondern vielmehr, dass nicht nur („not only“) traditionelles SQL verwendet wird. 13 2 TECHNOLOGIEN FÜR GROSSE DATENMENGEN Die unter dem Begriff „NoSQL“ zusammengefassten Technologien lassen sich grob in vier Gruppen einteilen. Die erste Gruppe umfasst Datenbanken, deren Inhalte einfache Schlüssel-Wert-Paare bilden. Im Prinzip handelt es sich dabei um Paare mit folgendem Aufbau: (SCHLÜSSEL : WERT) Der Zugriff auf den Wert ist nur mithilfe des Schlüssels möglich, weshalb dieser einen Wert eindeutig identifizieren muss. Als Beispiel ist die Verwaltung von Postleitzahlen denkbar, wobei über die Eingabe der PLZ der Name der zugehörigen Stadt gefunden werden kann. Zur zweiten Gruppe gehören spaltenorientierte Datenbanken. Im Gegensatz zu relationalen Datenbanken, bei denen ein Datensatz zeilenweise zu lesen ist (vgl. Tabelle 1), ist bei Datenbanken dieser Kategorie ein Datensatz in einer Spalte zu finden (vgl. Tabelle 2). Während bei Auswertungen eines Attributes einer relationalen Datenbank (entspricht einer Spalte) alle Zeilen einer Tabelle gelesen werden müssen, genügt es in einer spaltenorientierten Datenbank, eine einzelne Zeile zu lesen. Dadurch werden Auswertungen über einzelne Attribute deutlich beschleunigt. Gleichzeitig nimmt die Zeit, die zum Speichern eines Datensatzes benötigt wird, verhältnismäßig zu, da dieser nicht in einer einzelnen Zeile, sondern in mehreren Zeilen einer Spalte eingefügt werden muss. Anrede Vorname Nachname Jahresgehalt Herr Max Schmidt 30.000 € Frau Theresa Möller 36.000 € Herr Philipp Schneider 41.000 € Tabelle 2: Spaltenweise Darstellung von Datensätzen einer spaltenorientierten Datenbank 14 TECHNOLOGIEN FÜR GROSSE DATENMENGEN 2 Während es in Datenbanken auf Basis von Schlüssel-Wert-Paaren nur möglich ist, einen einzelnen Wert zu einem Schlüssel zu speichern, erweitern Dokumentdatenbanken diese Technologie. Inhalte dieser Datenbanktechnologie sind Dokumente, welche sich allerdings von Dokumenten im herkömmlichen Sinn unterscheiden. Während im allgemeinen Sprachgebrauch ein Dokument eine Textdatei (Word, PDF etc.) beschreibt, handelt es sich bei einem Dokument im Datenbank-Kontext im Prinzip um eine beliebige Datei. Als Erweiterung der Schlüssel-WertDatenbanken besteht ein einzelnes Dokument aus zahlreichen Schlüssel-Wert-Paaren und kann daher umfangreichere Inhalte speichern. Um das obige Beispiel aufzugreifen, ist es in einer Dokumentdatenbank möglich, außer der Postleitzahl und dem Namen einer Stadt außerdem die Einwohnerzahl, den Namen des Bürgermeisters, das Stadtwappen, das Kfz-Kennzeichen sowie weitere denkbare Attribute, die für die Verwaltung von Städten eine Rolle spielen, zu speichern. Die letzte Gruppe an Datenbanken unterscheidet sich von den drei vorigen merklich: Dabei handelt es sich um die sogenannten Graphdatenbanken. Diese basieren auf der mathematischen Disziplin der Graphentheorie, weshalb zahlreiche bereits existierende Algorithmen für unterschiedliche Anwendungsfelder verwendet werden können. 15 2 TECHNOLOGIEN FÜR GROSSE DATENMENGEN Der zentrale Unterschied von Datenbanken dieser Gruppe zu den Datenbanken der drei zuvor genannten Gruppen besteht darin, dass in einem Graphen Beziehungen verschiedener Datensätze (die als Knoten modelliert werden) problemlos dargestellt werden können (dies erfolgt über die Verbindung von Knoten über Kanten). Ein Beispiel für die Modellierung eines Städte-Graphen findet sich in Abbildung 1. Dillenburg Marburg Treysa Alsfeld Wetzlar Gießen Zugverbindung ohne Umstieg Abbildung 1: Darstellung eines Städte-Graphen, wobei Zugverbindungen ohne Umstieg als Beziehungen der Städte zueinander modelliert werden 16 2 TECHNOLOGIEN FÜR GROSSE DATENMENGEN Die vorgestellten neuen Technologien bieten die Möglichkeit, je nach Format, Struktur und Art der Daten, die zum Anwendungsfall passende Datenbank auszuwählen. Wichtig ist an dieser Stelle die Anmerkung, dass nicht jede Technologie für jeden Anwendungsfall geeignet ist und in vielen Fällen auch die Verwendung von relationalen Datenbanken einfacher und sinnvoller ist. Stoßen die bisherigen Technologien allerdings an ihre Grenzen, so ist die Verwendung einer NoSQL-Datenbank in Betracht zu ziehen. Zentraler Punkt in diesem Zusammenhang ist die oft notwendige zeitaktuelle oder wenigstens zeitnahe Auswertung der betrachteten Daten. Abfragen oder Analysen, die mehrere Tage oder Wochen andauern, sind wenig hilfreich, wenn kurzfristig Ergebnisse benötigt werden. Dies gilt beispielsweise für Anfragen im Internet, die nahezu in Echtzeit bearbeitet werden müssen, oder für Analysen von Unternehmensdaten, die schnelle Entscheidungen ermöglichen sollen. Daher befasst sich der nächste Abschnitt mit einem Hilfsmittel der vorgestellten Technologien, das eine zeitnahe Auswertung von Daten ermöglicht. Die hier vorgestellten Technologien können genutzt werden, um Big Data beherrschbar zu gestalten. Vor dem Einsatz sollten jedoch alle potentiellen Anwendungsfelder identifiziert und bewertet werden, um im Anschluss zunächst einzelne erfolgversprechende Bereiche auszuwählen und zu spezifizieren. Daraus sollte sich ein Konzept ableiten, wie sich das weitere Vorgehen gestaltet, um aus Big Data einen Mehrwert zu generieren. 1 1 Vgl. http://www.pwc.de/de/digitale-transformation/anwendungsfaelle-identifizieren-bewerten-und-definieren.jhtml 17 3 ERKENNTNISSE GEWINNEN 3 ERKENNTNISSE GEWINNEN Auswertungen mit Map-Reduce Ausgehend von der Idee, sämtliche Daten auf mehreren Maschinen zu verteilen, die räumlich voneinander getrennt sein können, besteht - um einen unternehmerischen Mehrwert aus der Speicherung der Daten zu erzielen - die Notwendigkeit, diese verstreuten Daten effizient auszuwerten. Aus der Verwendung mehrerer Computer zur Speicherung der Daten resultiert eine große Chance: Auf jeder einzelnen Maschine können Berechnungen und Auswertungen der dort vorhandenen Daten durchgeführt werden.1 Da die Maschinen unabhängig voneinander über eigene Rechenkapazitäten verfügen, bedeutet dies eine große Zeitersparnis, denn die Berechnungen der einzelnen Maschinen finden gleichzeitig statt. Außerdem kann die Auswertung vieler kleiner Datenbestände schneller durchgeführt werden, als die Auswertung eines riesigen Datenbestandes. Die zusätzliche Zeit, die im Anschluss daran zur Zusammenführung der Ergebnisse aller Teilbestände benötigt wird, fällt dabei kaum merklich ins Gewicht. Damit bei der Erstellung von Anwendungen zur Auswertung der Datenbestände eine Konzentration auf die Ziele der Auswertung stattfinden kann, existiert ein Konzept mit dem Namen Map-Reduce. Dieses wurde 2004 bei Google entwickelt und erlaubt es, Auswertungen zu erstellen, die parallel auf mehreren Rechnern durchgeführt werden können, ohne das Wissen zu besitzen, wie die Parallelisierung im Einzelnen umgesetzt werden muss. Das Vorgehen von Map-Reduce besteht aus zwei Schritten, die anhand eines Beispiels verdeutlicht werden sollen. Besteht die Aufgabe einer einzelnen Person darin, in einem 1000-seitigen Buch zu zählen, welche Wörter wie oft vorkommen, so ist einleuchtend, dass dies einen großen zeitlichen Aufwand bedeutet. Im übertragenen Sinn kann Map-Reduce erst dann verwendet werden, wenn dieselbe Aufgabe von mehreren Personen durchgeführt wird. 1 Diese Aufteilung von Berechnungen auf mehrere Rechner wird als Parallelisierung bezeichnet. 20 ERKENNTNISSE GEWINNEN 3 Teilen sich beispielsweise zwei Personen diese Aufgabe, so muss jede der beiden lediglich die Wörter von 500 Seiten zählen (wofür sie aller Wahrscheinlichkeit nach nur die Hälfte der Zeit benötigen). Diese parallel durchgeführte Zählung entspricht dem Map-Schritt. Im Anschluss daran kann eine Person alleine den Reduce-Schritt durchführen, indem sie die Ergebnisse der beiden Buchhälften zusammenführt. Je mehr Personen für die Aufgabe zur Verfügung stehen, desto stärker nimmt die Dauer ab, die zur Erfüllung benötigt wird. In dem Fall, dass 1000 Personen zur Zählung der Wörter eines 1000-seitigen Buches zur Verfügung stehen, besteht der Aufwand einer Person aus lediglich einer einzigen Seite. Die enorme Zeitersparnis in diesem Fall ist offensichtlich. Der beschriebene Fall stellt lediglich ein triviales Beispiel dar, um die Funktionsweise der Parallelisierung zu verdeutlichen. In der Praxis finden sich zahlreiche andere Anwendungsszenarien dafür. 21 3 FAZIT Fazit Wir haben nur einige neue Datenbank-Technologien betrachtet und uns kurz mit dem MapReduce-Konzept in verteilten Systemen beschäftigt. Diese Ansätze repräsentieren im Wesentlichen die Instrumente zum Umgang mit Big Data. Ob es sinnvoll ist, diese neuen Technologien einzusetzen oder ob klassische relationale Datenbank-Lösungen ausreichen, hängt stark vom Anwendungsszenario ab. Häufig ist die Performance relationaler Datenbanken einfach nicht ausgereizt und bessere Modellierung und Indexierung können schon Abhilfe schaffen. Big Data erfordert aber in vielen Fällen tatsächlich einen Technologiewechsel. Oft liegt eine Lösung auch in einer Kombination beider Technologien. WESENTLICHE KERNAUSSAGEN Um Wettbewerbsvorteile zu erzielen, wird die Speicherung und Auswertung relevanter Daten immer wichtiger. Daten gelten mittlerweile zurecht als der vierte Produktionsfaktor. Wenn relationale Datenbanken wegen großer Datenmengen an ihre Grenzen stoßen, kann der Einsatz von NoSQL-Datenbanken weiterhelfen. Für die Verarbeitung und Analyse großer Datenmengen muss nicht zwangsläufig in immer teurere Hardware investiert werden. Verbesserungen können auch durch den Zusammenschluss von Standard-Komponenten zu einem Cluster erreicht werden. In einem Cluster birgt die Verwendung des Map-Reduce-Konzepts enorme Möglichkeiten der Performance-Steigerung. Wird die Verwendung einer neuen Datenbanktechnologie in Betracht gezogen, sollte das Anwendungsszenario genau analysiert werden, um die passende Technologie auszuwählen. 22 WEITERFÜHRENDE INFORMATIONEN Big Data im Praxiseinsatz - Szenarien, Beispiele, Effekte BITKOM-Arbeitskreis Big Data (2012) Management von Big-Data-Projekten BITKOM-Arbeitskreis Big Data (2013) Big-Data-Technologien - Wissen für Entscheider BITKOM-Arbeitskreis Big Data (2014) Neue Studie zum digitalen Universum entdeckt Big Data Gap EMC Deutschland GmbH (2012) Big Data in der Praxis Jonas Freiknecht (2014) ISBN: 3446439595 NoSQL: Einstieg in die Welt nichtrelationaler Web 2.0 Datenbanken Stefan Edlich et al. (2011) ISBN: 3446427538 Das eKompetenz-Netzwerk für Unternehmen Kiel Lübeck Schwerin Hamburg Neubrandenburg Bremen Berlin Brandenburg a. d. H. Lingen Osnabrück Magdeburg Münster Dortmund Potsdam Frankfurt (Oder) Hannover Cottbus Paderborn Hagen Leipzig Dresden Köln Aachen Ilmenau Chemnitz Gießen Koblenz Hof Darmstadt Saarbrücken Würzburg Kaiserslautern Nürnberg Regensburg Stuttgart Augsburg Weingarten Freilassing eBusiness-Lotsen Das „eKompetenz-Netzwerk für Unternehmen“ ist eine Förderinitiative des Bundes­ministeriums für Wirtschaft und Energie (BMWi). 38 regionale eBusiness-Lotsen haben die Aufgabe, insbesondere mittelstän­dischen Unternehmen deutschlandweit anbieter­neutrale und praxisnahe Informationen für die Nutzung moderner Informations- und Kommunikationstechnologien (IKT) und möglichst effiziente eBusiness-Prozesse zur Verfügung zu stellen. Die Förderinitiative ist Teil des Förderschwerpunkts „Mittelstand-Digital – IKT-Anwendungen in der Wirtschaft“. Zu „Mittelstand-Digital“ gehören ferner die Förderini­tiativen „eStandards: Geschäftsprozesse standardisieren, Erfolg sichern“ (16 Förderprojekte) und „Einfach intuitiv – Usability für den Mittelstand“ (13 Förderprojekte). Unter www.mittelstand-digital.de können Unternehmen sich über die Aktivitäten der eBusiness-Lotsen informieren, auf die Kontaktadressen der regionalen Ansprechpartner sowie aktuelle Veranstaltungs­termine zugreifen oder auch Publikationen einsehen und für sich herunterladen.