Whitepaper BPM der nächsten Generation Mit Big Data intelligente Unternehmensprozesse schaffen BPM der nächsten Generation Mit Big Data intelligente Unternehmensprozesse schaffen Autor: Christopher Thomsen für OPITZ CONSULTING Haben Sie Fragen zu diesem Thema? Dann sprechen Sie uns gerne an! Ihr Ansprechpartner: Christopher Thomsen, Leiter Competence Center Big Data [email protected] Inhaltsübersicht Vorwort Vorwort Geschäftsprozesse Business Process Model and Notation Big Data Apache Hadoop Das Hadoop Ökosystem Workflow Management in Hadoop Nutzwert einer nahtlosen Integration Technologien & Lösungsansätze Schlussbetrachtung Quellen Über OPITZ CONSULTING Bei der weitgehend autonomen Steuerung von Prozessen werden in der Prozessautomatisierung immer größere Datenmengen erzeugt und für Analysefunktionen verfügbar gemacht. Dies ist vor allem im Bereich der datengetriebenen Prozesssteuerung, z. B. unter Zuhilfenahme sensorengestützter, prädiktiver Analyse von Maschinendaten, Serverlogs und Textnachrichten der Fall. Die zentrale Herausforderung der IT besteht darin, Lösungen für effektive und effiziente Verknüpfungen von Daten- und Prozessmanagement mit geeigneten Analysewerkzeugen bereitzustellen. Obwohl der Kosten- und Innovationsdruck im Bereich der Prozessautomatisierung im Zuge von IoT- und Big Data in den nächsten Jahren weiter wachsen wird, sind standardisierte Lösungen noch kaum verfügbar. Ist es wirklich nützlich und notwendig, neue Big-Data Systeme in die bestehende Prozesslandschaft zu integrieren? Am Beispiel der Integration von Komponenten aus dem Hadoop-Ökosystems in eine BPM-Engine stellt dieses Whitepaper methodische und technische Ansätze für die Umsetzung vor. Texte und Abbildungen wurden mit größter Sorgfalt erarbeitet. OPITZ CONSULTING kann jedoch für eventuell verbleibende fehlerhafte Angaben und deren Folgen weder eine juristische Verantwortung noch irgendeine Haftung übernehmen. Das Recht an dargestellten Verfahren, Showcases, Implementierungsbeispielen und Sourcecodes liegt ausschließlich bei OPITZ CONSULTING. © OPITZ CONSULTING Deutschland GmbH 2015 Whitepaper: BPM der nächsten Generation Seite 2 Geschäftsprozesse Geschäftsprozesse beschreiben einen betriebswirtschaftlichen Ablauf, dessen Ergebnis einen Nutzen für einen internen oder externen Kunden hat. Aktivitäten und Ereignisse werden in Zusammenhang gebracht und auf die zeitliche und sachliche Abfolge sortiert. Bei Geschäftsprozessen unterscheidet man Kernprozesse (z. B. Aufgaben, die der Erzielung von Umsatz dienen) von Managementprozessen (z. B. Projektmanagement) und Unterstützungsprozessen (z. B. Personalwesen). Das Management dieser Prozesse ist für ein Unternehmen von großer Wichtigkeit und wird als Business Process Management (BPM) bezeichnet. Es beinhaltet die Planung, Umsetzung, Kontrolle und Optimierung von Geschäftsprozessen und verfolgt im Wesentlichen diese Ziele: ■ ■ ■ ■ ■ Routinetätigkeiten zusammenfassen und standardisieren Prozesse optimieren Qualität verbessern Durchlaufzeiten beschleunigen Kundenzufriedenheit erhöhen Die Detaillierung eines Geschäftsprozesses hängt von der Methode der Modellierung ab. Ein Geschäftsprozess kann textlich, tabellarisch oder grafisch-textuell beschrieben und modelliert werden. Unified Modeling Language (UML), Ereignisgesteuerte Prozesskette (EPK) und Business Process Model and Notation (BPMN) sind die am weitesten verbreiteten Notationen für die Darstellung von Geschäftsprozessen. Business Process Model and Notation Die Business Process Model and Notation, kurz BPMN, ist noch eine relativ neue Notation, deren Bekanntheitsgrad derzeit steigt. Das Interesse an der BPMN ist deutlich höher als an den Notationen UML und EPK, hinsichtlich der Praxiserfahrungen steht BPMN allerdings vielfach noch am Anfang. Die Notation erfüllt Anforderungen für die Prozessautomatisierung mit Workflow-Management-Systemen und ist für die fachliche und technische Prozessmodellierung geeignet. Ein Workflow besteht aus einer Folge von Aktivitäten und einem klar definierten Anfang und Ende. Die Aktivitäten stehen in einer logischen und sachlichen Beziehung sowie einer zeitlichen Reihenfolge zueinander. Während sich ein Geschäftsprozess auf die unternehmerische Sicht bezieht, stellt der Workflow die technische Sicht, also die IT-unterstützte Realisierung dar. © OPITZ CONSULTING Deutschland GmbH 2015 Eine Reihe ausgereifter BPM-Engines, die in der Lage sind, BPMN-Prozesse direkt zu implementieren und auszuführen, bietet der Markt bereits. Der in XML-Notation serialisierte Prozess dient hierbei als Ablauf- und Entscheidungsvorlage für die Engine, während Aktionsknoten durch den BPMEntwickler ausimplementiert bzw. konfiguriert werden müssen. In der Ausführung wird durch jede Auslösung des Startereignisses eine neue Prozessinstanz (Vorgang) gestartet, z. B. für jede eingehende Kundenbestellung. Per Token ist ein schneller Überblick über die gerade ausführende Tätigkeit oder mehrerer Tätigkeiten einer Prozessinstanz möglich. Durch die Abbildung der Implementierung und der Ausführung auf das ursprüngliche Prozessbild lassen sich die Prozessbläufe auf das BPMN-Diagramm projizieren. Big Data Wie das Internet generieren heute auch Unternehmen Massen an Daten. Die meisten Firmen speichern diese Informationen zwar, haben aber nicht genügend Ressourcen, um die Datenmengen für sich zu analysieren und zu nutzen. Big-Data-Lösungen versprechen hier Abhilfe. Den Begriff Big Data assoziieren viele mit unterschiedlichen Technologien, Methoden und Strategien. Manche denken in diesem Zusammenhang an Technologien wie Social Mining, Predictive Analytics, Real Time, Customer Insights, Sensor Data, Stream Computing und Data Warehousing. In Literatur und Praxis trifft man häufig auf die „3 Vs“: Volume, Velocity, Variety, die die Kernaspekte und Dimensionen beschreiben, die Big-Data–Technologien bewältigen sollen. Im Kerngedanken geht es demnach zuallererst um technische Möglichkeiten, übergroße Datenmengen oder aber sehr komplexe Rechenoperationen auf unterschiedlich strukturierten Daten in kürzester Zeit zu verarbeiten und zu verwalten. Datenanalytik- und Prognoseverfahren kombinieren die drei Dimensionen von Big Data zumeist. Deshalb bringen viele Leute Big Data mit Data Mining oder Advanced Analytics in Zusammenhang. De facto handelt es sich bei Big-Data-Technologien jedoch um die Lösung, um Data Mining uneingeschränkt anzuwenden. Das Verfahren selbst existiert schon seit zehn Jahren, wurde jedoch meist nur auf Datensamples und einer Auswahl nutzbarer Datenquellen und -formaten ausgeführt. Apache Hadoop Bei Hadoop handelt es sich um die am häufigsten mit Big Data assozierte Technologie. Die Big-Data-Referenzplattform verspricht die Bewältigung gewaltiger Datenmengen. 2012 durchbrach das Internet die Schwelle von zwei Zetabyte gespeicherten Daten. Die Entwicklung begann aber schon in den 90er Jahren. Schon damals verzeichneten Statistiker eine jährliche Vervielfachung der Datenmengen. Eine ähnliche Entwicklung machte in der gleichen Zeit jedoch auch die Rechenleistung. Whitepaper: BPM der nächsten Generation Seite 3 Experten gingen davon aus, dass sich beides in der Waage halten würde. Doch das Problem bereitet nicht die Datenmenge an sich, sondern die Art und Weise, wie diese genutzt wird — und so benötigen Unternehmen heute neue Technologien und Ansätze, um dem steigenden Datenwachstum gerecht zu werden. Klassischerweise speichert die IT sehr große Datenmengen in mehreren Datentöpfen. Zur Auswertung werden diese Töpfe jeweils für sich zusammengefasst. Die Ergebnisse werden in einem neuen Datentopf auf einer weiteren Stage zusammengeführt. Ist die Datenmenge nach wie vor zu groß, kann dieses Vorgehen mehrstufig ablaufen. Die Schwierigkeit bei diesem Ansatz ist, dass die Funktionen auf den Datentöpfen isoliert auflaufen sollten, da Abgleiche auf den Rohdaten verschiedener Töpfe vom Aufwand her sehr teuer sind. Zudem laufen die analytischen Auswertungen auf den bereits aggregierten Daten, sodass bestimmte Informationsdetails nicht mehr verfügbar sind. Hier setzt das Hadoop Distributed File System (HDFS) an und ermöglicht die Verwaltung auf einer einzelnen virtuellen Partition und die Verwaltung von Daten jeglicher Formate. Dies koppelt Hadoop mit Google‘s MapReduce zur verteilten, parallelen Ausführung von Operationen. Um diese transparent zu machen, übernimmt Hadoop die Virtualisierung des Dateisystems, die Redundanz, die Verteilung und Ausführung von Code. Somit können auf diesem Dateisystem spezialisierte Werkzeuge aufsetzen, z. B. diverse Datenbanken, um ihre Daten auf dem HDFS serialisiert abzulegen. Diese Datenbanken erben die Eigenschaften des HDFS und können für ihre Job-Durchführung das MapReduce Framework nutzen. Ab Version 2.0 gibt es bei Hadoop Änderungen in Bezug auf die Kernkomponenten. An der Stelle von MapReduce steht YARN. Mit YARN kann der Anwender andere Algorithmen für verteilte Anwendungen wählen als mit MapReduce. Das Hadoop Ökosystem Das Hadoop Ökosystem setzt sich aus der Vielzahl spezialisierter Werkzeuge zusammen, die auf dem Core Hadoop (HDFS + YARN) aufsetzen und einen spezifischen Anwendungsbereich abdecken. Dieses Ökosystem wird auch Hadoop-Zoo genannt, weil einige dieser Anwendungen Tiernamen oder Tier-Logos tragen. Einige häufig anzutreffende Vertreter sollen im Folgenden beschrieben werden: Apache Pig Apache Pig ist eine in Java implementierte Plattform zur Transformation und Verarbeitung großer Datenmengen. Yahoo entwickelte Pig im Jahr 2006 und stellte es 2007 der Öffentlichkeit zur Verfügung. Bei Yahoo, dem Betreiber des größten Hadoop-Clusters, sind mehr als 60 Prozent der Hadoop Operationen Pig Jobs. Pig Latin besitzt eine im Vergleich zur nativen MapReduce Entwicklung sehr einfache Syntax und erlaubt die schnelle Entwicklung verteilter Tranformationsprozesse. Apache Hive Apache Hive ist eine Datenflusssprache für die Batch-Datenverarbeitung in einem Hadoop-System. Hive wurde von Facebook entwickelt und im Jahr 2009 veröffentlicht. Die Nutzung von Hive erinnert an Befehle der Datenbanksprache SQL. Hive lässt sich sehr gut bei strukturierten bis semistrukturierten Daten anwenden. Eine Eigenschaft, die bei der Hinzunahme von unstrukturierten Daten nicht ausreicht. Apache Spark Apache Spark gehört ebenfalls zu den Hadoop Anwendungen. Es handelt sich um ein Open-Source-Framework, das sich unter anderem für Echtzeitanalysen eignet. Mithilfe von Spark lassen sich Jobs in den Programmiersprachen Java, Python oder Scala schreiben, die die Analyse von unstrukturierten Daten ermöglichen. Sqoop Sqoop ist eine Java-Anwendung des Herstellers Cloudera für den Import und den Export von Daten. Sie hilft dabei, Daten zwischen Hadoop und einem relationalen Datenbanksystem (RDB) auszutauschen. Der Name Sqoop steht für „SQL-to-Hadoop“. Das Tool wird in der Regel über Konsolenbefehle oder aus einer Java-Anwendung heraus ausgeführt. Workflow Management in Hadoop Apache Oozie ist ein in Java implementiertes Workflow-ManagementSystem zur Verwaltung, Ausführung und Überwachung von Hadoop Jobs. Bei Oozie besteht ein Workflow aus einer Sammlung von Aktionen, die in einem gerichteten, azyklischen Graphen angeordnet sind. „Gerichtet“ bedeutet, dass die Aktionen in einer Reihenfolge stehen und „azyklisch“ heißt, dass die Aktionen nicht rekursiv oder iterativ aufgerufen werden können. Die Aktionen bestehen aus Operationen und Befehlen unterschiedlicher Werkzeuge des Hadoop-Ökosystems. Durch Sub-Workflows können Teilprozesse dargestellt und eingebunden werden. Ein Workflow wird in Oozie mit der Oozie eigenen Notation hPDL beschrieben. hPDL ist XML-basiert und steht für Hadoop Process Defintion Language. Zwischen den einzelnen Aktionen können Abhängigkeiten von einer Aktion zur nächsten definiert werden. Oozie unterstützt keine Schleifen, jedoch Knoten zur Steuerung von Workflows wie Start, Ende und Fehlerknoten, sowie Verzweigungen, Gabelungen und Vereinigungen zur parallelen Ausführung. Abbildung 1 zeigt einen einfachen Beispielprozess. Mit Pig können komplexe MapReduce Jobs geschrieben und ausgeführt Oozie wird in zwei Teile gegliedert, in die Workflow-Engine und die Coordiwerden. Das Schreiben von MapReduce Jobs für das Laden, Transformieren nation-Engine. Die Workflow-Engine ist für die Ausführung des Prozesses und Speichern von Daten wird mit der Skriptsprache Pig Latin ermöglicht. zuständig und die Coordination-Engine für den zeit- und datengetriebenen Ablauf eines Prozesses. © OPITZ CONSULTING Deutschland GmbH 2015 Whitepaper: BPM der nächsten Generation Seite 4 Durch den zeitgetriebenen Ablauf kann einem Workflow z. B. ein Ausführungsdatum und auch ein Wiederholungsintervall zugewiesen werden. Ein datengetriebener Ablauf wird genutzt, wenn ein Workflow jedesmal nach Eingang bestimmter Daten ausgeführt werden soll. Einem Workflow kann ein Ausführungsdatum, eine Wiederholung (z. B. wöchentlich, täglich) und auch ein Timeout zugewiesen werden. Auch der Start eines Workflows nach Verfügbarkeit der Daten ist konfigurierbar. Dann startet der Prozess innerhalb eines Zeitintervalls, wenn die benötigten Daten vorhanden sind. Allerdings hat der Wert dieser Informationen natürlich nur eine geringe Haltbarkeit. In genanntem Beispiel beträgt diese oft weniger als einen Monat bis zur möglichen Kündigung durch den Kunden. Nur eine nahtlose Integration der Vorhersage- und Analysepotenziale einer Big-Data-Lösung in den Unternehmensprozess kann daher die umgehende Nutzung und ständige Prozess- und Modellverbesserung gewährleisten. In manchen Fällen macht es also Sinn, Hadoop Operationen nicht im systemeigenen Workflow-System Oozie, sondern über eine BPM-Plattform auszuführen. Insbesondere bei diesen Fällen wäre dies anzuraten: 1. Bei langlaufenden Prozessen, die datengetriebene Entscheidungen enthalten 2. Bei sich häufig ändernden Prozessen 3. Bei der Vermischung von Big-Data-Operationen und manuellen Tätigkeiten Nutzwert einer nahtlosen Integration Durch die Integration von Hadoop in Geschäftsprozesse können bislangnicht genutzte Datenpools in den Prozess mit eingebunden werden. So werden Entscheidungen nicht mehr allein auf Grundlage von einseitigen Informationen getroffen, die dem Unternehmen in Form strukturierter Daten vorliegen. Auch nicht aufgrund manueller Entscheidungen durch Entscheidungsträger. Sondern Entscheidungen werden fortan datengetrieben gefällt, auf Basis selbstlernender Modelle auf semi-strukturierten und unstrukturierten Daten wie Logdaten, Kundenaktivitäten in einem OnlineShop, E-Mail-Texten oder Social Media Nachrichten. Dies führt zu einer Optimierung der Geschäftsprozesse. In der Folge können beispielsweise Customer Retention Prozesse unterstützt werden. So kann der Vertrieb Zielkunden anhand ihres ChurnPotenzials auswählen und individuelle Vergünstigungen auf Basis von Logdaten, Nutzungsdaten und Informationen aus den relevanten Inforatmationssystemen zuordnen. Wo dies nicht zutrifft, ist der Rücksprung auf Apache Oozie sinnvoll. Abzuraten ist hingegen grundsätzlich von der programmatischen Selbstimplementierung des Prozessverlaufs in einer Anwendung oder via Skript. „Don't build your own Process Engine!“ Technologien und Lösungsansätze Führt man Big-Data-System und Unternehmensprozesse zusammen, interagieren diese nach zwei typischen Mustern miteinander: Big Data Pull: Der Prozess initiiert die Interaktion Ein Task im Prozess wird ausgeführt und startet z. B. einen Pig Batch Job im Hadoop Cluster, um einen aktuellen Datenstand zu berechnen. Dieser führt eine Hive Query auf einem Datensatz in Hadoop aus. Das hochaggregierte Ergebnis dieser Daten fließt anschließend in den Prozess zurück und steht in einer Folgeverarbeitung über eine Regel-Engine oder über einen einfachen Entscheidungsoperator für eine datengetriebene Entscheidung zur Verfügung. Dieses Muster unterscheidet sich kaum von der Integration anderer Datenquellen in den Unternehmensprozess, wie z. B. des Data Warehouses. Big Data Push: Die Daten starten die Interaktion Eine spezifizierte Datenkonstellation führt zur Auslösung eines Prozesses mit Informationen zu den auslösenden Datenbeständen. Dieses Muster Wird die Auswertung mit einem Geschäftsprozess verbunden, könnte der zuständige Mitarbeiter dem Kunden völlig automatisiert und auf der Basis findet vor allem bei Realtime-Use-Cases Anwendung, z. B. zur sensorgestützten Vorhersage von Maschinenstörungen und -ausfällen. In diesem von Prognosen ein Angebot vorlegen, das ihn dazu bewegt, eine Kündigung zurückzuziehen. Abgesehen von der Zeitersparnis für den Mitarbeiter Szenario senden Sensoren einen unablässigen Strom an Einzeldaten. Diese können in Hadoop via Spark oder Storm in Echtzeit ausgewertet werden. eröffnen sich hier ganz neue Möglichkeiten, Informationen effizienter zu Nur ein kurzes Zeitintervall des aktuellen Datenstroms wird im Speicher nutzen. Mit der Vielzahl der Daten lassen sich über einen Kunden Wahrgehalten. Diese Systeme erkennen ein Fehlermuster und starten einen scheinlichkeiten berechnen zu Fragen wie: Wird der Kunde kündigen? Wenn ja, wann wird das sein? Lohnt sich eine Ansprache für eine Erweite- Prozess zur Fehlerbehandlung mit den notwendigen Informationen, wie Modellnummer, Kunde und Fehlertyp. rung des Angebots? Welche Maßnahmen würden den Kaufreiz für ihn persönlich steigern? © OPITZ CONSULTING Deutschland GmbH 2015 Whitepaper: BPM der nächsten Generation Seite 5 Für die technische Realisierung einer Integration zwischen Hadoop und einer BPM-Engine gibt es für die oben genannten Muster zwei grundsätzliche Herangehensweisen: Steuerung via Service Eine Möglichkeit besteht darin, Hadoop Operationen per Service zugänglich zu machen und per Service Call (REST oder SOAP) anzusteuern. Offensichtlicher Vorteil dieses Vorgehens ist die lose Kopplung der Big-DataUmgebung von der Prozess-Engine, die hier als Service Consumer auftritt. Die Big-Data-Plattform ist im Gegenzug in der Lage, die Services der Prozess-Engine zum Starten von Prozessen und Auslösen von Ereignissen zu „konsumieren“. Hier zeigt sich der Nachteil dieser Lösung, da die Hadoop Komponenten größtenteils nicht auf SOA enabled sind. Es müssten also neue Komponenten als Mediator zwischen den Bausteinen entwickelt werden. Diese Komponenten wären im Hadoop Cluster angesiedelt und müssten an dieser Stelle zum Beispiel auch Authentifizierungsprüfungen durchführen. Wie bei allen servicegetriebenen Verfahren ist hier eine asynchrone Verarbeitung und Benachrichtigung möglich. Beides ist jedoch in der Umsetzung meist sehr komplex und häufig nur unter Zuhilfenahme eines Enterprise Service Bus (ESB) sinnvoll verwaltbar. Ansprache via Prozess-Engine Alternativ können die zu verwendenden Hadoop Komponenten direkt über die Prozess-Engine angesprochen werden. Dies erfordert die Entwicklung von Adaptern für die Prozess-Engine, um auf den nativen Schnittstellen der entsprechenden Werkzeuge mit diesen zu interagieren. Ein Vorteil dieses Vorgehens ist, dass die Integration vollständig in der Prozess-Engine gebündelt ist. Asynchrone oder eventgetriebene Kommunikation ist damitleichter umsetzbar. Nachteilig ist allerdings die feste Kopplung zwischen Prozess-Engine und Big-Data-System und die damit verbundenen Abhängigkeiten, z. B. bei Versionsupgrades. Bei beiden Vorgehensweisen ist zu beachten, dass eine Prozess-Engine nicht darauf ausgelegt ist, große Datenmengen in ihren Prozessinstanzen vorzuhalten. Zwischenergebnisse sollten also niemals als Rückgabewert in den Prozess geladen werden. Damit würden sie möglicherweise den Prozessspeicher zum Überlauf bringen. Stattdessen sollte stets nur mit Pointern auf Tabellen in Hive und Speicherorten im HDFS gearbeitet werden. Schlussbetrachtung BPM stellt ein wichtiges Werkzeug zur Ausführung und Optimierung der Firmenprozesse dar. Es verbindet manuelle Interaktion, automatisierte Prozesse und intelligente datengetriebene Entscheidungsfindung. Datengetriebene Entscheidungen machen Prozesse intelligenter und reduzieren die menschliche Interaktion in BPM – Ziel ist also die inkrementelle Ablösung von User Tasks zur Entscheidungsfindung durch Big-DataOperationen. Die Integration von Big Data in Unternehmensprozesse ist damit der nächste Schritt zu intelligenteren, sich selbst optimierenden Prozessen. Quellen: https://github.com/opitzconsulting/camunda-hadoop-connector http://www.omg.org/spec/BPMN/2.0.2 https://camunda.com/bpm http://hadoop.apache.org/ Variante 2 klingt zunächst komplizierter in der Umsetzung. Sie ist jedoch kein „Hexenwerk“. Die freie Prozess-Engine camunda BPM bietet einfache Möglichkeiten, Task-Implementierungen (hier „Delegates“ genannt) zu erweitern, um so z. B. Adaptereigenschaften und -operationen zu Interaktion mit einer spezifischen Plattform zu ermöglichen. Eine beispielhafte Adapterimplementierung für Hadoop auf Basis der camunda BPM Plattform ist unter https://github.com/opitzconsulting/camunda-hadoopconnector zu finden und bietet ein einfaches BPM Plugin, um die Hadoop Werkzeuge HDFS, Pig und Hive innerhalb der üblichen Prozesse zu nutzen. Beispielimplementierungen sowie ein Beispielprozess für einen „Predictive Maintenance“ Use-Case (siehe Abbildung 2) werden dort ebenfalls zur Verfügung gestellt. © OPITZ CONSULTING Deutschland GmbH 2015 Whitepaper: BPM der nächsten Generation Seite 6 Über OPITZ CONSULTING ■ Managed Services: Unsere Teams für Managed Services Application (OC|MSA®) und Managed Services Infrastructure (OC|MSI®) kümmern sich rund um die Uhr, remote oder vor Ort um die Applikationen und Systeme ihrer Kunden. Dabei übernehmen sie die Wartung, die Weiterentwicklung und die Modernisierung von Applikationen, sowie die Administration, die Wartung und den Betrieb von ITInfrastrukturen. Proaktiv werden die Kunden auf mögliche Risiken und Engpässe hingewiesen. ■ Training und Coaching: Das Oracle University Schulungszentrum von OPITZ CONSULTING bietet ein umfangreiches Schulungsprogramm in den Bereichen Oracle, SOA, Java und Business Intelligence. Die Trainings werden flexibel auf Kunden oder Projekte zugeschnitten und auf Wunsch auch inhouse durchgeführt. Die Trainer kommen direkt aus der Praxis und verfügen neben fundiertem theoretischem Wissen über langjährige Projekterfahrung. ■ Trends: Gemeinsam mit dem Kunden konzipieren und implementieren die IT-Experten innovative und differenzierende Lösungen. Hierzu beschäftigen sie sich permanent mit neuen Trends und evaluieren diese Hype-Themen hinsichtlich der möglichen Nutzung in den Kundenprojekten. OPITZ CONSULTING trägt als führender Projektspezialist für ganzheitliche IT-Lösungen zur Wertsteigerung von Unternehmen bei und bringt IT und Business in Einklang. Mit OPITZ CONSULTING als zuverlässigem Partner können sich die Kunden auf ihr Kerngeschäft konzentrieren und ihre Wettbewerbsvorteile nachhaltig absichern und ausbauen. OPITZ CONSULTING wurde 1990 gegründet und beschäftigt heute an neun Standorten mehr als 400 Mitarbeiter. Zum Kundenkreis zählen ¾ der DAX30-Unternehmen sowie branchenübergreifend mehr als 600 bedeutende Mittelstandsunternehmen. Portfolio Das Portfolio von OPITZ CONSULTING umfasst die folgenden Leistungsschwerpunkte: ■ ■ IT-Beratung: Die IT-Experten unterstützen ihre Kunden dabei, die organisatorischen Grundlagen für eine verbesserte Wertschöpfung durch die Informationstechnologie zu schaffen. Transparente und effektive Strukturen im IT-Management sind hier grundlegend. Mit positiven Konsequenzen für das gesamte Unternehmen: bessere Kontrolle über aktuelle IT-Kosten, effektiverer Ressourceneinsatz, stabilere Planungsbasis für die Zukunft und zufriedene Anwender. Weitere Infos zu unseren Leistungsfeldern finden Sie auf unserer Homepage: www.opitz-consulting.com/portfolio Business-Lösungen: In enger Zusammenarbeit mit seinen Kunden entwickelt das Projekthaus innovative, differenzierende und individuelle Business-Lösungen. Hierbei unterstützen die Spezialisten den gesamten Plan-Build-Run-Zyklus. Auf Wunsch übernehmen sie die Verantwortung für Wartung und Weiterentwicklung der Lösungen über den gesamten Lebenszyklus, mittels Application Lifecycle Management, kurz: OC|ALM®. © OPITZ CONSULTING Deutschland GmbH 2015 Whitepaper: BPM der nächsten Generation Seite 7 Folgen Sie uns: youtube.com/opitzconsulting @OC_WIRE slideshare.net/opitzconsulting xing.com/net/opitzconsulting Weitere Infos auf www.opitz-consulting.com