BPM der nächsten Generation - intelligente Prozesse mit Big Data

Werbung
Whitepaper
BPM der nächsten Generation
Mit Big Data
intelligente Unternehmensprozesse schaffen
BPM der nächsten Generation
Mit Big Data intelligente Unternehmensprozesse schaffen
Autor: Christopher Thomsen
für OPITZ CONSULTING
Haben Sie Fragen
zu diesem Thema?
Dann sprechen Sie uns gerne an!
Ihr Ansprechpartner:
Christopher Thomsen,
Leiter Competence Center Big Data
[email protected]
Inhaltsübersicht
Vorwort
Vorwort
Geschäftsprozesse
Business Process Model and Notation
Big Data
Apache Hadoop
Das Hadoop Ökosystem
Workflow Management in Hadoop
Nutzwert einer nahtlosen Integration
Technologien & Lösungsansätze
Schlussbetrachtung
Quellen
Über OPITZ CONSULTING
Bei der weitgehend autonomen Steuerung von Prozessen werden in der
Prozessautomatisierung immer größere Datenmengen erzeugt und für
Analysefunktionen verfügbar gemacht. Dies ist vor allem im Bereich der
datengetriebenen Prozesssteuerung, z. B. unter Zuhilfenahme sensorengestützter, prädiktiver Analyse von Maschinendaten, Serverlogs und Textnachrichten der Fall. Die zentrale Herausforderung der IT besteht darin,
Lösungen für effektive und effiziente Verknüpfungen von Daten- und
Prozessmanagement mit geeigneten Analysewerkzeugen bereitzustellen.
Obwohl der Kosten- und Innovationsdruck im Bereich der Prozessautomatisierung im Zuge von IoT- und Big Data in den nächsten Jahren weiter
wachsen wird, sind standardisierte Lösungen noch kaum verfügbar. Ist es
wirklich nützlich und notwendig, neue Big-Data Systeme in die bestehende
Prozesslandschaft zu integrieren? Am Beispiel der Integration von Komponenten aus dem Hadoop-Ökosystems in eine BPM-Engine stellt dieses
Whitepaper methodische und technische Ansätze für die Umsetzung vor.
Texte und Abbildungen wurden mit größter Sorgfalt erarbeitet. OPITZ CONSULTING kann jedoch für eventuell verbleibende fehlerhafte Angaben und
deren Folgen weder eine juristische Verantwortung noch irgendeine Haftung übernehmen. Das Recht an dargestellten Verfahren, Showcases, Implementierungsbeispielen und Sourcecodes liegt ausschließlich bei OPITZ CONSULTING.
© OPITZ CONSULTING Deutschland GmbH 2015
Whitepaper: BPM der nächsten Generation
Seite 2
Geschäftsprozesse
Geschäftsprozesse beschreiben einen betriebswirtschaftlichen Ablauf, dessen Ergebnis einen Nutzen für einen internen oder externen Kunden hat.
Aktivitäten und Ereignisse werden in Zusammenhang gebracht und auf die
zeitliche und sachliche Abfolge sortiert.
Bei Geschäftsprozessen unterscheidet man Kernprozesse (z. B. Aufgaben,
die der Erzielung von Umsatz dienen) von Managementprozessen (z. B.
Projektmanagement) und Unterstützungsprozessen (z. B. Personalwesen).
Das Management dieser Prozesse ist für ein Unternehmen von großer
Wichtigkeit und wird als Business Process Management (BPM) bezeichnet.
Es beinhaltet die Planung, Umsetzung, Kontrolle und Optimierung von
Geschäftsprozessen und verfolgt im Wesentlichen diese Ziele:
■
■
■
■
■
Routinetätigkeiten zusammenfassen und standardisieren
Prozesse optimieren
Qualität verbessern
Durchlaufzeiten beschleunigen
Kundenzufriedenheit erhöhen
Die Detaillierung eines Geschäftsprozesses hängt von der Methode der
Modellierung ab. Ein Geschäftsprozess kann textlich, tabellarisch oder
grafisch-textuell beschrieben und modelliert werden. Unified Modeling
Language (UML), Ereignisgesteuerte Prozesskette (EPK) und Business
Process Model and Notation (BPMN) sind die am weitesten verbreiteten
Notationen für die Darstellung von Geschäftsprozessen.
Business Process Model
and Notation
Die Business Process Model and Notation, kurz BPMN, ist noch eine relativ
neue Notation, deren Bekanntheitsgrad derzeit steigt. Das Interesse an der
BPMN ist deutlich höher als an den Notationen UML und EPK, hinsichtlich
der Praxiserfahrungen steht BPMN allerdings vielfach noch am Anfang. Die
Notation erfüllt Anforderungen für die Prozessautomatisierung mit Workflow-Management-Systemen und ist für die fachliche und technische
Prozessmodellierung geeignet.
Ein Workflow besteht aus einer Folge von Aktivitäten und einem klar definierten Anfang und Ende. Die Aktivitäten stehen in einer logischen und
sachlichen Beziehung sowie einer zeitlichen Reihenfolge zueinander.
Während sich ein Geschäftsprozess auf die unternehmerische Sicht bezieht, stellt der Workflow die technische Sicht, also die IT-unterstützte
Realisierung dar.
© OPITZ CONSULTING Deutschland GmbH 2015
Eine Reihe ausgereifter BPM-Engines, die in der Lage sind, BPMN-Prozesse
direkt zu implementieren und auszuführen, bietet der Markt bereits. Der in
XML-Notation serialisierte Prozess dient hierbei als Ablauf- und Entscheidungsvorlage für die Engine, während Aktionsknoten durch den BPMEntwickler ausimplementiert bzw. konfiguriert werden müssen. In der
Ausführung wird durch jede Auslösung des Startereignisses eine neue
Prozessinstanz (Vorgang) gestartet, z. B. für jede eingehende Kundenbestellung. Per Token ist ein schneller Überblick über die gerade ausführende
Tätigkeit oder mehrerer Tätigkeiten einer Prozessinstanz möglich. Durch
die Abbildung der Implementierung und der Ausführung auf das ursprüngliche Prozessbild lassen sich die Prozessbläufe auf das BPMN-Diagramm
projizieren.
Big Data
Wie das Internet generieren heute auch Unternehmen Massen an Daten.
Die meisten Firmen speichern diese Informationen zwar, haben aber nicht
genügend Ressourcen, um die Datenmengen für sich zu analysieren und
zu nutzen. Big-Data-Lösungen versprechen hier Abhilfe. Den Begriff Big
Data assoziieren viele mit unterschiedlichen Technologien, Methoden und
Strategien. Manche denken in diesem Zusammenhang an Technologien
wie Social Mining, Predictive Analytics, Real Time, Customer Insights, Sensor Data, Stream Computing und Data Warehousing. In Literatur und Praxis trifft man häufig auf die „3 Vs“: Volume, Velocity, Variety, die die
Kernaspekte und Dimensionen beschreiben, die Big-Data–Technologien
bewältigen sollen.
Im Kerngedanken geht es demnach zuallererst um technische Möglichkeiten, übergroße Datenmengen oder aber sehr komplexe Rechenoperationen
auf unterschiedlich strukturierten Daten in kürzester Zeit zu verarbeiten
und zu verwalten. Datenanalytik- und Prognoseverfahren kombinieren die
drei Dimensionen von Big Data zumeist. Deshalb bringen viele Leute Big
Data mit Data Mining oder Advanced Analytics in Zusammenhang. De
facto handelt es sich bei Big-Data-Technologien jedoch um die Lösung, um
Data Mining uneingeschränkt anzuwenden. Das Verfahren selbst existiert
schon seit zehn Jahren, wurde jedoch meist nur auf Datensamples und
einer Auswahl nutzbarer Datenquellen und -formaten ausgeführt.
Apache Hadoop
Bei Hadoop handelt es sich um die am häufigsten mit Big Data assozierte
Technologie. Die Big-Data-Referenzplattform verspricht die Bewältigung
gewaltiger Datenmengen.
2012 durchbrach das Internet die Schwelle von zwei Zetabyte gespeicherten Daten. Die Entwicklung begann aber schon in den 90er Jahren. Schon
damals verzeichneten Statistiker eine jährliche Vervielfachung der Datenmengen. Eine ähnliche Entwicklung machte in der gleichen Zeit jedoch
auch die Rechenleistung.
Whitepaper: BPM der nächsten Generation
Seite 3
Experten gingen davon aus, dass sich beides in der Waage halten würde.
Doch das Problem bereitet nicht die Datenmenge an sich, sondern die Art
und Weise, wie diese genutzt wird — und so benötigen Unternehmen heute neue Technologien und Ansätze, um dem steigenden Datenwachstum
gerecht zu werden.
Klassischerweise speichert die IT sehr große Datenmengen in mehreren
Datentöpfen. Zur Auswertung werden diese Töpfe jeweils für sich zusammengefasst. Die Ergebnisse werden in einem neuen Datentopf auf einer
weiteren Stage zusammengeführt. Ist die Datenmenge nach wie vor zu
groß, kann dieses Vorgehen mehrstufig ablaufen. Die Schwierigkeit bei
diesem Ansatz ist, dass die Funktionen auf den Datentöpfen isoliert auflaufen sollten, da Abgleiche auf den Rohdaten verschiedener Töpfe vom Aufwand her sehr teuer sind. Zudem laufen die analytischen Auswertungen
auf den bereits aggregierten Daten, sodass bestimmte Informationsdetails
nicht mehr verfügbar sind.
Hier setzt das Hadoop Distributed File System (HDFS) an und ermöglicht
die Verwaltung auf einer einzelnen virtuellen Partition und die Verwaltung
von Daten jeglicher Formate. Dies koppelt Hadoop mit Google‘s MapReduce zur verteilten, parallelen Ausführung von Operationen. Um diese
transparent zu machen, übernimmt Hadoop die Virtualisierung des Dateisystems, die Redundanz, die Verteilung und Ausführung von Code. Somit
können auf diesem Dateisystem spezialisierte Werkzeuge aufsetzen, z. B.
diverse Datenbanken, um ihre Daten auf dem HDFS serialisiert abzulegen.
Diese Datenbanken erben die Eigenschaften des HDFS und können für ihre
Job-Durchführung das MapReduce Framework nutzen. Ab Version 2.0 gibt
es bei Hadoop Änderungen in Bezug auf die Kernkomponenten. An der
Stelle von MapReduce steht YARN. Mit YARN kann der Anwender andere
Algorithmen für verteilte Anwendungen wählen als mit MapReduce.
Das Hadoop Ökosystem
Das Hadoop Ökosystem setzt sich aus der Vielzahl spezialisierter Werkzeuge zusammen, die auf dem Core Hadoop (HDFS + YARN) aufsetzen und
einen spezifischen Anwendungsbereich abdecken. Dieses Ökosystem wird
auch Hadoop-Zoo genannt, weil einige dieser Anwendungen Tiernamen
oder Tier-Logos tragen. Einige häufig anzutreffende Vertreter sollen im
Folgenden beschrieben werden:
Apache Pig
Apache Pig ist eine in Java implementierte Plattform zur Transformation
und Verarbeitung großer Datenmengen. Yahoo entwickelte Pig im Jahr
2006 und stellte es 2007 der Öffentlichkeit zur Verfügung. Bei Yahoo, dem
Betreiber des größten Hadoop-Clusters, sind mehr als 60 Prozent der Hadoop Operationen Pig Jobs.
Pig Latin besitzt eine im Vergleich zur nativen MapReduce Entwicklung
sehr einfache Syntax und erlaubt die schnelle Entwicklung verteilter Tranformationsprozesse.
Apache Hive
Apache Hive ist eine Datenflusssprache für die Batch-Datenverarbeitung in
einem Hadoop-System. Hive wurde von Facebook entwickelt und im Jahr
2009 veröffentlicht. Die Nutzung von Hive erinnert an Befehle der Datenbanksprache SQL. Hive lässt sich sehr gut bei strukturierten bis semistrukturierten Daten anwenden. Eine Eigenschaft, die bei der Hinzunahme
von unstrukturierten Daten nicht ausreicht.
Apache Spark
Apache Spark gehört ebenfalls zu den Hadoop Anwendungen. Es handelt
sich um ein Open-Source-Framework, das sich unter anderem für Echtzeitanalysen eignet. Mithilfe von Spark lassen sich Jobs in den Programmiersprachen Java, Python oder Scala schreiben, die die Analyse von unstrukturierten Daten ermöglichen.
Sqoop
Sqoop ist eine Java-Anwendung des Herstellers Cloudera für den Import
und den Export von Daten. Sie hilft dabei, Daten zwischen Hadoop und
einem relationalen Datenbanksystem (RDB) auszutauschen. Der Name
Sqoop steht für „SQL-to-Hadoop“. Das Tool wird in der Regel über Konsolenbefehle oder aus einer Java-Anwendung heraus ausgeführt.
Workflow Management in Hadoop
Apache Oozie ist ein in Java implementiertes Workflow-ManagementSystem zur Verwaltung, Ausführung und Überwachung von Hadoop Jobs.
Bei Oozie besteht ein Workflow aus einer Sammlung von Aktionen, die in
einem gerichteten, azyklischen Graphen angeordnet sind. „Gerichtet“ bedeutet, dass die Aktionen in einer Reihenfolge stehen und „azyklisch“
heißt, dass die Aktionen nicht rekursiv oder iterativ aufgerufen werden
können. Die Aktionen bestehen aus Operationen und Befehlen unterschiedlicher Werkzeuge des Hadoop-Ökosystems. Durch Sub-Workflows
können Teilprozesse dargestellt und eingebunden werden.
Ein Workflow wird in Oozie mit der Oozie eigenen Notation hPDL beschrieben. hPDL ist XML-basiert und steht für Hadoop Process Defintion Language. Zwischen den einzelnen Aktionen können Abhängigkeiten von einer
Aktion zur nächsten definiert werden. Oozie unterstützt keine Schleifen,
jedoch Knoten zur Steuerung von Workflows wie Start, Ende und Fehlerknoten, sowie Verzweigungen, Gabelungen und Vereinigungen zur parallelen Ausführung. Abbildung 1 zeigt einen einfachen Beispielprozess.
Mit Pig können komplexe MapReduce Jobs geschrieben und ausgeführt
Oozie wird in zwei Teile gegliedert, in die Workflow-Engine und die Coordiwerden. Das Schreiben von MapReduce Jobs für das Laden, Transformieren nation-Engine. Die Workflow-Engine ist für die Ausführung des Prozesses
und Speichern von Daten wird mit der Skriptsprache Pig Latin ermöglicht. zuständig und die Coordination-Engine für den zeit- und datengetriebenen Ablauf eines Prozesses.
© OPITZ CONSULTING Deutschland GmbH 2015
Whitepaper: BPM der nächsten Generation
Seite 4
Durch den zeitgetriebenen Ablauf
kann einem Workflow z. B. ein
Ausführungsdatum und auch ein
Wiederholungsintervall zugewiesen werden. Ein datengetriebener
Ablauf wird genutzt, wenn ein
Workflow jedesmal nach Eingang
bestimmter Daten ausgeführt
werden soll. Einem Workflow
kann ein Ausführungsdatum,
eine Wiederholung (z. B. wöchentlich, täglich) und auch ein
Timeout zugewiesen werden.
Auch der Start eines Workflows
nach Verfügbarkeit der Daten ist
konfigurierbar. Dann startet der
Prozess innerhalb eines Zeitintervalls, wenn die benötigten Daten
vorhanden sind.
Allerdings hat der Wert dieser Informationen natürlich nur eine geringe
Haltbarkeit. In genanntem Beispiel beträgt diese oft weniger als einen
Monat bis zur möglichen Kündigung durch den Kunden. Nur eine nahtlose
Integration der Vorhersage- und Analysepotenziale einer Big-Data-Lösung
in den Unternehmensprozess kann daher die umgehende Nutzung und
ständige Prozess- und Modellverbesserung gewährleisten.
In manchen Fällen macht es also Sinn, Hadoop Operationen nicht im systemeigenen Workflow-System Oozie, sondern über eine BPM-Plattform
auszuführen. Insbesondere bei diesen Fällen wäre dies anzuraten:
1.
Bei langlaufenden Prozessen, die datengetriebene Entscheidungen
enthalten
2.
Bei sich häufig ändernden Prozessen
3.
Bei der Vermischung von Big-Data-Operationen und manuellen
Tätigkeiten
Nutzwert einer nahtlosen Integration
Durch die Integration von Hadoop in Geschäftsprozesse können bislangnicht genutzte Datenpools in den Prozess mit eingebunden werden. So
werden Entscheidungen nicht mehr allein auf Grundlage von einseitigen
Informationen getroffen, die dem Unternehmen in Form strukturierter
Daten vorliegen. Auch nicht aufgrund manueller Entscheidungen durch
Entscheidungsträger. Sondern Entscheidungen werden fortan datengetrieben gefällt, auf Basis selbstlernender Modelle auf semi-strukturierten und
unstrukturierten Daten wie Logdaten, Kundenaktivitäten in einem OnlineShop, E-Mail-Texten oder Social Media Nachrichten. Dies führt zu einer
Optimierung der Geschäftsprozesse.
In der Folge können beispielsweise Customer Retention Prozesse unterstützt werden. So kann der Vertrieb Zielkunden anhand ihres ChurnPotenzials auswählen und individuelle Vergünstigungen auf Basis von
Logdaten, Nutzungsdaten und Informationen aus den relevanten Inforatmationssystemen zuordnen.
Wo dies nicht zutrifft, ist der Rücksprung auf Apache Oozie sinnvoll. Abzuraten ist hingegen grundsätzlich von der programmatischen Selbstimplementierung des Prozessverlaufs in einer Anwendung oder via Skript. „Don't
build your own Process Engine!“
Technologien und Lösungsansätze
Führt man Big-Data-System und Unternehmensprozesse zusammen, interagieren diese nach zwei typischen Mustern miteinander:
Big Data Pull: Der Prozess initiiert die Interaktion
Ein Task im Prozess wird ausgeführt und startet z. B. einen Pig Batch Job
im Hadoop Cluster, um einen aktuellen Datenstand zu berechnen. Dieser
führt eine Hive Query auf einem Datensatz in Hadoop aus. Das hochaggregierte Ergebnis dieser Daten fließt anschließend in den Prozess zurück und
steht in einer Folgeverarbeitung über eine Regel-Engine oder über einen
einfachen Entscheidungsoperator für eine datengetriebene Entscheidung
zur Verfügung. Dieses Muster unterscheidet sich kaum von der Integration
anderer Datenquellen in den Unternehmensprozess, wie z. B. des Data
Warehouses.
Big Data Push: Die Daten starten die Interaktion
Eine spezifizierte Datenkonstellation führt zur Auslösung eines Prozesses
mit Informationen zu den auslösenden Datenbeständen. Dieses Muster
Wird die Auswertung mit einem Geschäftsprozess verbunden, könnte der
zuständige Mitarbeiter dem Kunden völlig automatisiert und auf der Basis findet vor allem bei Realtime-Use-Cases Anwendung, z. B. zur sensorgestützten Vorhersage von Maschinenstörungen und -ausfällen. In diesem
von Prognosen ein Angebot vorlegen, das ihn dazu bewegt, eine Kündigung zurückzuziehen. Abgesehen von der Zeitersparnis für den Mitarbeiter Szenario senden Sensoren einen unablässigen Strom an Einzeldaten. Diese
können in Hadoop via Spark oder Storm in Echtzeit ausgewertet werden.
eröffnen sich hier ganz neue Möglichkeiten, Informationen effizienter zu
Nur ein kurzes Zeitintervall des aktuellen Datenstroms wird im Speicher
nutzen. Mit der Vielzahl der Daten lassen sich über einen Kunden Wahrgehalten. Diese Systeme erkennen ein Fehlermuster und starten einen
scheinlichkeiten berechnen zu Fragen wie: Wird der Kunde kündigen?
Wenn ja, wann wird das sein? Lohnt sich eine Ansprache für eine Erweite- Prozess zur Fehlerbehandlung mit den notwendigen Informationen, wie
Modellnummer, Kunde und Fehlertyp.
rung des Angebots? Welche Maßnahmen würden den Kaufreiz für ihn
persönlich steigern?
© OPITZ CONSULTING Deutschland GmbH 2015
Whitepaper: BPM der nächsten Generation
Seite 5
Für die technische Realisierung einer Integration zwischen Hadoop und
einer BPM-Engine gibt es für die oben genannten Muster zwei grundsätzliche Herangehensweisen:
Steuerung via Service
Eine Möglichkeit besteht darin, Hadoop Operationen per Service zugänglich zu machen und per Service Call (REST oder SOAP) anzusteuern. Offensichtlicher Vorteil dieses Vorgehens ist die lose Kopplung der Big-DataUmgebung von der Prozess-Engine, die hier als Service Consumer auftritt.
Die Big-Data-Plattform ist im Gegenzug in der Lage, die Services der Prozess-Engine zum Starten von Prozessen und Auslösen von Ereignissen zu
„konsumieren“. Hier zeigt sich der Nachteil dieser Lösung, da die Hadoop
Komponenten größtenteils nicht auf SOA enabled sind. Es müssten also
neue Komponenten als Mediator zwischen den Bausteinen entwickelt
werden. Diese Komponenten wären im Hadoop Cluster angesiedelt und
müssten an dieser Stelle zum Beispiel auch Authentifizierungsprüfungen
durchführen. Wie bei allen servicegetriebenen Verfahren ist hier eine asynchrone Verarbeitung und Benachrichtigung möglich. Beides ist jedoch in
der Umsetzung meist sehr komplex und häufig nur unter Zuhilfenahme
eines Enterprise Service Bus (ESB) sinnvoll verwaltbar.
Ansprache via Prozess-Engine
Alternativ können die zu verwendenden Hadoop Komponenten direkt über
die Prozess-Engine angesprochen werden. Dies erfordert die Entwicklung
von Adaptern für die Prozess-Engine, um auf den nativen Schnittstellen
der entsprechenden Werkzeuge mit diesen zu interagieren. Ein Vorteil
dieses Vorgehens ist, dass die Integration vollständig in der Prozess-Engine
gebündelt ist. Asynchrone oder eventgetriebene Kommunikation ist damitleichter umsetzbar. Nachteilig ist allerdings die feste Kopplung zwischen
Prozess-Engine und Big-Data-System und die damit verbundenen Abhängigkeiten, z. B. bei Versionsupgrades.
Bei beiden Vorgehensweisen ist zu beachten, dass eine Prozess-Engine
nicht darauf ausgelegt ist, große Datenmengen in ihren Prozessinstanzen
vorzuhalten. Zwischenergebnisse sollten also niemals als Rückgabewert in
den Prozess geladen werden. Damit würden sie möglicherweise den Prozessspeicher zum Überlauf bringen. Stattdessen sollte stets nur mit Pointern auf Tabellen in Hive und Speicherorten im HDFS gearbeitet werden.
Schlussbetrachtung
BPM stellt ein wichtiges Werkzeug zur Ausführung und Optimierung der
Firmenprozesse dar. Es verbindet manuelle Interaktion, automatisierte
Prozesse und intelligente datengetriebene Entscheidungsfindung.
Datengetriebene Entscheidungen machen Prozesse intelligenter und reduzieren die menschliche Interaktion in BPM – Ziel ist also die inkrementelle
Ablösung von User Tasks zur Entscheidungsfindung durch Big-DataOperationen.
Die Integration von Big Data in Unternehmensprozesse ist damit der
nächste Schritt zu intelligenteren, sich selbst optimierenden Prozessen.
Quellen:
https://github.com/opitzconsulting/camunda-hadoop-connector
http://www.omg.org/spec/BPMN/2.0.2
https://camunda.com/bpm
http://hadoop.apache.org/
Variante 2 klingt zunächst komplizierter in der Umsetzung. Sie ist jedoch
kein „Hexenwerk“. Die freie Prozess-Engine camunda BPM bietet einfache
Möglichkeiten, Task-Implementierungen (hier „Delegates“ genannt) zu
erweitern, um so z. B. Adaptereigenschaften und -operationen zu Interaktion mit einer spezifischen Plattform zu ermöglichen. Eine beispielhafte
Adapterimplementierung für Hadoop auf Basis der camunda BPM Plattform ist unter https://github.com/opitzconsulting/camunda-hadoopconnector zu finden und bietet ein einfaches BPM Plugin, um die Hadoop
Werkzeuge HDFS, Pig und Hive innerhalb der üblichen Prozesse zu nutzen.
Beispielimplementierungen sowie ein Beispielprozess für einen „Predictive
Maintenance“ Use-Case (siehe Abbildung 2) werden dort ebenfalls zur
Verfügung gestellt.
© OPITZ CONSULTING Deutschland GmbH 2015
Whitepaper: BPM der nächsten Generation
Seite 6
Über OPITZ CONSULTING
■
Managed Services:
Unsere Teams für Managed Services Application
(OC|MSA®) und Managed Services Infrastructure
(OC|MSI®) kümmern sich rund um die Uhr, remote
oder vor Ort um die Applikationen und Systeme
ihrer Kunden. Dabei übernehmen sie die Wartung,
die Weiterentwicklung und die Modernisierung von Applikationen,
sowie die Administration, die Wartung und den Betrieb von ITInfrastrukturen. Proaktiv werden die Kunden auf mögliche Risiken
und Engpässe hingewiesen.
■
Training und Coaching:
Das Oracle University Schulungszentrum von
OPITZ CONSULTING bietet ein umfangreiches
Schulungsprogramm in den Bereichen Oracle, SOA,
Java und Business Intelligence. Die Trainings werden flexibel auf Kunden oder Projekte zugeschnitten und auf Wunsch auch inhouse durchgeführt. Die Trainer kommen direkt aus der Praxis und verfügen neben fundiertem theoretischem Wissen über langjährige Projekterfahrung.
■
Trends:
Gemeinsam mit dem Kunden konzipieren und
implementieren die IT-Experten innovative und
differenzierende Lösungen. Hierzu beschäftigen sie
sich permanent mit neuen Trends und evaluieren
diese Hype-Themen hinsichtlich der möglichen
Nutzung in den Kundenprojekten.
OPITZ CONSULTING trägt als führender Projektspezialist für ganzheitliche IT-Lösungen zur Wertsteigerung von Unternehmen bei und bringt IT
und Business in Einklang. Mit OPITZ CONSULTING als zuverlässigem
Partner können sich die Kunden auf ihr Kerngeschäft konzentrieren und
ihre Wettbewerbsvorteile nachhaltig absichern und ausbauen.
OPITZ CONSULTING wurde 1990 gegründet und beschäftigt heute an
neun Standorten mehr als 400 Mitarbeiter. Zum Kundenkreis zählen ¾
der DAX30-Unternehmen sowie branchenübergreifend mehr als 600
bedeutende Mittelstandsunternehmen.
Portfolio
Das Portfolio von OPITZ CONSULTING umfasst die folgenden Leistungsschwerpunkte:
■
■
IT-Beratung:
Die IT-Experten unterstützen ihre Kunden dabei,
die organisatorischen Grundlagen für eine verbesserte Wertschöpfung durch die Informationstechnologie zu schaffen. Transparente und effektive Strukturen im IT-Management sind hier
grundlegend. Mit positiven Konsequenzen für das gesamte Unternehmen: bessere Kontrolle über aktuelle IT-Kosten, effektiverer Ressourceneinsatz, stabilere Planungsbasis für die Zukunft und zufriedene Anwender.
Weitere Infos zu unseren Leistungsfeldern finden
Sie auf unserer Homepage:
www.opitz-consulting.com/portfolio
Business-Lösungen:
In enger Zusammenarbeit mit seinen Kunden
entwickelt das Projekthaus innovative, differenzierende und individuelle Business-Lösungen.
Hierbei unterstützen die Spezialisten den gesamten Plan-Build-Run-Zyklus. Auf Wunsch übernehmen sie die Verantwortung für Wartung und Weiterentwicklung
der Lösungen über den gesamten Lebenszyklus, mittels Application
Lifecycle Management, kurz: OC|ALM®.
© OPITZ CONSULTING Deutschland GmbH 2015
Whitepaper: BPM der nächsten Generation
Seite 7
Folgen Sie uns:
youtube.com/opitzconsulting
@OC_WIRE
slideshare.net/opitzconsulting
xing.com/net/opitzconsulting
Weitere Infos auf
www.opitz-consulting.com
Herunterladen