Bild: Fotolia Dossier Swiss BPM-Forum in Kooperation mit Uvision Getreu dem olympischen Motto sza. Schneller, höher, stärker – so heisst das >Seite 31 Schneller ans Ziel mit Next Generation Data Management >Seite 33 Schnelle Entscheidungsfindung >Seite 34 Clemente Minonne, ZHAW: «BPM ist im Grunde genommen die ureigenste Managementdisziplin überhaupt» offizielle olympische Motto. Dies gilt in der heutigen rasanten Zeit ganz besonders auch für Unternehmen, wenn sie künftig mit der Konkurrenz mithalten wollen. Selbstverständlich ist da IT ein Mittel zum Zweck. Glaubt man etwa BPM-Lösungsanbietern lassen sich Geschäftsprozesse deutlich effizienter gestalten, womit wiederum Kosten gespart werden können. Eine mögliche Art und Weise, wie man das bewerkstelligen kann, beschreibt Wolfram Jost, CTO der Software AG, in seinem Beitrag auf den Seiten 31/32. Er zeigt, wie man mit In-Memory-Management von Big Data Bewegung in die IT-Welt bringt und kommt dann zu folgendem Schluss: «Überall, wo es um hohe Transaktionsaufkommen, wachsende Nutzerzahlen oder grosse Datenintensität geht, zahlen sich die neuen IT-Ansätze aus.» Mit einem anschaulichen Anwendungsbeispiel zeigte dann Renato Stalder, CEO des BPM-Anbieters Soreco, auf Seite 33, was man mit IT-Lösungen konkret anstellen kann. Müsse etwa ein Autohändler bei einem Kunden vor Abschluss eines Leasingvertrags eine Risikobewertung machen, dann sei das ziemlich aufwendig, wenn sie manuell vorgenommen werden müsse. Dafür hat er selbstverständlich eine Lösung parat: Mit der passenden BPM-Software lasse sich die Person oder Firma beurteilen, «indem sekundenschnell Daten mit Wirtschaftsdatenbanken abgeglichen werden». Trotz aller Euphorie mahnt Clemente Minonne von der Zürcher Hochschule für Angewandte Wissenschaften im Interview auf Seite 34 dazu, doch nicht in Aktionismus zu verfallen und alles solide zu planen. Bevor BPM-Lösungen eingeführt werden, müsse basierend auf dem bestehenden Geschäftsmodell eine stringente Prozesslandkarte definiert werden. Denn für Minonne ist klar: «Die Hausaufgaben muss man eben vorher machen!» 04/2013 © netzmedien ag 30 Dossier Swiss BPM-Forum in Kooperation mit Uvision Schneller ans Ziel mit Next Generation Data Management Unternehmen häufen massenweise Daten an. Mit herkömmlichen Methoden und Werkzeugen können diese nicht mehr verarbeitet werden. Für Abhilfe soll das In-Memory-Management von Big Data sorgen. Nebenbei bringt diese Technologie neue Bewegung in die IT-Welt. Wolfram Jost Die wirtschaftliche Relevanz von Big Data Bild 1: Beispiel einer Next-Generation-Data-Management-Plattform Grafik: Software AG Von 45 Minuten auf 4 Sekunden! Dank dieser rekordverdächtigen Beschleunigung bewahrt ein renommiertes Kreditkartenunternehmen seine Kunden vor Vermögensverlusten in der Höhe von hunderten Millionen Dollar. Im Vier-Sekunden-Takt prüft der Finanzdienstleister jede Transaktion auf das Risiko einer betrügerischen Handlung. Solche Analysen aus gewaltigen Datenmengen sind es, die Big Data zu einem heissen Thema machen. Es geht um ausgefeilte Datenanalysen, auf deren Basis Entscheidungen getroffen werden. Auch die Kunden eines australischen Telekommunikationsanbieters profitieren vom Geschwindigkeitsrausch in der Datenverarbeitung. Innerhalb von 30 Millisekunden stehen ihnen die Rechnungsdaten zur Verfügung und sie kön- Dr. Wolfram Jost ist Chief Techno­ logy Officer bei der Software AG. nen erkennen, wie viel ihr Telefongespräch, ihre Datenübertragung oder das Versenden der Fotos vom Smartphone gerade kostet. Hier ist nicht die Rede von ein paar Millionen Kundendatensätzen. Bei Big Data geht es um gewaltige Mengen laufend produzierter Informationen. Nach Angaben von IBM wurden 2012 täglich 2,5 Trillionen Bytes produziert. Statt von Mega- und Gigabytes sprechen die Experten deshalb auch von Tera-, Peta- und Exabyte (eine Milliarde Gigabyte). Experten sind sich einig, dass herkömmliche Standarddatenbanken oder Datenmanagement-Werkzeuge bei diesen Datenmengen versagen. Um das Phänomen «Big Data» zu beherrschen, werden die Leistungen einer neuen Generation zum Data Management benötigt. Diese Next-Generation-Data-Management-Plattformen stossen einen umfassenden ArchitekturShift an, in dessen Folge so manches etablierte Designprinzip in der Softwareentwicklung neu überdacht wird: Die zentrale relationale SQL-Datenbank für alle betriebswirtschaftlichen Aufgaben, die bislang ein quasi ehernes Gesetz war, wird von den neuen Big-Dataaffinen Technologien zur Disposition gestellt (siehe Bild 1). Für Manager sind Kenntnisse über Big Data wichtig, denn es geht um die wertvollsten Rohstoffe jedes Unternehmensbereichs: Daten und Informationen. In dem 2011 veröffentlichten Report des McKinsey Global Institute (MGI) «Big data: The next frontier for innovation, competition, and productivity» betonen die Autoren, dass Innovationen und Wachstum in immer stärkerem Masse von der Qualität und Auswertung der Daten abhängt. Den Nutzen der Big-Data-Technologien machen die MGI-Autoren an fünf Eigenschaften fest. An erster Stelle steht die Transparenz, die Organisationen gewinnen, wenn Informationen besser und schneller verfügbar sind. Zweitens können Unternehmen dank detaillierterer Informationsversorgung verschiedene Kriterien kombinieren und Entscheidungen testen. Die personenbezogenen Informationen eröffnen drittens Möglichkeiten, eine Kunden- und Marktsegmentierung vorzunehmen, deren Zusammensetzung kontinuierlich an aktuelle Bedingungen angepasst wird. Viertens kann Big Data in der Prozesssteuerung oder -automatisierung herangezogen werden, um etwa mit einer automatisierten Analyse von Wetterdaten den Materialeinsatz und Produktionsdurchsatz in der Getränkeherstellung zu optimieren. Fünftens führt der Einsatz von Big Data in den Unternehmen zu neuen innovativen Geschäftsmodellen oder Services, zur Optimierung von Massnahmen durch die zeitnahe Auswertung von Webstatistiken, persönlichen Standortinformationen etc. Nur wenn Firmen die Rohstoff-«Ver­ edelung» gelingt, winkt eine Produktivitätsdividende, die erfreulich hoch ausfallen kann. Die Autoren des MGI-Reports errechneten, dass durch Einsatz von Big-Data-Technologien im US-amerikanischen Gesundheitssystem jährlich 300 Milliarden US-Dollar, in der Behördenlandschaft der EU jährlich 250 Milliarden USDollar gespart werden könnten. Weiter werden in den USA ein 60-prozentiger Zuwachs bei der operativen Marge im Einzelhandel oder eine 7-prozentige Verbesserung der Liquidität in der Fertigung in Aussicht gestellt. 4 04/2013 © netzmedien ag 31 Dossier Swiss BPM-Forum in Kooperation mit Uvision mehr, mit Fantasie und Innovationselan neue Wege zu entdecken, um den neuen Anforderungen bezüglich Datenmenge, Formatvielfalt und Verarbeitungstempo gerecht zu werden. Unabhängig von der Herangehensweise ist allen Ansätzen die konsequente Ausrichtung auf Skalierbarkeit und Verarbeitungsgeschwindigkeit als oberstes Designprinzip gemeinsam, das die bislang vorherrschende Dominanz des strikten Konsistenzgebots aufhebt. Ebenso herrscht Einigkeit, dass der einzig erfolgreiche und letztlich auch bezahlbare Weg zu einer beliebigen Skalierbarkeit das Konzept der Rechnernetzverbünde ist – von Fachleuten auch als Clusterverbund oder in Anlehnung an das Stromnetz als Data Grid bezeichnet. Reichhaltigkeit dominiert die IT-Welt Bild 2: Beispiel für In-Memory-Datenmanagement in Echtzeit Grafik: Software AG Volume, Variety, Velocity und Value Auffällig an den im Report genannten Einsatzfeldern und Nutzenpotenzialen ist vor allem, dass sie weder neu noch spektakulär klingen. Sie greifen letztlich schon seit Jahren ins Auge gefasste IT-gestützte Strategien unter neuen inhaltlichen und technischen Rahmenbedingungen auf. Doch die Messlatte für die Leistungsfähigkeit ist mit Blick auf das Datenvolumen, die Komplexität der Daten und das Bearbeitungstempo höher gelegt. Im internationalen Fachjargon sind diese Charakteristika umschrieben mit Volume, Variety und Velocity. Die hieraus abgeleiteten technologischen Forderungen an die zugehörige Data-Management-Plattform heissen: erstklassige Skalierungsmöglichkeiten, ein flexibles Management von Daten beliebigen Formats sowie die Verarbeitung komplexer Ereignisströme. Eine solche Big-Data-Umgebung muss sich gleichzeitig komfortabel in die vorhandene ITLandschaft einbinden, um den Wert der Daten aus allen Anwendungen eines Unternehmens vollständig auszuschöpfen – das vierte und wichtigste V, den Value. SQL? NoSQL? Not only SQL! Heute können entsprechende Technologien diese Wünsche erfüllen. Die rasante Entwicklung in der Prozessoren- und Speichertechnik, mit der ein gewaltiger Preisverfall einhergeht, eröffnet aussergewöhnliche Chancen. Auf Basis preiswerter Standard-Hardwarekomponenten lassen sich moderne Infrastrukturen realisieren, die immer grös­sere Datenmengen direkt im Hauptspeicher (scale-up) als auch verteilt über mehrere Prozessoren (scale-out) bearbeiten und verwalten. SQL-Datenbanken sind für den Umgang mit grossen Daten- mengen unterschiedlicher Herkunft schlecht geeignet. Amazon, Google, Facebook & Co. mit ihren Millionen von Nutzern hätten mit dem limitierten Scale-up-Vermögen der relationalen Datenbanktechnik ihre Web-2.0Anwendungen niemals realisieren können. Der Geschwindigkeitszuwachs im Onlinezugriff beim eingangs erwähnten Telko beruht gerade darauf, dass Terabytes an Kundendaten in zweistelliger Grössenordnung direkt im Hauptspeicher bereitgestellt werden, ohne dass die RDBMS der Kundenverwaltung im Backend beansprucht wird. Nahezu jeder Anbieter von Softwareplattformen arbeitet heute mit Hochdruck an innovativen Architekturprinzipien, um die Enge des relationalen Modells hinter sich zu lassen. Mit dem Begriff NoSQL werden diese Versuche für ein alternatives Data Management bezeichnet. Abhängig vom Marktauftritt unterscheiden sich die Schwerpunkte der Aktivitäten von Anbieter zu Anbieter zum Teil deutlich. Hersteller, die sich auf komplexe Analysen und Simulationen fokussieren, präferieren das Designprinzip einer spaltenorientierten Anordnung. Geht es um Auswertungen für wenig strukturierte Daten beispielsweise von Warenkörben, die für eine Analyse nicht mehr eigens überarbeitet werden, steht meist die Verarbeitung enormer Datenberge im Vordergrund. Andere Ansätze sind Graphendatenbanken, die Beziehungen modellieren und insbesondere für Hersteller interessant sind, die Empfehlungsfunktionen in sozialen Netzen entwickeln. Für komplexe Datenstrukturen wiederum werden dokumentenorientierte Datenbanken bevorzugt. Es gibt eine Vielzahl an Modellansätzen für eine neue Datenbanktechnologie. Für Entwickler existieren anscheinend keine Grenzen Die Idee einer Datenbank für alles, die in der Vergangenheit zur Dominanz des relationalen Datenbankmodells führte, ist definitiv vorbei. Dass NoSQL-Systeme nun die RDBMs als führende Datenbanktechnologie ablösen, wäre jedoch der falsche Schluss. Denn Konsistenz – eine der zentralen Stärken des relationalen Datenmodells – ist keinesfalls obsolet, sondern zählt im betrieblichen Umfeld weiterhin zu den wichtigsten Forderungen. Die Auseinandersetzung SQL versus NoSQL hat deshalb wenig Relevanz. Vielmehr geht es um die Wahlfreiheit für den Anwender. Mit neuen Data-Management-Plattformen rücken Anwendungen, Daten beliebigen Formats und Ereignis-Datenströme wieder enger zusammen. Die Next-Generation-DataManagement-Plattform ebnet damit den Weg zu einem neuen IT-Design von Unternehmensanwendungen. Firmen gewinnen mit den technologischen Weiterentwicklungen mehr an Agilität und Kollaboration, zentrale Forderungen in der globalen Wirtschaftswelt. Die In-Memory-Technologie (Bild 2) befeuert diese Entwicklung zusätzlich. Anwendungen, Datenobjekte und Ereignis­ströme können nun gemeinsam im Hauptspeicher des Application Server verwaltet werden. Lese- und Schreiboperationen lassen sich direkt auf den Daten ausführen. Weil Daten aus verschiedenen Quellen in eine Anwendung integriert werden können, werden diese äusserst schnell und skalierbar. Der Nutzer hat unmittelbaren Zugriff auf Ereignisdaten, die er in Echtzeit auswerten und die Erkenntnisse wiederum sofort weiterverarbeiten kann. Das Management gewinnt damit das, was es für Entscheidungen am meisten benötigt: mehr Transparenz. Überall, wo es um hohe Transaktionsaufkommen, wachsende Nutzerzahlen oder grosse Datenintensität geht, zahlen sich die neuen IT-Ansätze aus. < 04/2013 © netzmedien ag 32 Dossier swiss BPM-Forum in Kooperation mit Uvision Schnelle Entscheidungsfindung Operative Entscheidungsprozesse bedürfen einer verlässlichen Aufbereitung von Informationen und können mit der richtigen Technologie standardisiert, beschleunigt und qualitativ verbessert werden. Renato Stalder Die Optimierung von Geschäftsprozessen gehört heute zu den Schlüsselaufgaben jedes Unternehmens. Wer Prozesse richtig managt, kann diese nicht nur effizienter gestalten, sondern auch deren Qualität verbessern und obendrein noch Kosten sparen. In die Kategorie der anspruchsvollen Abläufe gehören zweifelsohne Entscheidungsprozesse, insbesondere dann, wenn sie an Risiken gebunden sind. Solche Prozesse wollen nicht nur optimal gestaltet sein, sie basieren auch auf der Aufbereitung und Auswertung von Informationen, ohne die der Prozess selbst nicht abgeschlossen werden kann. Der Schlüssel zum Erfolg liegt dabei in der geeigneten Kombination von Softwaresystemen, die Prozesse optimal abbilden und automatisiert operative (nicht strategische) Entscheidungen treffen. Solche Decision Support Systems (DSS) können nicht mehr bloss wie in den Anfängen der Informatik Daten sortieren, filtern und darstellen. Heutzutage sind DSS aufgrund komplexer Optimierungsalgorithmen in der Lage, Daten zu interpretieren, zu bewerten und Beurteilungen vorzunehmen – kurz, Entscheidungen aufgrund verlässlicher Daten selbstständig zur treffen. Der Mensch wird dabei aber nicht überflüssig, gibt es doch auch bei jeder automatisierten Entscheidung eine gewisse Unschärfe, also Fälle, die weder mit Ja noch mit Nein beantwortet werden können. Ein «Jein» kommt in der Praxis häufiger vor, als man denkt. Ein «Jein» beinhaltet überdies die Möglichkeit, die zur Entscheidung nötigen Grundlagen gegebenenfalls anzupassen und so ein Nein zugunsten eines Ja abzuwenden. In solchen Fällen kommt der Anwender zum Zug, indem er die gesammelten Informationen und Grenzwertüberschreitungen prüft, neue Daten einholt und hinzufügt, um schliesslich zu einer klaren Antwort zu kom- men. Der Vorteil der Automatisierung liegt somit darin, dass sich der Mensch bei einem Grossteil der auftretenden Abfragen und Beurteilungen auf das Urteil eines DSS verlassen und auf die Beantwortung der komplexen («Jein»-)Fälle konzentrieren kann. Im Folgenden soll ein Praxisbeispiel die Verheissungen der Softwaretechnologie veranschaulichen. Entscheidungsprozesse sind vielschichtig Jeder Autohändler kennt das Problem: Ein ­Leasingvertrag mit einem neuen Kunden kann nur abgeschlossen werden, wenn die Risikobewertung der betreffenden Privatperson oder Firma positiv ausfällt. Doch die Beurteilung der Kreditwürdigkeit eines Antragstellers ist aufwendig und benötigt Zeit, müssen doch Wirtschaftsdatenbanken abgefragt, Details geprüft, Bewertungen vorgenommen und gegebenenfalls Zusatzinformationen angefordert werden, bevor es zur Unterzeichung des Vertrags kommen kann. Normalerweise werden heutzutage solche Anträge von Sachbearbeitern in einzelnen Schritten manuell bearbeitet. Die Abfrage von Budgetzahlen, Sicherheiten oder der Zahlungsmoral des Kunden muss einzeln vorgenommen, die Resultate bewertet und in eine Datenbank respektive eine Vertragssoftware übertragen werden – oft manuell. Die Beurteilung des Antrags ist dabei nicht nur von den vorliegenden Informationen, sondern auch von der richtigen Vorgehensweise und vom Wissen des Mitarbeiters abhängig, der den Antrag bearbeitet. Die Bearbeitung eines Leasingantrags ist also nicht bloss aufwendig und zeitintensiv, sondern auch mit gewissen Risiken behaftet. Risiken wie Zahlungsverzug oder –ausstände, die man durch den Prüfprozess ja gerade vermeiden will. Deshalb kommt normalerweise immer auch noch das Vier-Augen-Prinzip zum Einsatz. Standardisierung und Automatisierung Renato Stalder ist CEO des BPM-Herstellers Soreco und Verwaltungsrat des DSS-Spezialisten Axon Active Holding. Geeignete Softwarelösungen schaffen hier Abhilfe. So kann mittels eines Softwareservices einer Business-Process-Management-Lösung die Identifikation der Person oder Firma erfolgen, indem sekundenschnell Daten mit Wirtschaftsdatenbanken abgeglichen werden. Das Eingreifen eines Sachbearbeiters ist lediglich dann nötig, wenn die Daten nicht korrekt sind. Andernfalls werden, basierend auf einem komplexen Regelwerk, das mehrere Dutzend oder hunderte Regeln beinhalten kann, die Daten einer Risikobewertung unterzogen. Das DSS wiederum prüft den Antrag beispielsweise auf Kreditwürdigkeit oder Kreditfähigkeit und führt ihn in einen von drei Zuständen über: Grün für bewilligt, Rot für abgelehnt oder Gelb, wenn ein manueller Eingriff nötig ist. Letzterenfalls werden dem Sachbearbeiter sämtliche Daten, die für die Beurteilung nötig sind, über eine Prozessebene direkt zur Verfügung gestellt. Jetzt können, egal in welchem vor- oder nachgelagerten System die Informationen vorhanden sind, Daten mutiert, berechnet oder ergänzt werden. So kann der Antrag dergestalt modifiziert werden, dass dem Kunden vom Verkäufer ein Vorschlag für einen günstigeren Wagen unterbreitet werden kann. Schliesslich erfolgt bei einem bewilligten Antrag die automatisiert Produktion der Vertragsdokumente und die regelkonforme Archivierung aller Daten, Entscheidungs­ informationen und Dokumente. Kosten, Zeit und Umsatz Softwaresysteme können Entscheidungen also nicht nur unterstützen, sondern sie sogar dem Menschen abnehmen. Der grosse Vorteil liegt dabei in zwei Dingen: Eine positive Entscheidung wird sicherer, weil sie standardisiert und automatisiert vonstatten geht. Ebenso wichtig ist aber auch die Geschwindigkeit, mit der der Kunde eine Antwort erhält. Anstatt wie oft einen oder gar mehrere Tage auf eine Antwort zu warten, kann diese in Minutenschnelle erfolgen. Ein Vorteil, der für Verkäufer von unschätzbarem Wert ist, erhält der Kunde doch gleich die Gewissheit, dass das Autohaus mit ihm den Vertrag abschlies­ sen will. Sind (bei Antwort «Gelb») Anpassungen oder Zusatzinformationen notwendig, so kann dies ebenfalls sofort im Gespräch geklärt werden. Denn egal ob Auto, Heimelektronik oder Abteilungsdrucker, jeder Verkäufer weiss: Zeigt ein Kunde Interesse, darf man ihn nicht warten lassen. Kombinierte Systeme zur Prozessoptimierung und Entscheidungsfindung sparen also nicht nur Zeit und Kosten, sie bieten auch sehr viel Potenzial für höhere Umsätze. < 04/2013 © netzmedien ag 33 Dossier swiss BPM-Forum in Kooperation mit Uvision «BPM ist im Grunde genommen die ureigenste Managementdisziplin überhaupt» Dr. Clemente Minonne von der Zürcher Hochschule für Angewandte Wissenschaften sagt im Interview, wie gross die Kluft zwischen Forschung und Praxis beim Thema BPM wirklich ist. Er sieht ausserdem Anzeichen, dass sich nicht mehr nur primär IT-, sondern auch BWL-Studenten für das Thema interessieren. Interview: Simon Zaugg Herr Minonne, was beschäftigt Sie derzeit am meisten im BPM-Umfeld? Vielerorts sind Forscher der Meinung, dass das Thema schon längst durch sei und fragen mich, weshalb ich noch Energie in BPM investiere. Da bin ich anderer Meinung. Wenn ich Unternehmen besuche, dann zeigt sich nämlich genau jenes Bild, das sich auch in unserer Studie «BPM 2011: Status quo und Zukunft» widerspiegelt, die wir bei über 200 Unternehmen im deutschsprachigen Raum durchgeführt haben. Demnach gehören lediglich 7 Prozent der Unternehmen bezüglich BPM zu den sogenannten «World Champions». 32 Prozent sind auf gutem Wege. Weit über die Hälfte steht jedoch noch ziemlich am Anfang. Die Forschung sieht dagegen verschiedene weitere Trends: Die besagen, dass BPM im Kontext von cloudbasierten Diensten ein riesiger Trend sein wird. Weiter kommt die Einbettung der Social-Media-Plattformen in den BPMLifecycle dazu. Zu Big-Data-Analytics wird zudem gesagt, dass man neue Intelligenz aus den Prozesskennzahlen erzeugen und proaktiv prozessbezogene Initiativen starten kann. Die Forscher scheinen es dagegen überhaupt nicht interessant zu finden, zum Beispiel auf dem Gebiet der «Prozesskostenanalyse» weiterführende praxisorientierte Grundlagen und Modelle zu schaffen. Manchmal vergessen sie, welche Unterstützung die Praxis wirklich benötigt. Wie gut ist BPM denn eigentlich an den Hochschulen verankert? Man darf heute mit gutem Gewissen sagen, dass das Thema auch im Hochschulumfeld völlig vernachlässigt wird. Das Prozessmanagement ist zwar Teil diverser Studiengänge. Ganze Module zum Thema gibt es jedoch eher selten und komplette Studiengänge sind die Ausnahme. BPM scheint ein analytisches Thema zu sein, das vorab ITler interessiert – Betriebswirte finden daran eher weniger Gefallen. Erfreulich ist jedoch, dass es immer mehr BWLer gibt, die mich anfragen, Semester- oder Diplomarbeiten zum angewandten Prozess- men eine Organisationsstrategie entwickle, dann gehe ich drei Phasen durch: die Analyse, die Entwicklung sowie die Umsetzung der Strategie. Der Analyseteil ist Fleissarbeit. Der Entwicklungsteil ist eine Frage der Kreativität und der Umsetzungsteil bleibt dann eine ziemliche Knochenarbeit. Dasselbe gilt es auch zu tun, bevor überhaupt BPM-Lösungen eingeführt werden. Basierend auf dem bestehenden Geschäftsmodell muss zum Beispiel eine stringente Prozesslandkarte definiert werden. Darunter werden die Geschäftsprozesse bis auf die Ebene der Elementarprozesse zerlegt, bis sie nicht mehr weiter zerlegt werden können. Die Hausaufgaben muss man eben vorher machen! Dr. Clemente Minonne erforscht an der Zürcher Hochschule für Angewandte Wissenschaften die neusten Trends im Business Process Management. management zu betreuen. Das zeigt, dass sie dort Potenzial sehen. Was sind denn im Kontext von BPM konkrete Bedürfnisse von Unternehmen? Für sie gilt es, primär dafür zu sorgen, dass sie nicht ins Straucheln geraten. Das heisst, sie müssen Methoden und Systeme entwickeln, um in erster Linie adäquate Prozesskostenanalysen durchzuführen. In vielen Branchen, die einem Verdrängungsmarkt ausgesetzt sind, kann mit dem aktuellen Geschäftsmodell nur noch erfolgreich bleiben, wer bei ganz bestimmten Prozessen erfolgreich Kostensenkungsmassnahmen umsetzt. Dann kann man trotz stagnierendem Umsatz mehr Gewinn erzielen; eine Kunst! Entgegen der vielerorts herrschenden Hochschulsicht wird es künftig so sein, dass die Praxis-Trends in Richtung Effektivitätssteigerung gehen werden, bei der es um Qualität und Innovation geht – und nicht in Richtung Effizienzsteigerung, bei der es um die Produktivität geht. Man darf ganz grundsätzlich nicht vergessen, dass BPM im Grunde genommen die «ureigenste» Managementdisziplin überhaupt ist. Wenn ich als Unterneh- Falls ein Unternehmen BPM ernsthaft umsetzen will, woran mangelt es denn meistens? Ich wurde gerade kürzlich von einem Mitglied einer Geschäftsleitung kontaktiert. Der Grund war, dass sie zwar auf bestem Wege sind, BPM im professionellen Sinne zu implementieren, jedoch nach der Erarbeitung der Prozesslandkarte und der Modellierung ausgewählter Prozessketten nun irgendwie feststecken. Sie haben erkannt, dass zwischen ihrer neuen strategischen Intention und dem, was konsequenterweise im Bereich des Prozessmanagements gemacht wird, nur ein gering nachvollziehbarer Link existiert. Das bedeutet, dass es eben unsere Aufgabe sein muss, diesen Führungskräften zu erklären, wie dieser Link zustande kommt und operationalisiert werden kann. Wie beurteilen Sie die Chancen für neue ­Player mit BPM-Dienstleistungen? Man wird künftig ganz neuartige Firmen am Markt antreffen. Es wird Unternehmen geben, die im Mandatsverhältnis die volle Verantwortung für die Durchführung hochspezialisierter und branchenspezifischer Prozesse übernehmen. Da wird es auch sehr grosses Potenzial für Lösungsanbieter geben. Insgesamt ist es jedoch ganz wichtig, dass man zwischen BPM-as-a-Service und BP-as-a-Service unterscheidet. Viele machen heute diese Unterscheidung kaum. < 04/2013 © netzmedien ag 34 Die themenführende B2B-Plattform zu Business Process Management 25. April 2013 | 08.00 – 17.00 Uhr Mövenpick Hotel Zürich-Regensdorf Platin Partner: Business Process Management – Kernkompetenz erfolgreicher Unternehmen Gold Partner: Die Management-Plattform für Entscheidungsträger von Anwenderunternehmen Prof. Dr. Mark Dambacher Kjell A. Nordström Stv. CEO, InCore Bank Professor at the Institute of International Business, Stockholm School of Economics Daniel Hüppi CEO, AMAG Leasing AG Karl Unger Strategischer Berater des Vorstands und ehem. Vorstandsmitglied, UNIQA, Österreich Versicherungen AG Rosmarie Widmer Gysel Regierungspräsidentin und Finanzdirektorin, Kanton Schaffhausen Daniel Zurlinden Leiter IT und Logistik, Mitglied der Geschäftsleitung, fenaco Genossenschaft www.sgo.ch Zeit Programm 08.30 Registration und Networking 09.20 Eröffnung Forum: CEO’s Soreco AG, Software AG und ZHAW School of Management and Law 09.30 Schwerpunkte und Herausforderungen BPM: Studie 2013 & Einstiegsthesen Dr. Clemente Minonne, Head of Research Group for Knowledge and Information Management, ZHAW School of Management and Law Prof. Dr. Thomas Allweyer, Professor für Unternehmensmodellierung, FH Kaiserslautern 10.00 Pause & Networking 10.30 Digitalisierung: Vom elektronischen Belegfluss zum intelligenten Workflow Karl Unger, Strategischer Berater des Vorstands und ehem. Vorstandsmitglied, UNIQA Österreich Versicherungen AG 11.00 AMAG Leasing-Prozess: Kreditentscheide in Echtzeit dank Prozessautomation Daniel Hüppi, CEO, AMAG Leasing AG 11.30 Anforderungen der Politik und der Verwaltungspraxis an optimierte Geschäftsprozesse durch gezielten Einsatz des E-Governments Rosmarie Widmer Gysel, Regierungspräsidentin und Finanzdirektorin, Kanton Schaffhausen 12.00 Executive Plenardiskussion mit den Referenten 12.20 Business Lunch & Networking 13.30 Best-Practice- und Expertengespräche Session A: Enterprise Accounts Einstiegsthese durch Dr. Clemente Minonne 13.40 Silber Partner: Session B: Top SMB Accounts Einstiegsthese durch Stefan Studer Roundtables Leitung Roundtables Prof. Dr. Thomas Allweyer Geschäftsprozess-Management als Basis für die Transformation der Schweizer Armee Markus Kress, Unternehmensentwicklung, Schweizer Armee BPM: Nutzen erkennen, Nutzer überzeugen Urs Salzmann, Leiter Kommunikation, Stadt Gossau SG 14.00 Professionelle Kundenberatung mit BPM-Unterstützung: Digitalisierung des Client-Onboardingund des Client-Annual-Review-Prozesses Anna Roth, IT Project Manager, Coutts & Co Ltd. Kreditanträge mittels Workflow steuern und überwachen Daniel Zurlinden, Leiter IT und Logistik, Mitglied der Geschäftsleitung, fenaco Genossenschaft Roundtables zu den Schwerpunktthemen BPM-Innovationen, -Operations, -Strategien und -Management 14.20 Kontinuierliche Prozessoptimierung dank Fokussierung auf Kundenbedürfnisse Manuel Joos, Leiter Softwareentwicklung, UBS Card Center AG Business Process Outsourcing – Trends Mark Dambacher, Stv. CEO, InCore Bank 14.40 Experten Paneldiskussion Experten Paneldiskussion 15.00 Pause & Networking 15.30 Radical Change – Challenges and Choices Prof. Dr. Kjell A. Nordström, Professor at the Institute of International Business, Stockholm School of Economics 16.10 Fazit und Ausblick 16.20 Community-Apéro BUSINESS IN MOTION Media Partner: Veranstalter: branded marketplaces Anmeldung: www.bpm-forum.ch (Eintrittspreis für Anwender CHF 390.–, für Anbieter CHF 2590.–) Informationen: [email protected], Tel. +41 44 260 10 60