„Knowledge Discovery in Databases (KDD) – Datenvorbereitung und Analyse mit dem Oracle Data Miner in der Fertigungsindustrie“ Marco, Fischer / Uwe, Wieland – Kassel, 19.03.2013 Agenda Prozesse und deren Analysepotenzial in der diskreten Fertigung KDD, CRISP-DM und die Herausforderungen im Projekt Vorbereitung der explorativen Datenanalyse Durchführung und Auswertung mittels Oracle Data Miner Fazit und Zusammenfassung Agenda Prozesse und deren Analysepotenzial in der diskreten Fertigung KDD, CRISP-DM und die Herausforderungen im Projekt Vorbereitung der explorativen Datenanalyse Durchführung und Auswertung mittels Oracle Data Miner Fazit und Zusammenfassung Prozesse und… Rahmenbedingungen – Verschärfung des globalen Wettbewerbsdrucks • geringer Spielraum bei Preisbildung • hoch effiziente Informationsbeschaffung – Produkte immer ähnlicher • Differenzierungspotenziale meist nur in Verbindung mit Prozessen Prozesse und… Rahmenbedingungen – Reduzierung der Fertigungstiefe • hohe Qualitätsabhängigkeit von Lieferanten als Prozessinput der Wertschöpfung – sehr komplexe Prozesse bei hohem Anspruch an Flexibilität • sehr viele Einflussgrößen beeinflussen die Prozessergebnisse • komplexe Ursachen-Wirkungsbeziehungen • hohe Änderungsraten • Sensor-, Qualitäts- und Anlagendaten stehen in großen Prozessdatenbeständen zur Verfügung Prozesse und… Ziele – Verbesserung der Kundenzufriedenheit (interne/externe Kunden) – permanente Verbesserung von Prozessen (Effizienz u. Effektivität) – nachhaltige Überwachung und Steuerung der verbesserten Prozesse Herausforderungen … Integration von Mensch und Prozessdaten! – Identifikation von Einflussgrößen in einer Vielzahl an Prozessmerkmalen – Bestimmung von Ursachen-Wirkungsbeziehungen in multivariaten Konstellationen (Erlernen kausaler Zusammenhänge aus Messdaten) – Zusammenführung von menschlichen Erfahrungswissen (hypothesengetrieben) und Wissen aus Prozessdaten (hypothesenfrei) – Umgang mit veränderlichen Prozessen (Concept-Drift) Prozesse und… Anatomie von diskreten Fertigungsprozessen… – diskrete Fertigungsprozesse als Sequenz von Transformationsschritten ausgehend von Produktionsfaktoren (Inputs) zu bestimmten End- oder Zwischenerzeugnissen (Outputs) – Systematisierung als Input-Output-System (Black-Box) Prozesse und… Anatomie von diskreten Fertigungsprozessen… – Bedingungen einer reproduzierbaren Fertigung [vgl. Grossmann/Wiemer (2011)] • Definiertheit der finalen Produkteigenschaften (Voraussetzung für Analyse) • Durchgängigkeit der gesamten Prozesskette (Voraussetzung für Analyse) • Beherrschtheit der einzelnen Prozessschritte (Potenziale) • Analysierbarkeit aller Prozessschritte (Potenziale) • Steuerbarkeit aller elementaren Zustandsänderungen (Potenziale) … deren Analysepotenziale in der diskreten Fertigung potentielle analytische Fragestellungen innerhalb dieser Prozesse – Segmentierung • Identifizierung von unterschiedlich charakterisierten Prozessschritten, Bauteilen in einer eigentlich homogen scheinenden Menge – Anomalieerkennung • Erkennung von Ausreißern (Produkte, Maschinenparametrisierungen, etc.) in Umgebungen mit vielen Prozess- oder Produktmerkmalen – Klassifizierung • möglichst frühzeitige Ausschleusung von fehlerhaften Teilen (Vermeidung v. Fehlteilen, Reduzierung Prozesskosten, Freigabe von knappen Produktionskapazitäten) • kontinuierlicher Verbesserungsprozess innerhalb der Supply Chain (Ermittlung von interessanten Merkmalen und dessen Ausprägungen zur Verbesserung des Herstellungsprozesses beim Lieferanten … deren Analysepotenziale in der diskreten Fertigung potentielle analytische Fragestellungen innerhalb dieser Prozesse – Assoziation und Sequenzen • Identifikation von gemeinsam auftretenden Maschinenzuständen • Entdeckung von auffälligen Reihenfolgen in der Maschinenbelegung – Prognose • Vorhersagen von Klassenzuordnungen (fehlerfreie/fehlerhafte Teile) anhand von Produkt- und Prozessparametern • Prognose von Ergebnisgrößen (Parametereinstellung einer Maschine) auf Basis von Einflussgrößen (Eigenschaften von Kaufteilen, vorgelagerte Prozessparameter) und deren UrsachenWirkungsbeziehungen … deren Analysepotenziale in der diskreten Fertigung am Fallbeispiel einer Sensorfertigung – Fokus im Gesamtvorhaben: Erweiterung Prozessverbesserungsmethode um hypothesenbildende Verfahren (Prozessdatenanalyse) – Diskursbereich: diskrete Fertigung der Automobilzulieferindustrie – Prozess: automatisierter Fertigungsprozess (SMD, Montage, Spritzgießen, Temperaturkompensation, EOL (Programmierung & Endprüfung) – Produkt: Sensor für PKW – Wichtig! Der Prozess wurde bereits innerhalb eines Six-SigmaProjektes hinsichtlich mechanischer Schwerpunkte verbessert, was zu einer Fehlerreduktion von 30% auf ca. 9,4 % führte. … deren Analysepotenziale in der diskreten Fertigung am Fallbeispiel einer Sensorfertigung – gesucht: Einfluss von Prozessparametern auf Produkteigenschaften! Agenda Prozesse und deren Analysepotenzial in der diskreten Fertigung KDD, CRISP-DM und die Herausforderungen im Projekt Vorbereitung der explorativen Datenanalyse Durchführung und Auswertung mittels Oracle Data Miner Fazit und Zusammenfassung Knowledge Discovery in Databases Reskalierung Normierung Verknüpfung Datenexploration Datenanreicherung Datenreduktion Behandlung fehlender Werte Behandlung falscher Werte Geschäftsziele Data-Mining-Ziele Segmentierung Klassifikation Abhängigkeitsanalyse Prognose Modellvalidierung Prozessvalidierung Applikation Knowledge Discovery in Databases 90% 10% CRISP-DM Cross Industry Standard Process for Data Mining Initiative seit 1996 – SPSS, Teradata, Daimler, OHRA frei verfügbar, nicht an proprietäre Programme gebunden neutral bezüglich Anwendungsfeldern und Anwendungen CRISP-DM – Phasen Herausforderungen bei Anwendung in der diskreten Fertigung generische Methode liefert nur abstrakte Handlungsempfehlungen für Spezialisierung dezentrale Dokumente bzw. Berichte, welche nicht integriert sind und damit keine Verbindung zwischen den Daten und ihren Metadaten bereitstellen Komplexität im Analyseprojekt zwei Welten: – Domain-Experten: Wissen über den Prozess – Data-Mining-Experten: Wissen um die Algorithmen Herausforderungen bei Anwendung in der diskreten Fertigung Erstellung Domain-Experte Prozessmodell Metadaten des Prozesses Transformation Analysespez. Datenmodell Nutzung Exemplardaten des Prozesses Data-Mining-Experte Agenda Prozesse und deren Analysepotenzial in der diskreten Fertigung KDD, CRISP-DM und die Herausforderungen im Projekt Vorbereitung der explorativen Datenanalyse Durchführung und Auswertung mittels Oracle Data Miner Fazit und Zusammenfassung Vorbereitung der explorativen Datenanalyse Business Understanding herstellen – Projektauftrag anfertigen – Prozessmodellierung durchführen – Data-Mining-Ziele festlegen Zieldatenmodell und ETL-Prozess erzeugen Regelinspektor anwenden Falldatensatz erzeugen Vorbereitung der explorativen Datenanalyse Vorbereitung der explorativen Datenanalyse Business Understanding herstellen (1) – Projektauftrag anfertigen • Beschreibung des Problems und der Situation • Setzen von Zielen • Herausstellen des Kundennutzens • Abgrenzung des Projektrahmens • Ergebnis: Prozess + Prozessproblem zur Übergabe an Prozessmodellierung Vorbereitung der explorativen Datenanalyse Business Understanding herstellen (2) – Prozessmodellierung durchführen • Aufbau eines Prozessablaufverständnisses anhand eines Prozessmodells • orientiert sich an SIPOC-Analyse & Input-Output-System • Bestimmung von Supplier (z.B. Verantwortlicher Montage), Inputs (z.B. Merkmale eines Kaufteils, Maschinenparametereinstellungen), Prozessschritt, Outputs (z.B. Halbfabrikat mit spezifischen Parametern), Customer (z.B. Verantwortlicher EOL) • Festlegung von bekannten Ursachen-Wirkungsbeziehungen zwischen Objekttypen und deren Merkmalen • Ergebnis: Prozess als Input-Output-System & Grundlage für die Generierung des Zieldatenmodells Vorbereitung der explorativen Datenanalyse Prozessmodellierung durchführen Vorbereitung der explorativen Datenanalyse Business Understanding herstellen (2) – Prozessmodellierung durchführen (APEX-Anwendung) Vorbereitung der explorativen Datenanalyse Business Understanding herstellen (3) – Data-Mining-Ziele festlegen • orientiert sich an VOC-CTQ-Analyse • Übernahme der Steuerungsgrößen (Outputs) pro Interessengruppe (Customer) aus Prozessmodell • Auflistung der Kundenanforderungen und –erwartungen (VOC) • Verdichtung der VOCs zu Kernaussagen • Definition messbarer Kriterien, welche den VOCs entsprechen (CTQ) • CTQs sind messbare Prozessergebnisgrößen, welche als Zielvariablen für Data-Mining-Fragestellungen dienen und den Problemtyp beschreiben VOC Voice of Customer / CTQ Critical to Quality Vorbereitung der explorativen Datenanalyse Zieldatenmodell und ETL-Prozess erzeugen – automatische Erzeugung einer Tabellenstruktur für alle modellierten Objekttypen des Prozessmodells (Zieldatenmodell) • Zieldatenmodell entspricht der Datenbereitstellungsschnittstelle zwischen Analyseprojekt und jeweiligen Datenlieferanten im Prozess • pro Objekttyp (Input, Ressource, Output) wird eine relationale Tabelle erzeugt • jede Zieltabelle wird mittels Ladeprozess befüllt • Alternative: Verwendung von Views, jedoch stets auf analytischer Datengrundlage (Performance Data Mining-Algorithmen) – Ergebnis: Zieldatenbank steht für Qualitätssicherung durch Regelinspektor zur Verfügung Vorbereitung der explorativen Datenanalyse Regelinspektor anwenden – automatische Überprüfung der Zieldatenbank anhand von Metadaten aus Prozessmodell: • durchgängig identifizierende Merkmale • Skalenniveaus & Wertebereiche • Einhaltung von semantischen Regeln (Implikationen) • fehlende Werte (Missing Values) – betroffene Datensätze werden automatisch annotiert – annotierte Merkmale überprüfen und Datenbereinigung durchführen Vorbereitung der explorativen Datenanalyse Falldatensatz erzeugen – Festlegung des Data-Mining-Problemtyps anhand der relevanten CTQs • Problemtyp 1: Zielvariable vorhanden (Klassifizierung, Prognose, Anomalieerkennung mit bekannten Ausreißern) • Problemtyp 2: ohne Zielvariable (Clustering, Assoziationsanalyse, Annomalieerkennung ohne bekannte Ausreißer) – Auswahl der Zielvariabel bzw. manuelle Auswahl des Zielobjekttypen • betroffener Objekttyp und damit verknüpfte, vorgelagerte Objekttypen werden in Falldatenmodell übernommen (inkl. Beachtung der UrsachenWirkungsbeziehungen) • aus bereinigter Zieldatenbank wird anhand des Falldatenmodells der physische Falldatensatz generiert – Übergabe des Falldatensatzes an Modellierungstechnik (Oracle Data Miner) Vorbereitung der explorativen Datenanalyse Unterstützungsschwerpunkte der Methode in der systematischen, teilautomatisierten Vorbereitung Agenda Prozesse und deren Analysepotenzial in der diskreten Fertigung KDD, CRISP-DM und die Herausforderungen im Projekt Vorbereitung der explorativen Datenanalyse Durchführung und Auswertung mittels Oracle Data Miner Fazit und Zusammenfassung Oracle Data Mining (ODM) Integrierte Data-Mining-Plattform in der Oracle DB – seit Oracle 9iR2 verfügbar – PL/SQL und Java API Data Mining direkt bei den Daten Implementierte Algorithmen: – Klassifizierung: Logistische Regression (GLM), Entscheidungsbaum, Naïve Bayes, Support Vector Machine – Regression/Prognose: Multiple Regression (GLM), Support Vector Machine – Clusterbildung/Segmentierung: Hierarchical K-Means, Hierarchical O-Cluster – Assoziation: Apriori – Anomalieerkennung: Support Vector Machine – weitere Algorithmen: Featureextraktion (Non-negative Matrix Factorization), Attribute Importance (Minimum Description Length) Oracle Data Miner GUI integriert in Oracle SQL Developer (ab 3.1) Oracle Data Miner Fallbeispiel Sensorfertigung Ziel – anhand der vorhanden Messwerte der Temperaturkompensation (TK) sollen TK-Fehler klassifiziert werden und Handlungsanleitung in Form von Regeln erstellt werden Verfahren – Entscheidungsbaum (überwachtes Lernen) Voraussetzungen – qualitätsgesicherter Falldatensatz – nominale Zielvariable (fehlerfrei/Fehler TK) – Auswahlmaße für Splitt-Regel (Gini-Index, Entropie) Fallbeispiel Sensorfertigung Erkenntnisse der Datenvorbereitung Konsolidierung der Fehlerklassen zur Erhöhung der Fallzahlen (Fehler TK, Fehler EOL, Fehlerfrei, unbekannt) Erkenntnisse über unterschiedliche Losgrößen wurden behandelt – durch Normalisierung – durch automatische Datenvorverarbeitung Problem der unbalancierten Daten (viele fehlerfreie und relativ wenig fehlerhafte Teile) – Zielwertangleichung durch Optimierung über Gewichte (Kosten, etc.) sowie Gleichverteilung der Zielwerte in der Trainingsmenge Fallbeispiel Sensorfertigung Modellerstellung Fallbeispiel Sensorfertigung Modellevaluation Klassifizierung von TK-Fehlern anhand von TK-Messwerten (12 Inputwerte) das Modell zeigt einen interessanten Lift in Bezug auf den Zielwert „Fehler TK“ (ca. 18 % aller TK-Fehler werden im ersten Bereich aller Daten gefunden) Fallbeispiel Sensorfertigung Modellevaluation ziemlich genaue Regeln zur Bestimmung von Fehlern, welche als Regelwerk in die Prüfung integriert werden können Fallbeispiel Sensorfertigung Modellimplementierung einzelne Regeln des Entscheidungsbaumes lassen sich direkt im Prozess implementieren (z.B. im Programmcode) Modellintegration in Prozesssteuerung mittels SQL-Abfrage für Bewertung neuer Exemplardaten: Agenda Prozesse und deren Analysepotenzial in der diskreten Fertigung KDD, CRISP-DM und die Herausforderungen im Projekt Vorbereitung der explorativen Datenanalyse Durchführung und Auswertung mittels Oracle Data Miner Fazit und Zusammenfassung Fazit und Zusammenfassung Potenziale auf Basis vorhandener Prozessdaten sind vorhanden und oft ungenutzt Verbesserung Business-IT-Alignment Effizienzsteigerung in Phasen der Datenvorbereitung eine integrierte Plattform für Vorbereitung und Analyse Prozessänderung heißt Modellkontrolle! direkte Anwendung erzeugter Modelle auf Exemplardaten Referenten Marco Fischer & Uwe Wieland [email protected] [email protected] FRAGEN ANTWORTEN Wir freuen uns auf Ihren Besuch an unserem Stand!