„Knowledge Discovery in Databases (KDD) – Datenvorbereitung

Werbung
„Knowledge Discovery in Databases (KDD) –
Datenvorbereitung und Analyse mit dem
Oracle Data Miner in der Fertigungsindustrie“
Marco, Fischer / Uwe, Wieland –
Kassel, 19.03.2013
Agenda
Prozesse und deren Analysepotenzial in der diskreten Fertigung
KDD, CRISP-DM und die Herausforderungen im Projekt
Vorbereitung der explorativen Datenanalyse
Durchführung und Auswertung mittels Oracle Data Miner
Fazit und Zusammenfassung
Agenda
Prozesse und deren Analysepotenzial in der diskreten Fertigung
KDD, CRISP-DM und die Herausforderungen im Projekt
Vorbereitung der explorativen Datenanalyse
Durchführung und Auswertung mittels Oracle Data Miner
Fazit und Zusammenfassung
Prozesse und…
Rahmenbedingungen
– Verschärfung des globalen Wettbewerbsdrucks
• geringer Spielraum bei Preisbildung
• hoch effiziente Informationsbeschaffung
– Produkte immer ähnlicher
• Differenzierungspotenziale meist nur in Verbindung mit Prozessen
Prozesse und…
Rahmenbedingungen
– Reduzierung der Fertigungstiefe
• hohe Qualitätsabhängigkeit von Lieferanten als Prozessinput der
Wertschöpfung
– sehr komplexe Prozesse bei hohem Anspruch an Flexibilität
• sehr viele Einflussgrößen beeinflussen die Prozessergebnisse
• komplexe Ursachen-Wirkungsbeziehungen
• hohe Änderungsraten
• Sensor-, Qualitäts- und Anlagendaten stehen in großen
Prozessdatenbeständen zur Verfügung
Prozesse und…
Ziele
– Verbesserung der Kundenzufriedenheit (interne/externe Kunden)
– permanente Verbesserung von Prozessen (Effizienz u. Effektivität)
– nachhaltige Überwachung und Steuerung der verbesserten Prozesse
Herausforderungen … Integration von Mensch und Prozessdaten!
– Identifikation von Einflussgrößen in einer Vielzahl an Prozessmerkmalen
– Bestimmung von Ursachen-Wirkungsbeziehungen in multivariaten
Konstellationen (Erlernen kausaler Zusammenhänge aus Messdaten)
– Zusammenführung von menschlichen Erfahrungswissen
(hypothesengetrieben) und Wissen aus Prozessdaten (hypothesenfrei)
– Umgang mit veränderlichen Prozessen (Concept-Drift)
Prozesse und…
Anatomie von diskreten Fertigungsprozessen…
– diskrete Fertigungsprozesse als Sequenz von
Transformationsschritten ausgehend von Produktionsfaktoren
(Inputs) zu bestimmten End- oder Zwischenerzeugnissen (Outputs)
– Systematisierung als Input-Output-System (Black-Box)
Prozesse und…
Anatomie von diskreten Fertigungsprozessen…
– Bedingungen einer reproduzierbaren Fertigung [vgl. Grossmann/Wiemer (2011)]
• Definiertheit der finalen Produkteigenschaften (Voraussetzung für
Analyse)
• Durchgängigkeit der gesamten Prozesskette (Voraussetzung für
Analyse)
• Beherrschtheit der einzelnen Prozessschritte (Potenziale)
• Analysierbarkeit aller Prozessschritte (Potenziale)
• Steuerbarkeit aller elementaren Zustandsänderungen (Potenziale)
… deren Analysepotenziale in der
diskreten Fertigung
potentielle analytische Fragestellungen innerhalb dieser
Prozesse
– Segmentierung
• Identifizierung von unterschiedlich charakterisierten Prozessschritten,
Bauteilen in einer eigentlich homogen scheinenden Menge
– Anomalieerkennung
• Erkennung von Ausreißern (Produkte, Maschinenparametrisierungen,
etc.) in Umgebungen mit vielen Prozess- oder Produktmerkmalen
– Klassifizierung
• möglichst frühzeitige Ausschleusung von fehlerhaften Teilen
(Vermeidung v. Fehlteilen, Reduzierung Prozesskosten, Freigabe von
knappen Produktionskapazitäten)
• kontinuierlicher Verbesserungsprozess innerhalb der Supply Chain
(Ermittlung von interessanten Merkmalen und dessen Ausprägungen
zur Verbesserung des Herstellungsprozesses beim Lieferanten
… deren Analysepotenziale in der
diskreten Fertigung
potentielle analytische Fragestellungen innerhalb dieser
Prozesse
– Assoziation und Sequenzen
• Identifikation von gemeinsam auftretenden Maschinenzuständen
• Entdeckung von auffälligen Reihenfolgen in der Maschinenbelegung
– Prognose
• Vorhersagen von Klassenzuordnungen (fehlerfreie/fehlerhafte Teile)
anhand von Produkt- und Prozessparametern
• Prognose von Ergebnisgrößen (Parametereinstellung einer Maschine)
auf Basis von Einflussgrößen (Eigenschaften von Kaufteilen,
vorgelagerte Prozessparameter) und deren UrsachenWirkungsbeziehungen
… deren Analysepotenziale in der
diskreten Fertigung
am Fallbeispiel einer Sensorfertigung
– Fokus im Gesamtvorhaben: Erweiterung
Prozessverbesserungsmethode um hypothesenbildende Verfahren
(Prozessdatenanalyse)
– Diskursbereich: diskrete Fertigung der Automobilzulieferindustrie
– Prozess: automatisierter Fertigungsprozess (SMD, Montage,
Spritzgießen, Temperaturkompensation, EOL (Programmierung &
Endprüfung)
– Produkt: Sensor für PKW
– Wichtig! Der Prozess wurde bereits innerhalb eines Six-SigmaProjektes hinsichtlich mechanischer Schwerpunkte verbessert, was
zu einer Fehlerreduktion von 30% auf ca. 9,4 % führte.
… deren Analysepotenziale in der
diskreten Fertigung
am Fallbeispiel einer Sensorfertigung
– gesucht: Einfluss von Prozessparametern auf
Produkteigenschaften!
Agenda
Prozesse und deren Analysepotenzial in der diskreten Fertigung
KDD, CRISP-DM und die Herausforderungen im Projekt
Vorbereitung der explorativen Datenanalyse
Durchführung und Auswertung mittels Oracle Data Miner
Fazit und Zusammenfassung
Knowledge Discovery in Databases
Reskalierung
Normierung
Verknüpfung
Datenexploration
Datenanreicherung
Datenreduktion
Behandlung fehlender Werte
Behandlung falscher Werte
Geschäftsziele
Data-Mining-Ziele
Segmentierung
Klassifikation
Abhängigkeitsanalyse
Prognose
Modellvalidierung
Prozessvalidierung
Applikation
Knowledge Discovery in Databases
90%
10%
CRISP-DM
Cross Industry Standard Process for Data Mining
Initiative seit 1996
– SPSS, Teradata, Daimler,
OHRA
frei verfügbar, nicht an
proprietäre Programme
gebunden
neutral bezüglich
Anwendungsfeldern und
Anwendungen
CRISP-DM – Phasen
Herausforderungen bei Anwendung in
der diskreten Fertigung
generische Methode liefert nur abstrakte
Handlungsempfehlungen für Spezialisierung
dezentrale Dokumente bzw. Berichte, welche nicht integriert
sind und damit keine Verbindung zwischen den Daten und
ihren Metadaten bereitstellen
Komplexität im Analyseprojekt
zwei Welten:
– Domain-Experten: Wissen über den Prozess
– Data-Mining-Experten: Wissen um die Algorithmen
Herausforderungen bei Anwendung in
der diskreten Fertigung
Erstellung
Domain-Experte
Prozessmodell
Metadaten des Prozesses
Transformation
Analysespez. Datenmodell
Nutzung
Exemplardaten des Prozesses
Data-Mining-Experte
Agenda
Prozesse und deren Analysepotenzial in der diskreten Fertigung
KDD, CRISP-DM und die Herausforderungen im Projekt
Vorbereitung der explorativen Datenanalyse
Durchführung und Auswertung mittels Oracle Data Miner
Fazit und Zusammenfassung
Vorbereitung der explorativen
Datenanalyse
Business Understanding herstellen
– Projektauftrag anfertigen
– Prozessmodellierung durchführen
– Data-Mining-Ziele festlegen
Zieldatenmodell und ETL-Prozess erzeugen
Regelinspektor anwenden
Falldatensatz erzeugen
Vorbereitung der explorativen
Datenanalyse
Vorbereitung der explorativen
Datenanalyse
Business Understanding herstellen (1)
– Projektauftrag anfertigen
• Beschreibung des Problems und der Situation
• Setzen von Zielen
• Herausstellen des Kundennutzens
• Abgrenzung des Projektrahmens
• Ergebnis: Prozess + Prozessproblem zur
Übergabe an Prozessmodellierung
Vorbereitung der explorativen
Datenanalyse
Business Understanding herstellen (2)
– Prozessmodellierung durchführen
• Aufbau eines Prozessablaufverständnisses anhand eines
Prozessmodells
• orientiert sich an SIPOC-Analyse & Input-Output-System
• Bestimmung von Supplier (z.B. Verantwortlicher Montage), Inputs (z.B.
Merkmale eines Kaufteils, Maschinenparametereinstellungen),
Prozessschritt, Outputs (z.B. Halbfabrikat mit spezifischen
Parametern), Customer (z.B. Verantwortlicher EOL)
• Festlegung von bekannten Ursachen-Wirkungsbeziehungen zwischen
Objekttypen und deren Merkmalen
• Ergebnis: Prozess als Input-Output-System & Grundlage für die
Generierung des Zieldatenmodells
Vorbereitung der explorativen
Datenanalyse
Prozessmodellierung durchführen
Vorbereitung der explorativen
Datenanalyse
Business Understanding herstellen (2)
– Prozessmodellierung durchführen (APEX-Anwendung)
Vorbereitung der explorativen
Datenanalyse
Business Understanding herstellen (3)
– Data-Mining-Ziele festlegen
• orientiert sich an VOC-CTQ-Analyse
• Übernahme der Steuerungsgrößen (Outputs) pro Interessengruppe
(Customer) aus Prozessmodell
• Auflistung der Kundenanforderungen und –erwartungen (VOC)
• Verdichtung der VOCs zu Kernaussagen
• Definition messbarer Kriterien, welche den VOCs entsprechen (CTQ)
• CTQs sind messbare Prozessergebnisgrößen, welche als Zielvariablen
für Data-Mining-Fragestellungen dienen und den Problemtyp
beschreiben
VOC
Voice of Customer / CTQ
Critical to Quality
Vorbereitung der explorativen
Datenanalyse
Zieldatenmodell und ETL-Prozess erzeugen
– automatische Erzeugung einer Tabellenstruktur für alle modellierten
Objekttypen des Prozessmodells (Zieldatenmodell)
• Zieldatenmodell entspricht der Datenbereitstellungsschnittstelle
zwischen Analyseprojekt und jeweiligen Datenlieferanten im Prozess
• pro Objekttyp (Input, Ressource, Output) wird eine relationale Tabelle
erzeugt
• jede Zieltabelle wird mittels Ladeprozess befüllt
• Alternative: Verwendung von Views, jedoch stets auf analytischer
Datengrundlage (Performance Data Mining-Algorithmen)
– Ergebnis: Zieldatenbank steht für Qualitätssicherung durch
Regelinspektor zur Verfügung
Vorbereitung der explorativen
Datenanalyse
Regelinspektor anwenden
– automatische Überprüfung der Zieldatenbank anhand von
Metadaten aus Prozessmodell:
• durchgängig identifizierende Merkmale
• Skalenniveaus & Wertebereiche
• Einhaltung von semantischen Regeln (Implikationen)
• fehlende Werte (Missing Values)
– betroffene Datensätze werden automatisch annotiert
– annotierte Merkmale überprüfen und Datenbereinigung durchführen
Vorbereitung der explorativen
Datenanalyse
Falldatensatz erzeugen
– Festlegung des Data-Mining-Problemtyps anhand der relevanten CTQs
• Problemtyp 1: Zielvariable vorhanden (Klassifizierung, Prognose,
Anomalieerkennung mit bekannten Ausreißern)
• Problemtyp 2: ohne Zielvariable (Clustering, Assoziationsanalyse,
Annomalieerkennung ohne bekannte Ausreißer)
– Auswahl der Zielvariabel bzw. manuelle Auswahl des Zielobjekttypen
• betroffener Objekttyp und damit verknüpfte, vorgelagerte Objekttypen
werden in Falldatenmodell übernommen (inkl. Beachtung der UrsachenWirkungsbeziehungen)
• aus bereinigter Zieldatenbank wird anhand des Falldatenmodells der
physische Falldatensatz generiert
– Übergabe des Falldatensatzes an Modellierungstechnik (Oracle Data Miner)
Vorbereitung der explorativen
Datenanalyse
Unterstützungsschwerpunkte der Methode in der
systematischen, teilautomatisierten Vorbereitung
Agenda
Prozesse und deren Analysepotenzial in der diskreten Fertigung
KDD, CRISP-DM und die Herausforderungen im Projekt
Vorbereitung der explorativen Datenanalyse
Durchführung und Auswertung mittels Oracle Data Miner
Fazit und Zusammenfassung
Oracle Data Mining (ODM)
Integrierte Data-Mining-Plattform in der Oracle DB
– seit Oracle 9iR2 verfügbar
– PL/SQL und Java API
Data Mining direkt bei den Daten
Implementierte Algorithmen:
– Klassifizierung: Logistische Regression (GLM), Entscheidungsbaum, Naïve
Bayes, Support Vector Machine
– Regression/Prognose: Multiple Regression (GLM), Support Vector Machine
– Clusterbildung/Segmentierung: Hierarchical K-Means, Hierarchical O-Cluster
– Assoziation: Apriori
– Anomalieerkennung: Support Vector Machine
– weitere Algorithmen: Featureextraktion (Non-negative Matrix Factorization),
Attribute Importance (Minimum Description Length)
Oracle Data Miner GUI integriert in Oracle SQL Developer (ab 3.1)
Oracle Data Miner
Fallbeispiel Sensorfertigung
Ziel
– anhand der vorhanden Messwerte der Temperaturkompensation
(TK) sollen TK-Fehler klassifiziert werden und
Handlungsanleitung in Form von Regeln erstellt werden
Verfahren
– Entscheidungsbaum (überwachtes Lernen)
Voraussetzungen
– qualitätsgesicherter Falldatensatz
– nominale Zielvariable (fehlerfrei/Fehler TK)
– Auswahlmaße für Splitt-Regel (Gini-Index, Entropie)
Fallbeispiel Sensorfertigung
Erkenntnisse der Datenvorbereitung
Konsolidierung der Fehlerklassen zur Erhöhung der Fallzahlen
(Fehler TK, Fehler EOL, Fehlerfrei, unbekannt)
Erkenntnisse über unterschiedliche Losgrößen wurden
behandelt
– durch Normalisierung
– durch automatische Datenvorverarbeitung
Problem der unbalancierten Daten (viele fehlerfreie und relativ
wenig fehlerhafte Teile)
– Zielwertangleichung durch Optimierung über Gewichte (Kosten,
etc.) sowie Gleichverteilung der Zielwerte in der Trainingsmenge
Fallbeispiel Sensorfertigung
Modellerstellung
Fallbeispiel Sensorfertigung
Modellevaluation
Klassifizierung von TK-Fehlern anhand von TK-Messwerten
(12 Inputwerte)
das Modell zeigt einen interessanten Lift in
Bezug auf den Zielwert „Fehler TK“ (ca. 18 % aller TK-Fehler
werden im ersten Bereich aller Daten gefunden)
Fallbeispiel Sensorfertigung
Modellevaluation
ziemlich genaue Regeln zur Bestimmung von Fehlern, welche
als Regelwerk in die Prüfung integriert werden können
Fallbeispiel Sensorfertigung
Modellimplementierung
einzelne Regeln des Entscheidungsbaumes lassen sich direkt
im Prozess implementieren (z.B. im Programmcode)
Modellintegration in Prozesssteuerung mittels SQL-Abfrage für
Bewertung neuer Exemplardaten:
Agenda
Prozesse und deren Analysepotenzial in der diskreten Fertigung
KDD, CRISP-DM und die Herausforderungen im Projekt
Vorbereitung der explorativen Datenanalyse
Durchführung und Auswertung mittels Oracle Data Miner
Fazit und Zusammenfassung
Fazit und Zusammenfassung
Potenziale auf Basis vorhandener Prozessdaten sind
vorhanden und oft ungenutzt
Verbesserung Business-IT-Alignment
Effizienzsteigerung in Phasen der Datenvorbereitung
eine integrierte Plattform für Vorbereitung und Analyse
Prozessänderung heißt Modellkontrolle!
direkte Anwendung erzeugter Modelle auf Exemplardaten
Referenten
Marco Fischer & Uwe Wieland
[email protected]
[email protected]
FRAGEN
ANTWORTEN
Wir freuen uns auf Ihren Besuch an unserem Stand!
Herunterladen