Extraktion, Transformation und Laden

Werbung
Data-Warehouse-Technologien
Prof. Dr.-Ing. Kai-Uwe Sattler1
Prof. Dr. Gunter Saake2
Dr. Veit Köppen2
1 TU Ilmenau
FG Datenbanken & Informationssysteme
2 Universität Magdeburg
Institut für Technische und Betriebliche Informationssysteme
Letzte Änderung: 16.10.2016
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
0–1
Teil IV
Extraktion, Transformation, Laden
Extraktion, Transformation, Laden
Extraktion, Transformation und Laden
1
ETL-Prozess
2
Extraktion von Daten aus Quellen
3
Laden von Daten
4
Transformationsaufgaben
5
Schematische Heterogenität
6
Datenfehler
7
ELT
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–1
Extraktion, Transformation, Laden
ETL-Prozess
ETL: Überblick
Zwei Schritte
I
Von den Quellen zur Staging Area
F
F
F
I
Von der Staging Area zur Basisdatenbank
F
F
I
I
Extraktion von Daten aus den Quellen
Erstellen / Erkennen von differentiellen Updates
Erstellen von LOAD Files
Data Cleaning und Tagging
Erstellung integrierter Datenbestände
Kontinuierliche Datenversorgung des DWH
Sicherung der DWH Konsistenz bzgl. Datenquellen
Effiziente Methoden essentiell → Sperrzeiten minimieren
Rigorose Prüfungen essentiell → Datenqualität sichern
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–2
Extraktion, Transformation, Laden
ETL-Prozess
ETL-Prozess
Häufig aufwendigster Teil des Data Warehousing
I
I
I
I
Vielzahl von Quellen
Heterogenität
Datenvolumen
Komplexität der Transformation
F
F
I
Schema- und Instanzintegration
Datenbereinigung
Kaum durchgängige Methoden- und Systemunterstützung, jedoch
Vielzahl von Werkzeugen vorhanden
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–3
Extraktion, Transformation, Laden
ETL-Prozess
ETL-Prozess
Extraktion: Selektion eines Ausschnitts der Daten aus den Quellen
und Bereitstellung für Transformation
Transformation: Anpassung der Daten an vorgegebene Schemaund Qualitätsanforderungen
Laden: physisches Einbringen der Daten aus dem
Datenbeschaffungsbereich in das Data Warehouse (einschl.
eventuell notwendiger Aggregationen)
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–4
Extraktion, Transformation, Laden
ETL-Prozess
Definitionsphase des ETL-Prozesses
Analysebedarf
OLTP
Legacy
Externe
Quellen
Quelldatenanalyse
Auswahl der
Objekte
Datenmodell und
Konventionen
Erstellen der
Transformation
Abbildung
Schlüsseltransf.
Normalisierung
Dokumentation,
operativer
Datenkatalog
Datenquellen
Regelwerk für
Datenqualität
MetadatenManagement
Transformationsregeln
Erstellen der
ETL-Routinen
ETL-Jobs
DWH
Erfolgskriterien
für Laderoutinen
Repository
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–5
Extraktion, Transformation, Laden
Extraktion von Daten aus Quellen
Extraktion
Aufgabe
I
I
Regelmäßige Extraktion von Änderungsdaten aus Quellen
Datenversorgung des DWH
Unterscheidung
I
I
Zeitpunkt der Extraktion
Art der extrahierten Daten
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–6
Extraktion, Transformation, Laden
Extraktion von Daten aus Quellen
Zeitpunkt
Synchrone Benachrichtigung
I
Quelle propagiert jede Änderung
Asynchrone Benachrichtigung
I
Periodisch
F
F
I
Ereignisgesteuert
F
F
I
Quellen erzeugen regelmäßig Extrakte
DWH fragt regelmäßig Datenbestand ab
DWH erfragt Änderungen vor jedem Jahresabschluss
Quelle informiert alle X Änderungen
Anfragegesteuert
F
DWH erfragt Änderungen vor jedem tatsächlichen Zugriff
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–7
Extraktion, Transformation, Laden
Extraktion von Daten aus Quellen
Art der Daten
Flow: alle Änderungen im DWH integrieren
I
I
Verkaufspositionen, Lieferungen
Änderungen mit aufnehmen
Stock: Zeitpunkt ist essentiell muss festgelegt werden
I
I
Mitarbeiteranzahl zum Monatsende einer Filiale
Lagerbestand zum Jahresende
Value per Unit: Abhängig von Unit und anderen Dimensionen
I
I
Währungskurs zu einem Zeitpunkt
Goldpreis an einem Börsenplatz
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–8
Extraktion, Transformation, Laden
Extraktion von Daten aus Quellen
Art der Daten
Snapshots: Quelle liefert immer kompletten Datenbestand
I
I
I
Neuer Lieferantenkatalog, neue Preisliste, etc.
Änderungen erkennen
Historie korrekt abbilden
Logs: Quelle liefert jede Änderung
I
I
Transaktionslogs, Anwendungsgesteuertes Logging
Änderungen effizient einspielen
Netto-Logs: Quelle liefert Netto-Änderungen
I
I
I
Katalogupdates, Snapshot-Deltas
Keine vollständige Historie möglich
Änderungen effizient einspielbar
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–9
Extraktion, Transformation, Laden
Extraktion von Daten aus Quellen
Zeitpunkt der Datenversorgung
Quelle . . .
Technik
Aktualität
DWH
Belastung
DWH
Belastung
Quellen
erstellt periodisch FiBatchläufe,
Je
nach
Niedrig
Niedrig
Viele
Systeme (Mainframe)
nicht online zugreifbar
les
Snapshots
Frequenz
propagiert jede ÄnTrigger, RepliMaximal
Hoch
Sehr hoch
Widerspricht
DWH-Idee: Mehrbelastung der Quellen
derung
kation
erstellt Exvor BeSehr schwierig
Maximal
Medium
Medium
trakte auf
nutzung
Anfrage
bisher nicht
Anwen- Technisch
AnwendungsJeeffizient
nachdurchführbar
Je
nach
Je
nach
dungsgegesteuert
Frequenz
Frequenz
Frequenz
steuert
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–10
Extraktion, Transformation, Laden
Extraktion von Daten aus Quellen
Extraktion aus Legacy-Systemen
Sehr anwendungsabhängig
Zugriff auf Host-Systeme ohne Online-Zugriff
I
Zugriff über BATCH, Reportwriter, Scheduling
Daten in Non-Standard-Datenbanken ohne APIs
I
Programmierung in PL-1, COBOL, Natural, IMS, . . .
Unklare Semantik, Doppelbelegung von Feldern, sprechende
Schlüssel, fehlende Dokumentation, Herrschaftswissen bei
wenigen
Aber: Kommerzielle Tools vorhanden
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–11
Extraktion, Transformation, Laden
Extraktion von Daten aus Quellen
Differential Snapshot Problem
Viele Quellen liefern immer den vollen Datenbestand
I
I
I
Molekularbiologische Datenbanken
Kundenlisten, Angestelltenlisten
Produktkataloge
Problem
I
I
Ständiges Einspielen aller Daten ineffizient
Duplikate müssen erkannt werden
Algorithmen um Delta-Files zu berechnen
Schwierig bei sehr großen Files
[Labio Garcia-Molina 1996]
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–12
Extraktion, Transformation, Laden
Extraktion von Daten aus Quellen
Szenario
Quellen liefern Snapshots als File F
I
Ungeordnete Menge von Records (K, A1 , . . . , An )
Gegeben: F1 , F2 , mit f1 = |F1 |, f2 = |F2 |
Berechne kleinste Menge O = {INS, DEL, UPD}∗ mit O(F1 ) = F2
O nicht eindeutig!
O1 = {(INS(X)), ∅, (DEL(X))} ≡ O2 = {∅, ∅, ∅}
Differential Snapshot Problem
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–13
Extraktion, Transformation, Laden
Extraktion von Daten aus Quellen
Szenario
F1 K4, t, r, ...
K102, p, q, ...
K104, k, k, ...
K202, a, a, ...
F2 K3, t, r, ...
Differential
Snapshot
Algorithmus
INS K3
DEL K4
INS K103
UPD K202: ...
K102, p, q, ...
K103, t, h, ...
K104, k, k, ...
K202, b, b, ...
DWH
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–14
Extraktion, Transformation, Laden
Extraktion von Daten aus Quellen
Annahmen
Berechnung einer konsekutiven Folge von DS
I
Files am 1.1.2010, 1.2.2010, 1.3.2010, . . .
Kostenmodell
I
I
I
Alle Operationen im Hauptspeicher sind umsonst
IO zählt mit Anzahl Records: sequenzielles Lesen
Keine Beachtung von Blockgrößen
Hauptspeichergröße: M (Records)
Filegrößen |Fx | = fx (Records)
Files i.d.R. größer als Hauptspeicher
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–15
Extraktion, Transformation, Laden
Extraktion von Daten aus Quellen
DSnaive – Nested Loop
Berechnung von O
I
I
Record R aus F1 lesen
F2 sequenziell lesen und mit R vergleichen
F
F
R nicht in F2 → O := O ∪ (DEL(R))
R in F2 → O := O ∪ (UPD(R)) / ignorieren
Problem: INS wird nicht gefunden
I
I
I
Hilfsstruktur notwendig
Array mit IDs aus F2 (on-the-fly generieren)
R jeweils markieren, abschließender Lauf für INS
Anzahl IO: f1 · f2 + δ
Verbesserungen?
I
I
Suche in F2 abbrechen, wenn R gefunden
jeweils Partition mit Größe M von F1 laden:
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
f1
M
· f2
Letzte Änderung: 16.10.2016
4–16
Extraktion, Transformation, Laden
Extraktion von Daten aus Quellen
DSsmall – kleine Files
Annahme: Hauptspeicher M > f1 (oder f2 )
Berechnung von O
I
I
F1 komplett lesen
F2 sequenziell lesen (S)
F
F
F
I
S ∈ F1 : O := O ∪ (UPD(S)) / ignorieren
S 6∈ F1 : O := O ∪ (INS(S))
S in F1 markieren (Bitarray)
Abschließend: Records R ∈ F1 ohne Markierung: O := O ∪ (DEL(R))
Anzahl IO: f1 + f2 + δ
Verbesserungen
I
F1 im Hauptspeicher sortieren
c Sattler / Saake / Köppen
schnellerer Lookup
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–17
Extraktion, Transformation, Laden
Extraktion von Daten aus Quellen
DSsort – Sort-Merge
Allgemeiner Fall: M f1 und M f2
Annahme: F1 ist sortiert
Sortieren auf Sekundärspeicher von F2
I
I
I
I
F2 in Partitionen Pi mit |Pi | = M lesen
Pi im Hauptspeicher sortieren und schreiben in F i („Runs“)
Alle F i mischen p
Annahme: M > |F2 | → IO: 4 · f2
Sortiertes F2 aufheben für nächstes DS (wird dort F1 )
I
Pro DS muss nur F2 sortiert werden
Berechnung von O
I
I
Sortierte F1 und F2 öffnen
Mischen (paralleles Lesen mit Skipping)
Anzahl IO: f1 + 5 · f2 + δ
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–18
Extraktion, Transformation, Laden
Extraktion von Daten aus Quellen
DSsort2 – Verschränkung
Sortiertes F1 vorhanden
Berechnung von O
I
I
I
F2 in Partitionen Pi mit |Pi | = M lesen
Pi im Hauptspeicher sortieren und schreiben in F2i
Alle F2i mischen und gleichzeitig mit F1 vergleichen
Anzahl IO: f1 + 4 · f2 + δ
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–19
Extraktion, Transformation, Laden
Extraktion von Daten aus Quellen
DShash – Partitioned Hash
Berechnung von O
I
I
F2 in Partitionen Pi mit |Pi | = M/2 hashen
Hashfunktion muss garantieren:
Pi ∩ Pj = ∅, ∀i 6= j
I
I
I
I
Partitionen sind „Äquivalenzklassen“ bzgl. der Hashfunktion
F1 liegt noch partitioniert vor
F1 und F2 wurden mit derselben Hashfunktion partitioniert
Jeweils P1,i und P2,i parallel lesen und mischen
Anzahl IO: f1 + 3 · f2 + δ
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–20
Extraktion, Transformation, Laden
Extraktion von Daten aus Quellen
Warum nicht einfach . . .
UNIX diff?
I
I
diff erwartet / beachtet Umgebung der Records
Hier: Records sind völlig ungeordnet
in der Datenbank mit SQL?
I
Dreimaliges Lesen jeder Relation notwendig
INSERT INTO delta
SELECT ’UPD’, ...FROM F1, F2
WHERE F1.K = F2.K AND F1.W <> F2.W
UNION
SELECT ’INS’, ...FROM F2
WHERE NOT EXISTS (...)
UNION
SELECT ’DEL’, ...FROM F1
WHERE NOT EXISTS (...)
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–21
Extraktion, Transformation, Laden
Extraktion von Daten aus Quellen
Vergleich – Eigenschaften
DSnaiv
IO
f1 · f2
DSsmall
DSsort2
DShash
f1 + f2
f1 + 4 · f2
f1 + 3 · f2
Bemerkungen
außer Konkurrenz, extra Datenstruktur
notwendig
nur für kleine Dateien
überlappungsfreie Hashfunktion, Partitionsgröße schwierig zu schätzen, Verteilungsannahmen (Sampling)
Erweiterung von DShash für „schlechtere“ Hashfunktionen bekannt
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–22
Extraktion, Transformation, Laden
Extraktion von Daten aus Quellen
Weitere DS Verfahren
Anzahl Partitionen / Runs größer als File-Handles des OS
I
Hierarchische externe Sortierverfahren
Kompression: Files komprimieren
I
I
I
Größere Partitionen / Runs
Größere Chance, Vergleich im Hauptspeicher durchzuführen
In Realität schneller (Annahmen des Kostenmodells)
„Windows“ Algorithmus
I
I
I
I
Annahme: Files haben eine „unscharfe“ Ordnung
Mischen mit Sliding Window über beide Files
Liefert u.U. redundante INS-DEL Paare
Anzahl IO: f1 + f2
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–23
Extraktion, Transformation, Laden
Extraktion von Daten aus Quellen
DS mit Zeitstempel
Annahme: Records sind (K, A1 , . . . , An , T)
T: Zeitstempel der letzten Änderung
Erstellen von O
I
I
I
I
Festhalten von Talt : Letztes Update (max{T} von F1 )
F2 sequenziell lesen
Entries mit T > Talt interessant
Aber: INS oder UPD?
Weiteres Problem: DEL wird nicht gefunden
Zeitstempel erspart nur Attributvergleich
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–24
Extraktion, Transformation, Laden
Laden von Daten
Laden
Aufgabe
I
Effizientes Einbringen von externen Daten in DWH
Kritischer Punkt
I
Ladevorgänge blockieren unter Umständen das komplette DWH
(Schreibsperre auf Faktentabelle)
Aspekte
I
I
I
I
Trigger
Integritätsbedingungen
Indexaktualisierung
Update oder Insert?
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–25
Extraktion, Transformation, Laden
Laden von Daten
Satzbasiert
Benutzung von Standard-Schnittstellen:
PRO*SQL, JDBC, ODBC, . . .
Arbeitet im normalen Transaktionskontext
Trigger, Indexe und Constraints bleiben aktiv
I
Manuelle Deaktivierung möglich
Keine großräumigen Sperren
Sperren können durch COMMIT verringert werden
I
Nicht bei Oracle: Leseoperationen werden nie gesperrt (MVCC)
Benutzung von Prepared Statements
Teilweise proprietäre Erweiterungen (Arrays) verfügbar
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–26
Extraktion, Transformation, Laden
Laden von Daten
BULK Load
DB-spezifische Erweiterungen zum Laden großer Datenmengen
Läuft (meist) in speziellem Kontext
I
I
I
I
I
I
I
Oracle: DIRECTPATH option im Loader
Komplette Tabellensperre
Keine Beachtung von Triggern oder Constraints
Indexe werden erst nach Abschluss aktualisiert
Kein transaktionaler Kontext
Kein Logging
Checkpoints zum Wiederaufsetzen
Praxis: BULK Uploads
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–27
Extraktion, Transformation, Laden
Laden von Daten
Beispiel: ORACLE sqlldr
LoaderKontrollDatei
Input
InputDatafiles
Dateien
LogDatei
Input
Schlechte
Datafiles
Dateien
SQL*Loader
Input
Abgelehnte
Datafiles
Dateien
Datenbank
Indexe
Tabellen
[Oracle 11g Dokumentation]
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–28
Extraktion, Transformation, Laden
Laden von Daten
Beispiel: ORACLE sqlldr (2)
Control-File
LOAD DATA
INFILE ’bier.dat’
REPLACE INTO TABLE getraenke (
bier_name POSITION(1) CHAR(35),
bier_preis POSITION(37) ZONED(4,2),
bier_bestellgroesse POSITION(42) INTEGER,
getraenk_id "getraenke_seq.nextval"
)
Datenfile: bier.dat
Ilmenauer Pils
Erfurter Bock
Magdeburger Weisse
Anhaltinisch Flüssig
c Sattler / Saake / Köppen
4490
6400
1290
8800
Data-Warehouse-Technologien
100
80
20
200
Letzte Änderung: 16.10.2016
4–29
Extraktion, Transformation, Laden
Laden von Daten
BULK Load Beispiel
Vielfältige Optionen
I
I
I
I
I
I
I
I
I
Behandlung von Ausnahmen (Badfile)
Datentransformationen
Checkpoints
Optionale Felder
Konditionales Laden in mehrere Tabellen
Konditionales Laden von Records
REPLACE oder APPEND
Paralleles Laden
...
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–30
Extraktion, Transformation, Laden
Laden von Daten
Direct Path Load
SQL*Loader
SQL*Loader
Schreibe
Datenbank-Block
Generiere SQLKommandos
Direkter
Pfad
Benutzerprozesse
Generiere SQLGeneriere SQLGeneriere SQLKommandos
Kommandos
Kommandos
Konventioneller
Pfad
Oracle Server
SQL-Kommando Verarbeitung
Speichermanagement
Hole neue Ausmaße
Finde partielle Blöcke
Passe Füllstand an
Befülle partielle Blöcke
Puffer Cache Management
- Manage Queues
- Löse Konflikte auf
Datenbank-Blöcke
lesen
Puffer-Cache
Datenbank-Blöcke
schreiben
Datenbank
[Oracle 11g Dokumentation]
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–31
Extraktion, Transformation, Laden
Laden von Daten
Multi-Table-Insert in Oracle
Einfügen in mehrere Tabellen bzw. mehrfach (z.B. für Pivoting)
INSERT ALL
INTO Quartal_Verkauf
VALUES (Produkt_Nr,
INTO Quartal_Verkauf
VALUES (Produkt_Nr,
INTO Quartal_Verkauf
VALUES (Produkt_Nr,
INTO Quartal_Verkauf
VALUES (Produkt_Nr,
SELECT ... FROM ...
c Sattler / Saake / Köppen
Jahr || ’/Q1’, Umsatz_Q1)
Jahr || ’/Q2’, Umsatz_Q2)
Jahr || ’/Q3’, Umsatz_Q3)
Jahr || ’/Q4’, Umsatz_Q4)
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–32
Extraktion, Transformation, Laden
Laden von Daten
Multi-Table-Insert in Oracle (2)
Bedingtes Einfügen
INSERT ALL
WHEN ProdNr IN
(SELECT ProdNr FROM Werbe_Aktionen)
INTO Aktions_Verkauf
VALUES (ProdNr, Quartal, Umsatz)
WHEN Umsatz > 1000
INTO Top_Produkte VALUES (ProdNr)
SELECT ... FROM ...
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–33
Extraktion, Transformation, Laden
Laden von Daten
Merge in Oracle
Merge: Versuch eines Inserts, bei Fehler (durch Verletzung einer
Schlüsselbedingung) → Update
MERGE INTO Kunden K USING Neukunden N
ON (N.Name = K.Name AND N.GebDatum = K.GebDatum)
WHEN MATCHED THEN
UPDATE SET K.Name = N.Name, K.Vorname=N.Vorname,
K.GebDatum=N.GebDatum
WHEN NOT MATCHED THEN
INSERT VALUES (MySeq.NextVal, N.Name,
N.Vorname, N.GebDatum)
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–34
Extraktion, Transformation, Laden
Laden von Daten
Der ETL-Prozess: Transformationsaufgaben
Einsatz
-fähige
Quellen
DataWarehouse
Extraktion, Transformation, Laden
Extraktion
Integration
Aggregation
DataWarehouse
1
2
3
5
4
Zwischenspeicher
Instanzextraktion
und Transformation
Instanzabgleich
und Integration
Filterung,
Aggregation
Scheduling, Logging, Monitoring, Recovery, Backup
Legende:
1
3
Instanz-Charakteristika
(reale Meta-Daten)
4
Abbildungen von Quell- auf
Zielschemata
2
Translationsregeln
5
Filterungs- und Aggregationsregeln
Meta-Datenfluss
Datenfluss
[Rahm Do 2000]
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–35
Extraktion, Transformation, Laden
Laden von Daten
Technik: Quelle – Datenbereinigungsbereich –
BasisDB
Quelle 1:
RDBMS
Quelle 2:
IMS
Rel. Schema
Q1
Rel. Schema
Q2
Datenwürfel,
Integriertes
Schema
BULK Load meist nur für initiale Beladung
Folgende Beladungen
I
I
I
INSERT INTO ...SELECT ...
Logging ausschaltbar
Parallelisierbar
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–36
Extraktion, Transformation, Laden
Laden von Daten
Transformationsaufgaben
Bei der Extraktion
I
I
I
Einfache Konvertierungen (für LOAD - File)
Satzorientierung (Tupel)
Vorbereitung für BULK Loader –> meist Scripte oder 3GL
Im Datenbeschaffungsbereich
I
I
I
I
I
Mengenorientierte Berechnungen
Inter- und Intra-Relationenvergleich
Vergleich mit Basisdatenbank → Duplikate
Tagging der Datensätze
SQL
Laden in die BasisDB
I
I
Bulk-Load
satzorientierte Inserts mit ausgeschaltetem Logging
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–37
Extraktion, Transformation, Laden
Laden von Daten
Aufgabe: Quelle – Datenbereinigungsbereich –
BasisDB
Was macht man wo und wann?
I
Keine definierte Aufgabenteilung vorhanden
Art des Zugriffs
Verfügbare Datenbasen
Verfügbare Datensätze
Programmiersprache
c Sattler / Saake / Köppen
Extraktion
Laden
Quelle → Datenbereitstellungsbereich
Datenbereitstellungsbereich
→ Basis-DB
Satzorientiert
Eine Quelle (Updatefile)
Quellabhängig: Alle, alle Änderungen, Deltas
Skripte: Perl, AWK, . . . oder
3GL
Mengenorientiert
Viele Quellen
Zusätzlich Basis-DB verfügbar
Data-Warehouse-Technologien
SQL, PL/SQL
Letzte Änderung: 16.10.2016
4–38
Extraktion, Transformation, Laden
Transformationsaufgaben
Transformation
Problem
I
I
Daten im Datenbereinigungsbereich nicht im Format der
Basisdatenbank
Struktur der Daten unterschiedlich
F
F
F
Datenbereinigungsbereich: Quellnahes Schema
Basis-DB: Multidimensionales Schema
Strukturelle Heterogenität
Aspekte
I
I
Datentransformation
Schematransformation
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–39
Extraktion, Transformation, Laden
Transformationsaufgaben
Daten- und Schemaheterogenität
Hauptdatenquelle: OLTP-Systeme
Sekundärquellen:
I
I
Dokumente in firmeninternen Altarchiven
Dokumente im Internet via WWW, FTP
F
F
Unstrukturiert: Zugriff über Suchmaschinen, . . .
Semistrukturiert: Zugriff über Suchmaschinen, Mediatoren, Wrapper
als XML-Dokumente o.ä.
Grundproblem: Heterogenität der Quellen
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–40
Extraktion, Transformation, Laden
Transformationsaufgaben
Aspekte der Heterogenität
Verschiedene Datenmodelle
I
I
I
Bedingt durch autonome Entscheidung über Anschaffung von
Systemen in den Unternehmensbereichen
Verschiedene und verschieden mächtige Modellierungskonstrukte,
D.h. Anwendungssemantik in unterschiedlichem Ausmaß erfassbar
Abbildung zwischen Datenmodellen nicht eindeutig
Beispiel: Relationenmodell vs. objektorientierte Modellierung vs.
XML
Vorname
Name
PLZ
Kunde
c Sattler / Saake / Köppen
Kunde
Name
Vorname
PLZ
...
Data-Warehouse-Technologien
Kunde
Name
PLZ
Vorname
Letzte Änderung: 16.10.2016
4–41
Extraktion, Transformation, Laden
Transformationsaufgaben
Aspekte der Heterogenität (2)
Unterschiedliche Modellierungen für gleiche Sachverhalte der
Realwelt
I
I
Bedingt durch Entwurfautonomie
Selbst im gleichen Datenmodell verschiedene Modellierungen
möglich, z.B. durch unterschiedliche Modellierungsperspektiven der
DB-Designer
Kunde
Name
Vorname
...
Kunde
Name
Vorname
Geschlecht
...
Mann
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Frau
Letzte Änderung: 16.10.2016
4–42
Extraktion, Transformation, Laden
Transformationsaufgaben
Aspekte der Heterogenität (3)
Unterschiedliche Repräsentation der Daten
I
I
I
I
Unterschiedliche Datentypen möglich
Unterschiedliche Umfang der unterstützten Datentypen
Unterschiedliche interne Darstellung der Daten
Auch unterschiedliche „Werte“ eines Datentyps zur Repräsentation
derselben Information
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–43
Extraktion, Transformation, Laden
Transformationsaufgaben
Datenfehler-Klassifikation
Datenfehler
Einzelne Datenquellen
Integrierte Datenquellen
Schemaebene
Datenebene
Schemaebene
Datenebene
Fehlende
Integritätsbedingungen,
schlechtes Schema
Design
Fehler in
Datenträgern
Heterogene
Datenmodelle und
-schemata
Überlappende,
widersprüchliche und
inkonsistente Daten
- Unzulässiger Wert
- Attributabhängigkeit
verletzt
- Eindeutigkeit verletzt
- Referenzielle Integrität
verletzt
-
Fehlende Werte
Schreibfehler
Falsche Werte
Falsche Referenz
Kryptische Werte
Eingebettete Werte
Falsche Zuordnung
Widersprüchliche Werte
Transpositionen
Duplikate
Datenkonflikte
- Strukturelle
Heterogenität
- Semantische
Heterogenität
- Schematische
Heterogenität
- Widersprüchliche Werte
- Unterschiedliche
Repräsentationen
- Unterschiedliche
Genauigkeit
- Unterschiedliche
Aggregationsebenen
-Duplikate
[Rahm Do 2000, Leser Naumann 2007]
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–44
Extraktion, Transformation, Laden
Schematische Heterogenität
Schematische Heterogenität
Ursache: Entwurfsautonomie
I
I
I
I
I
unterschiedliche Modellierung
Unterschiedliche Normalisierung
Was ist Relation, was Attribut, was Wert?
Aufteilung von Daten in Tabellen
Redundanzen aus Quellsystemen
Schlüssel
In SQL nicht gut unterstützt
I
I
I
INSERT hat nur eine Zieltabelle
SQL greift auf Daten zu, nicht auf Schemaelemente
Erfordert meist Programmierung
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–45
Extraktion, Transformation, Laden
Schematische Heterogenität
Schema Mapping
Datentransformation zwischen heterogenen Schemata
I
I
I
Altes aber immer wiederkehrendes Problem
Üblicherweise schreiben Experten komplexe Anfragen oder
Programme
Zeitintensiv
F
F
Experte für die Domäne, für Schemata und für Anfrage
XML macht alles noch schwieriger: XML Schema, XQuery
Idee: Automatisierung
I
I
Gegeben: Zwei Schemata und ein high-level Mapping dazwischen
Gesucht: Anfrage zur Datentransformation
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–46
Extraktion, Transformation, Laden
Schematische Heterogenität
Warum ist Schema Mapping schwierig?
Generierung der „richtigen“ Anfrage unter Berücksichtigung
I
I
I
des Quell und Ziel-Schemas,
des Mappings
und der Nutzer-Intention: Semantik!
Garantie, dass die transformierten Daten dem Zielschema
entsprechen
I
I
Flach oder geschachtelt
Integritätsbedingungen
Effiziente Datentransformation
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–47
Extraktion, Transformation, Laden
Schematische Heterogenität
Schema Mapping: Normalisiert vs. Denormalisiert
1:1-Assoziationen werden unterschiedlich dargestellt
I
I
Durch Vorkommen im gleichen Tupel
Durch Fremdschlüsselbeziehung
Bier
bID
name
alkoholgehalt
Produkt
pID
name
hersteller
produktsorte
Produktsorte
pFK
bezeichnung
SELECT bID AS pID, name, NULL AS hersteller,
NULL AS produktsorte FROM Bier
UNION
SELECT NULL AS pID, NULL AS name, NULL AS hersteller,
bezeichnung AS produktsorte FROM Produktsorte
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–48
Extraktion, Transformation, Laden
Schematische Heterogenität
Schema Mapping: Normalisiert vs. Denormalisiert (2)
Bier
bID
name
alkoholgehalt
Produkt
pID
name
hersteller
produktsorte
Produktsorte
pFK
bezeichnung
SELECT bID AS pID, name, NULL AS hersteller,
bezeichnung AS produktsorte
FROM Bier, Produktsorte
WHERE bID = pFK
Nur eine von vier möglichen Interpretationen!
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–49
Extraktion, Transformation, Laden
Schematische Heterogenität
Schema Mapping: Normalisiert vs. Denormalisiert (3)
Produkt
name
hersteller
produktsorte
Bier
bID
name
alkoholgehalt
Produktsorte
pFK
bezeichnung
Erfordert Generierung von Schlüsseln: Skolemfunktion SK, die
einen bzgl. der Eingabe eindeutigen Wert liefert (z.B.
Konkatenation aller Werte)
Bier
:= SELECT SK(name) AS bID, name,
NULL AS alkoholgehalt FROM Produkt
Produktsorte := SELECT SK(name) AS pFK,
produktsorte AS bezeichnung FROM Produkt
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–50
Extraktion, Transformation, Laden
Schematische Heterogenität
Schema Mapping: Geschachtelt vs. Flach
1:1-Assoziationen werden unterschiedlich dargestellt
I
I
D.h. geschachtelte Elemente
Durch Fremdschlüsselbeziehung
Bier
bID
name
alkoholgehalt
Produkt
pID
name
produktsorte
Produkt
name
hersteller
produktsorte
Produktsorte
bezeichnung
c Sattler / Saake / Köppen
Bier
name
Produktsorte
bezeichnung
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–51
Extraktion, Transformation, Laden
Schematische Heterogenität
Schwierigkeiten
Beispiel: Quelle(ID, Name, Strasse, PLZ, Umsatz)
Zielschema #1
Kunde(ID, Name, Umsatz)
Adresse(ID, Strasse, PLZ)
Erfordert 2 Durchläufe der Quelltabelle
INSERT INTO Kunde ... SELECT ...
INSERT INTO Adresse ... SELECT ...
I
Zielschema #2
PremKunde(ID, Name, Umsatz)
NormKunde(ID, Name, Umsatz)
Erfordert 2 Durchläufe der Quelltabelle
INSERT INTO PremKunde ... SELECT ... WHERE Umsatz>=X
INSERT INTO NormKunde ... SELECT ... WHERE Umsatz<X
I
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–52
Extraktion, Transformation, Laden
Schematische Heterogenität
Schwierigkeiten (2)
Schema
P1(Id, Name, Geschlecht)
P2(Id, Name, M, W)
P31(Id, Name), P32(Id, Name)
P1 → P2
INSERT INTO P2 (id, name, ’T’, ’F’) ... SELECT ...
INSERT INTO P2 (id, name, ’F’, ’T’) ... SELECT ...
P3 → P1
INSERT INTO P1(id,
SELECT ... FROM
INSERT INTO P1(id,
SELECT ... FROM
name, ’weiblich’) ...
P31
name, ’männlich’) ...
P32
Anzahl Werte muss feststehen; Neues Geschlecht – Alle Anfragen
ändern
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–53
Extraktion, Transformation, Laden
Datenfehler
Datenfehler
Eindeutigkeit
verletzt
Person
Ort
Unterschiedliche
Repräsentation
KNr
34
34
35
Name
Meier, Tom
Tina Möller
Tom Meier
PLZ
39107
Widersprüchliche
Werte
Geb.datum
21.01.1980
18.04.78
32.05.1969
Alter
35
29
27
Geschl.
M
W
F
Ort
Magdeburg
36996
Spanien
95555
Illmenau
Referentielle
Integrität verletzt
Telefon
999-999
763-222
222-231
PLZ
39107
36999
39107
unvollständig
Email
null
null
[email protected]
Duplikate
Fehlende Werte
(z.B. Default-Werte)
Falsche oder
unzulässige Werte
Schreib- oder
Tippfehler
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–54
Extraktion, Transformation, Laden
Datenfehler
Vermeidung von Datenfehlern
Vermeidung von
falschen Datentypen
falschen Werte
fehlenden Werten
ungültigen Referenzen
Duplikaten
Inkonsistenzen
veralteten Daten
durch
Datentypdefinition,
domain-Constraints
check
not null
foreign key
unique, primary key
Transaktionen
Replikation, materialisierte Sichten
Dennoch in der Praxis:
I
I
I
I
Fehlen von Metadaten, Integritätsbedingungen, . . .
Eingabefehler, Unkenntnis, . . .
Heterogenität
...
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–55
Extraktion, Transformation, Laden
Datenfehler
Phasen der Datenaufbereitung
Dimensionsreduktion /
Sampling
Nutzung
Sammlung/
Auswahl
Aggregation /
FeatureExtraktion
Duplikaterkennung und
Merging
DQ-Probleme
identifizieren/
quantifizieren
Fehlerarten/
-ursachen
erkennen
Fehlerkorrektur
Data Profiling
Transformation
Diskretisierung
Standardisierung/
Normalisierung
Data Cleaning
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–56
Extraktion, Transformation, Laden
Datenfehler
Data Profiling
Analyse von Inhalt und Struktur einzelner Attribute
I
Datentyp, Wertebereich, Verteilung und Varianz, Vorkommen von
Nullwerten, Eindeutigkeit, Muster (z.B. dd/mm/yyyy)
Analyse von Abhängigkeiten zwischen Attributen einer Relation
I
I
I
„unscharfe“ Schlüssel
Funktionale Abhängigkeiten, potenzielle Primärschlüssel,
„unscharfe“ Abhängigkeiten
Notwendigkeit:
F
F
Keine expliziten Integritätsbedingungen spezifiziert
Jedoch in Daten in den meisten Fällen erfüllt
Analyse von Überlappungen zwischen Attributen verschiedener
Relationen
I
Redundanzen, Fremdschlüsselbeziehungen
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–57
Extraktion, Transformation, Laden
Datenfehler
Data Profiling (2)
Fehlende bzw. falsche Werte
I
I
Ermittelte vs. erwartete Kardinalität (z.B. Anzahl von Filialen,
Geschlecht von Kunden)
Anzahl der Nullwerte, Minimum / Maximum, Varianz
Daten- bzw. Eingabefehler
I
I
Sortierung und manuelle Prüfung
Ähnlichkeitstests
Duplikate
I
Tupelanzahl vs. Attributkardinalität
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–58
Extraktion, Transformation, Laden
Datenfehler
Data Profiling mit SQL
SQL-Anfragen für einfache Profiling-Aufgaben
Schema, Datentypen: Anfragen an Schemakatalog
Wertebereich
select min(A), max(A), count(distinct A)
from Tabelle
I
I
I
Datenfehler, Defaultwerte
select Ort, count(*) as Anz
from Kunden group by Ort order by Anz
F
F
Aufsteigend: Eingabefehler, z.B. Illmenau: 1, Ilmenau: 50
Absteigend: undokumentierte Default-Werte, z.B. AAA: 80
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–59
Extraktion, Transformation, Laden
Datenfehler
Data Cleaning
Erkennen & Beseitigen von Inkonsistenzen, Widersprüchen und
Fehlern in Daten mit dem Ziel der Qualitätsverbesserung
Auch Cleansing oder Scrubbing
Bis zu 80% des Aufwandes in DW-Projekten
Cleaning im DW: Teil des ETL-Prozesses
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–60
Extraktion, Transformation, Laden
Datenfehler
Re
ge
lba
sie
r
hu
ng
sa
na
l ys
e
zie
Be
sa
na
l ys
e
Konsistenz
Min, Max, Mittel,
Median, Standardabweichung, ...
Schlüsseleindeutigkeit
Redundanzfreiheit
Normalisierungsgrad
(1.,2. und 3. NF),
Duplikatprüfung
e in
Eindeutigkeit der
Primär- bzw.
Kandidatenschlüssel
it
ke
ltig
Gü
Datentyp-,
Feldlängen- und
Wertebereichskonsistenzen
te
Integritätsverletzungen,
Waisen (Orphans),
Kardinalitäten
Korrektheit
mittels statistischer Kontrolle
er
W
Referenzielle
Integrität
er
er
hr
Ab
hä
ng
igk
eit
Geschäfts- und
Datenregeln (Defekte)
me
ze
Einheitlichkeit
Formatanalyse (für
numerische Attribute,
Zeiteinheiten und
Zeichenketten)
Sp
alt
e
Vollständigkeit
Füllgradanalyse der
Entitäten und Attribute
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
te
Genauigkeit
Analyse der Stelligkeiten
(Gesamt- und Nachkommastellen für
numerische Attribute)
er
rW
Eindeutigkeit
Analyse der Metadaten
lne
na
na
l ys
e
Konsistenz
mittels regelbasierter Analyse
it
ke
ltig
Gü
te
An
al
ys
e
Datenqualität und Datenbereinigung
Letzte Änderung: 16.10.2016
4–61
Extraktion, Transformation, Laden
Datenfehler
Normalisierung und Standardisierung
Datentypkonvertierung: varchar → int
Kodierungen: 1: Adresse unbekannt, 2: alte Adresse, 3: gültige
Adresse, 4: Adresse bei Ehepartner, . . .
Normalisierung: Abbildung in einheitliches Format
I
I
I
Datum: 03/01/11 → 01. März 2011
Währung: $ → e
Zeichenketten in Großbuchstaben
Zerlegung in Token: “Saake, Gunter” → “Saake”, “Gunter”
Diskretisierung numerischer Werte
Domänenspezifische Transformationen
I
I
I
I
Codd, Edgar Frank → Edgar Frank Codd
Str. → Straße
Adressen über Adressdatenbanken
Branchenspezifische Produktbezeichnungen
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–62
Extraktion, Transformation, Laden
Datenfehler
Datentransformation
In SQL gut unterstützt
I
I
I
Vielfältige Funktionen im Sprachstandard
Stringfunktionen, Decodierung, Datumsumwandlung, Formeln,
Systemvariable, . . .
Funktionen in PL/SQL erstellen - in SQL verwenden
Daten
"Pause, Lilo"
"Prehn, Leo"
SQL
⇒
⇒
"Pause", "Lilo"
"Prehn", "Leo"
INSERT INTO kunden (nachname, vorname)
SELECT SubStr(name, 0, inStr(name,’,’)-1),
SubStr(name, inStr(name,’,’)+1)
FROM rawdata;
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–63
Extraktion, Transformation, Laden
Datenfehler
Duplikaterkennung
Identifikation von semantisch äquivalenten Datensätzen, d.h. die
das gleiche Realwelt-Objekt repräsentieren
Auch: Record Linkage, Object Identification, Duplicate Elimination,
Merge/Purge
I
I
Merge: Erkennen von Duplikaten
Purge: Auswahl /Berechnung des „besten“ Vertreters pro Klasse
KundenNr
3346
3346
5252
5268
⊥
⊥
c Sattler / Saake / Köppen
Name
Just Vorfan
Justin Forfun
Lilo Pause
Lisa Pause
Ann Joy
Anne Scheu
Adresse
Hafenstraße 12
Hafenstr. 12
Kuhweg 42
Kuhweg 42
Domplatz 2a
Domplatz 28
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–64
Extraktion, Transformation, Laden
Datenfehler
Duplikaterkennung: Vergleiche
Typische Vergleichsregeln
if ssn1 = ssn2 then match
else if name1=name2 then
if firstname1=firstname2 then
if adr1=adr2 then match
else unmatch
else if adr1=adr2 then match_household
else if adr1=adr2 then
...
Naiver Ansatz: „Jeder-gegen-jeden“
I
I
I
O(n2 ) Vergleiche
Maximale Genauigkeit (je nach Regeln)
Viel zu teuer
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–65
Extraktion, Transformation, Laden
Datenfehler
Duplikaterkennung: Prinzip
R
Matches (M)
Partitionierung
des
Suchraums
r1,s1
r2,s2
r1, r2, r3, ...
r3,s3
RxS
S
s , s , s , ...
1 2 3
...
Vergleichsfunktion
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Non Matches
(U)
Letzte Änderung: 16.10.2016
4–66
Extraktion, Transformation, Laden
Datenfehler
Partitionierung
Blocking
I
I
Aufteilung des Suchraums in disjunkte Blöcke
Duplikate nur innerhalb eines Blockes
Sortierte Nachbarschaft
I
I
[Hernandez Stolfo 1998]
Sortierung der Daten anhand eines gewählten Schlüssels
Vergleiche in einem gleitenden Fenster
Multi-Pass-Technik
I
Transitive Hülle über verschiedene Sortierungen
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–67
Extraktion, Transformation, Laden
Datenfehler
Sortierte Nachbarschaft
1
Berechne einen Schlüssel pro
Datensatz
I
I
Bsp: SSN + „ersten 3 Zeichen von
Name“ + ...
Beachtung typischer Fehler: 0-O,
Soundex, Nachbartasten, ...
2
Sortiere nach Schlüssel
3
Laufe Liste sequenziell ab
Vergleiche innerhalb eines Fensters W,
|W| = w
4
I
w
w
Mit welchen Tupeln muss wirklich
verglichen werden?
Komplexität
I
I
Schlüsselerzeugung: O(n), Sortieren: O(n · log(n)); Vergleichen:
O((n/w) · (w2 )) = O(n · w);
Gesamt: O(n · log(n)) oder O(n · w)
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–68
Extraktion, Transformation, Laden
Datenfehler
Sortierte Nachbarschaft: Probleme
Genauigkeit schlecht
I
I
I
Sortierkriterium bevorzugt immer Attribute
Sind erste Buchstaben wichtiger für Identität als letzte?
Ist Nachname wichtiger als Hausnummer ?
Window vergrößern?
I
I
Keine Hilfe
Dominanz eines Attributes bleibt gleich, aber Laufzeit
verschlechtert sich schnell
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–69
Extraktion, Transformation, Laden
Datenfehler
Multi-Pass-Technik
Sortieren nach mehreren Kriterien und Identifikation von
Duplikaten
Bildung der transitiven Hülle der Duplikate bis zu gegebener
Länge
B
A
C
1. Lauf: „A matches B“
2. Lauf: „B matches C“
B
A
Transitivität: „A matches
C“
C
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–70
Extraktion, Transformation, Laden
Datenfehler
Vergleichsfunktionen
Vergleichsfunktionen für Felder (String A und B), u.a.:
I
I
I
Editierdistanz: Anzahl der Editieroperationen (Einfügen, Löschen,
Ändern) für Änderung von A in B
q-Grams: Vergleich der Mengen aller Teilstrings von A und B der
Länge q
Jaro-Distanz und Jaro-Winkler-Distanz: Berücksichtigung von
gemeinsamen Zeichen (innerhalb der halben Stringlänge) und
transponierten Zeichen (an anderer Position)
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–71
Extraktion, Transformation, Laden
Datenfehler
Edit-Distanz
Levensthein-Distanz:
I
I
Anzahl der Editieroperationen (Einfügen, Löschen, Ändern) für
Änderung von A in B
Beispiel:
edit_distance(“Qualität”, “Quantität”) = 2
⇒ update(3,’n’)
⇒ insert(4,’t’)
I
Anwendung:
select P1.Name, P2.Name
from Produkt P1, Produkt P2
where edit_distance(P1.Name, P2.Name) <= 2
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–72
Extraktion, Transformation, Laden
Datenfehler
q-Gramme
Menge aller Substrings der Länge q
Qualität3 := { __Q, _Qu, Qua, ual, ali, lit, itä, tät, ät_, t__ }
Beobachtung: Strings mit kleiner Edit-Distanz haben viele
gemeinsame q-Gramme, d.h. für Edit-Distanz = k mind.
max(|A|, |B|) − 1 − (k − 1) · q
gemeinsame q-Gramme
Positionale q-Gramme: Ergänzung um Position im String
Qualität := { (-1, __Q), (0, _Qu), (1, Qua), ... }
I
Filterung für effizienten Vergleich:
F
F
F
COUNT: Anzahl der gemeinsamen q-Gramme
POSITION: Positionsunterschied zwischen korrespondierenden
q-Grammen ≤ k
LENGTH: Differenz der Stringlängen ≤ k
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–73
Extraktion, Transformation, Laden
Datenfehler
Datenkonflikte
Datenkonflikt: Zwei Duplikate haben unterschiedliche
Attributwerte für semantisch gleiches Attribut
I
Im Gegensatz zu Konflikten mit Integritätsbedingungen
Datenkonflikte entstehen
I
I
Innerhalb eines Informationssystems (intra-source) und
Bei der Integration mehrerer Informationssysteme (inter-source)
Voraussetzung: Duplikat, d.h. Identität schon festgestellt
Erfordert: Konfliktauflösung (Purging, Reconciliation)
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–74
Extraktion, Transformation, Laden
Datenfehler
Datenkonflikte: Entstehung
Mangels Integritätsbedingungen oder Konsistenz-Checks
Bei redundanten Schemata
Durch partielle Informationen
Bei Entstehung von Duplikaten
Nicht korrekte Einträge
I
I
Tippfehler, Übertragungsfehler
Falsche Rechenergebnisse
Obsolete Einträge
I
Unterschiedliche Aktualisierungszeitpunkte
F
F
I
Ausreichende Aktualität einer Quelle
Verzögerte Aktualisierung
Vergessene Aktualisierung
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–75
Extraktion, Transformation, Laden
Datenfehler
Datenkonflikte: Behebung
Referenztabellen für exakte Wertabbildung
I
Z.B. Städte, Länder, Produktnamen, Codes...
Ähnlichkeitsmaße
I
Bei Tippfehlern, Sprachvarianten (Meier, Mayer,...)
Standardisieren und Transformieren
Nutzung von Hintergrundwissen (Metadaten)
I
I
Z.B. Konventionen (landestypische Schreibweisen)
Ontologien, Thesauri, Wörterbücher zur Behandlung von
Homonymen, Synonymen, . . .
Bei der Integration
I
I
Präferenzordnung über Datenquellen nach Aktualität, Trust
(Vertrauen), Öffnungszeiten usw.
Konfliktlösungsfunktionen
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–76
Extraktion, Transformation, Laden
ELT
ETL vs. ELT
ELT = Extract-Load-Transform
I
I
I
Variante des ETL-Prozesses, bei dem die Daten erst nach dem
Laden transformiert werden
Ziel: Transformation mit SQL-Anweisungen in der Zieldatenbank
Verzicht auf spezielle ETL-Engines
E
LT
Quellen
Data Warehouse
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–77
Extraktion, Transformation, Laden
ELT
ELT
Extraktion
I
I
I
Für Quellsystteme optimierte Abfragen (z.B. SQL)
Extraktion ebenfalls mit Monitoren überwacht
Automatische Extraktion schwieriger (z.B. bei
Datenstrukturänderungen)
Laden
I
I
I
Parallele Verarbeitung der SQL-Statements
Bulk Load (Annahme: keine Schreibzugriffe im Zielsystem)
Keine satzbasierte Protokollierung
Transformation
I
I
I
Ausnutzung von Mengenoperationen der
DW-Transformationskomponente
Komplexe Transformationen mittels prozeduraler Sprachen (z.B.
PL/SQL)
Spezifische Statements (z.B. CTAS von Oracle)
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–78
Extraktion, Transformation, Laden
ELT
Zusammenfassung
ETL als Prozess der Überführung von Daten aus Quellsystemen
in das DWH
Themen von ETL und Datenqualität machen typischerweise 80%
des Aufwands von DWH-Projekten aus!
I
I
Langsame Anfragen sind ärgerlich
Falsche Ergebnisse machen das DWH nutzlos
Teil des Transformationsschrittes
I
I
Schemaebene: Schema Mapping bzw. Schematransformation
Instanzebene: Datenbereinigung
c Sattler / Saake / Köppen
Data-Warehouse-Technologien
Letzte Änderung: 16.10.2016
4–79
Herunterladen