Zusammenfassung In der vorliegenden Arbeit - diko

Werbung
Zusammenfassung
In der vorliegenden Arbeit: “Datenanalyse im Marketing“ wird in Anlehnung
an Fayyad auf die Wissensentdeckung in Datenbanken eingegangen, wobei es
um den Prozess der Identifikation von bisher nicht erkannten Mustern in großen
Datenbeständen geht. Dieser Prozess wird im alggemeinen unter dem Begriff
“Data Mining“ zusammengefasst, wobei über 80 Prozent der schon produktiven
Data Mining-Lösungen im Marketing eingesetzt werden. Es lassen sich dabei
4 Hauptaufgabenbereiche unterscheiden, auf die in dieser Arbeit näher eingegangen wird. Der erste Bereich der Klassifikation wird häufig im Bereich der
Kreditwürdigkeitsprüfung eingesetzt. Beim zweiten Anwendungsbereich handelt es sich um das so genannte Clustering, wobei die direkte Kundenansprache
als Hauptziel zu nennen ist. Als drittes Hauptaufgabengebiet ist die Assoziierung zu nennen, wobei das Hauptanwendungsfeld in der Sortimentsanalyse des
Einzelhandels zu sehen ist. Abschließend wird noch die Prognose angesprochen,
bei der es beispielsweise um die optimierte Werbeträgerplanung geht. Diese
Aufzählung macht dabei deutlich, wie vielfältig Data Mining heutzutage speziell im Marketing eingesetzt wird, weshalb diese Thematik im Mittelpunkt dieser
Arbeit steht.
Datenanalyse im Marketing
Tim Brüggemann
20.01.2003
Inhaltsverzeichnis
1 Einleitung
3
2 Anwendungsgebiete und angewendete Methoden
5
3 Klassifikation - Bereich der Bonitätsprüfung
3.1 Anwendungsgebiete, Motivation und Verfahren der Bonitätsprüfung . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Diskriminanzanalyse als Verfahren der Bonitätsprüfung in der
Bankenbranche . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3 Entscheidungsbäume als Verfahren zur Bonitätsprüfung in der
Bankenbranche . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4 Verfahrensvergleich der Methoden zur Bonitätsprüfung im Versandhandel . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5 Fuzzy Logik zur Bonitätsprüfung im Factoring . . . . . . . . .
3.6 Fazit bezüglich der vorgestellten Verfahren der Bonitätsprüfung
6
.
6
.
7
.
9
. 10
. 12
. 13
4 Clustering - Praxisbeispiele aus dem Bereich der Kundensegmentierung
4.1 Allgemeine Vorgehensweise des Clustering . . . . . . . . . . . . .
4.2 Kundensegmentierung in der Bankenbranche . . . . . . . . . . .
4.3 Käuferidentifikation im Automobilhandel . . . . . . . . . . . . .
4.4 Werbekampagnenentwurf der Lauda-Air . . . . . . . . . . . . . .
15
15
16
18
19
5 Klassifikation + Clustering am Beispiel einer Kündigerprävention auf dem Mobilfunktmarkt
21
6 Sortimentsanalyse im Einzelhandel
23
6.1 Assoziationsanalyse zur Bildung von Assoziationsregeln im Einzelhandel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
6.2 Clustering zur Aufdeckung der Verbundwirkungen innerhalb eines Warensortiments . . . . . . . . . . . . . . . . . . . . . . . . . 24
6.3 Anwendung einer modernen Neurocomputing-Methode zur
Quantisierung von Warenkorbdaten . . . . . . . . . . . . . . . . . 26
7 Prognose zur
sandhäusern
optimierten
Werbeträgerplanung
bei
Ver28
8 Schlussfogerungen und Bezug zur Projektgruppe
30
9 Glossar
32
2
Kapitel 1
Einleitung
In den letzten Jahren ist die Einsicht gewachsen, dass Informationen genauso den wirtschaftlichen Produktionsfaktoren zuzuordnen sind, wie Rohstoffe,
Arbeit und Kapital. Mit dieser Erkenntniss sind gleichzeitig die Bedürfnisse
gewachsen, große Datenbestände bezüglich wichtiger, bisher unbekannter Informationen hin zu analysieren. Zur Analyse werden dabei immer häufiger Verfahren des Data Mining eingesetzt, wobei unter diesem Begriff die Anwendung
spezifischer Algorithmen zur Extraktion von Mustern aus Daten verstanden
wird.(vgl. [FAY96]) Im Zentrum der vorliegenden Arbeit steht dabei die Frage, inwiefern Data Mining in der Praxis, insbesondere im Marketing eingesetzt
wird? Der Marketingsektor wird dabei angesichts der Anwendungshäufigkeit
als größtes Einsatzgebiet für Data Mining angesehen, wobei der Marketingbegriff, aufgrund verschiedener Definitionsebenen, häufig verschiedene Bereiche
umfasst.
Anhand der ausgewählten Praxisbeispiele wird dabei deutlich gemacht, wie
vielfältig sich der Einsatz von Data Mining in der Praxis darstellt.
Dementsprechend werden im ersten Teil der Arbeit einige Anwendungsbereiche
und die dort angewendeten Data Mining Verfahren angesprochen, um im folgenden auf die Praxisbeispiele genauer einzugehen, bei denen der Einsatz von
Data Mining zur Datenanalyse am häufigsten angewendet wird.
Der erste Bereich ist dabei die Bonitätsprüfung, bei der beispielsweise Kunden
der Bankenbranche oder des Versandhandels, mit Hilfe einer Klassifikation als
kreditwürdig oder als nicht kreditwürdig eingeschätzt werden.
Danach wird der Bereich der Kundensegmentierung behandelt, wobei Händler
verschiedener Branchen durch Anwendung von Clustering versuchen, ihre Kunden in Untergruppen (Cluster) zu unterteilen. Ziel dieser Unterteilung ist ein
anschließendes, gezieltes One-to-one Marketing, wobei das Marketingverhalten
auf spezielle Kunden oder Kundengruppen ausgerichtet ist.
Durch das folgende Beispiel aus der Mobilfunkbranche wird versucht, deutlich
zu machen, dass die beiden Verfahren Klassifikation und Clustering häufig auch
kombiniert zur Anwendung kommen.
Das nächste große Anwendungsgebiet von Data-Mining sind Sortimentsanalysen, aus denen Rückschlüsse auf die Kundenpräferenzen und deren Kaufverhalten gezogen werden.
Der folgende Abschnitt beschäftigt sich mit der Prognosewirkung des Data Mining, wobei es um eine zukünftige Planung von Werbeträgern eines Versandhauses geht.
Bei allen vorgestellten Beispielen wird der Prozess des Knowledge Discovery
in Databases (KDD) deutlich, wobei es um die Identifizierung valider, neuer,
potentiell nützlicher und schließlich verständlicher Muster in Daten geht.(vgl.
3
[FAY96])
4
Kapitel 2
Anwendungsgebiete und
angewendete Methoden
Die Einsatzmöglichkeiten von Data Mining sind als sehr vielfältig zu bezeichnen.
Dieses bezieht sich sowohl auf die Anwendungsgebiete, als auch auf die einzelnen
Data-Mining Verfahren, die sich in ihren Einsatzmöglichkeiten weitestgehend
nicht auf spezielle Problembereiche beschränken. Anwendungsbereiche lassen
sich beispielsweise wie folgt gliedern: (vgl. [SÄU 2001])
• die Astronomie (Satellitenmissionen)
• die Biologie (Umweltstudien, Klimaforschung)
• die Chemie (Ähnlichkeitsanalyse chemischer Verbindungen)
• das Ingenieurwesen (Werkstoffanalysen)
• der Finanzsektor (Bonitätsanalyse)
• der Medizinsektor (Entdeckung von neuen Medikamenten)
• die Textanalyse (Extrahieren von Informationen aus Texten)
• der Telekommunikationssektor (Kundenpflege)
Die speziellen Anwendungsgebiete im Marketing, welches im Mittelpunkt dieser Ausarbeitung steht, sind ebenso vielfältig. Data Mining Verfahren werden
in diesem Bereich zur Preisfindung, zur Marktsegmentierung, bei der individualisierten Kundenansprache, der Sortimentsanalyse, der Kundenbindung, zur
Bonitätsprüfung und zur Betrugsentdeckung eingesetzt.[vgl. MEY00] Als konkrete Data Mining Verfahren kommen dabei am häufigsten neuronale Netze,
Entscheidungsbäume, Clusteranalysen sowie Assoziationsanalysen zur Anwendung. Die einzelnen angesprochenen Verfahren lassen sich dabei jeweils noch in
weitere Unterverfahren unterteilen, welche bei den konkreten Praxisbeispielen
noch näher erläutert werden.
Die hohe Anzahl der Anwendungsgebiete und der angewendeten Verfahren
macht dabei klar deutlich, wie vielfältig der Einsatz des Data Mining in der
Praxis ist, was auch an den nun folgenden Praxisbeispielen gut zu erkennen ist.
5
Kapitel 3
Klassifikation - Bereich der
Bonitätsprüfung
Die klassischen Bonitätsprüfung, die häufig auch als Kreditwürdigkeitsprüfung
bezeichnet wird, soll bei der Entscheidung helfen, ob ein Kunde als kreditwürdig
(zahlungsfähig) oder als nicht-kreditwürdig (nicht zahlungsfähig) eingestuft
wird. Bei den folgenden Praxisbeispielen aus der Bankenbranche, dem Versandhandel und des Factorings spielt diese Einstufungsmöglichkeit eine entscheidende Rolle.
In der Bankenbranche wird anhand der Bonitätsprüfung entschieden, ob einem Kunden ein Kredit gewährt werden kann, oder nicht. Für Versandhäuser
geht es um die Verhinderung von Zahlungsausfällen durch nicht bezahlte Rechnungen. Beim Factorringgeschäft hilft die Bonitätsprüfung dem Factor bei der
Entscheidung, ob er Forderungen aus Warenlieferungen oder Dienstleistungen
von Factoringkunden ankaufen soll, oder nicht.(vgl. Abschnitt 3.5)
3.1
Anwendungsgebiete, Motivation und Verfahren
der Bonitätsprüfung
Die Bonitätsprüfung hat in allen behandelten Praxisbeispielen generell das Ziel,
Fehler 1. und 2. Art zu verhindern (vgl. Abb.3.1). Solche Fehler treten immer
Fehler 1. und 2. Art
Gute
prognostizierte
Bonität
Schlechte
prognostizierte
Bonität
gute tatsächliche Bonität
schlechte tatsächliche Bonität
OK
Fehler 1. Art
Fehler 2. Art
OK
Abbildung 3.1: Fehler 1. und 2. Art
dann auf, wenn es einen Unterschied zwischen der prognostizierten und der
tatsächlichen Bonität gibt. Ein Fehler 1. Art entsteht immer dann, wenn ein
Kunde als kreditwürdig oder zahlungsfähig eingeschätzt wird, dieses im Nachhinein jedoch nicht der Fall ist. Das Auftreten eines Fehlers 2. Art bedeutet,
dass ein Geschäft aufgrund fehlender Bonität abgelehnt wird, dieses sich jedoch
später als Fehleinschätzung erweist.
6
Unternehmen verfolgen im betriebswirtschaftlichen Sinn die Ziele der Gewinnmaximierung sowie der Minimierung des eigenen Risikos und müssen daher in
der Praxis beide Fehlerarten gegeneinander abwägen. Würde ein Unternehmen
beispielsweise versuchen, den Fehler 1. Art komplett zu verhindern, so würde
es gar keine Kredite mehr vergeben. Dieses entspricht zwar dem Ziel nach geringem Risiko, ist jedoch hinderlich bei der Gewinnmaximierung. Eine Verringerung des Fehlers 1. Art führt dabei also zwangsläufig zu einer Steigerung des
Fehlers 2. Art.(vgl. [Ung01]) Ziel einer Bonitätsprüfung ist daher nicht nur die
Verhinderung des Fehlers 1. Art, sondern ein ausgewogenes Verhältnis beider
Fehlerarten.
Bei der Bonitätsprüfung wird im Allgemeinen das Data Mining-Verfahren Klassifikation angewendet. In der Praxis werden häufig traditionelle Verfahren wie
die Prüfung durch Kreditsachbearbeiter oder Scoringsystemen angewendet. In
den letzten Jahrzehnten haben sich jedoch immer mehr formalisierte Klassifikationsverfahren wie Entscheidungsbäume, Diskriminanzanalysen, Neuronale
Netze, Regressionsanalysen und Fuzzy Logik durchgesetzt.(vgl. [MET94]) Der
Einsatz von Data Mining-Methoden ermöglicht dabei eine Optimierung beim
Kreditentscheid und damit eine Verringerung der Kreditrisiken sowie eine Ertragssteigerung.
3.2
Diskriminanzanalyse als Verfahren der Bonitätsprüfung in der Bankenbranche
Der Einsatz von Diskriminanzanalysen in der Bankenbranche dient dazu, mit
Hilfe von ausgewählten Variablen wie monatliches Einkommen, beantragte Kredithöhe, einbehaltene Gewinne, Umsatz usw. einen Kreditbewerber (Privatperson, Unternehmen) in kreditwürdig oder nicht kreditwürdig zu klassifizieren.(vgl. [MEY00])
Diskriminanzanalytische Verfahren lassen sich dabei in univariate und multivariate Verfahren unterscheiden. Auf univariate Verfahren wird in dieser Arbeit
jedoch nicht weiter eingegangen, da sie nur eine Variable zur Klassifikation der
Daten heranziehen. Bei multivariaten Verfahren wird hingegen aus mehreren
Variablen eine Kennzahl zur Klassifizierung gebildet, was die Performance, aufgrund der höheren Aussagekraft, gegenüber der univariaten Variante wesentlich
steigert. (Vgl.[UNG01])
Um die prinzipielle Vorgehensweise von Diskriminanzanalysen deutlicher zu machen, wird die lineare Diskriminanzanalyse sowohl an einem grafischen, als auch
an einem Zahlenbeispiel aus der Praxis dargestellt.
Bei der grafischen Darstellung handelt es sich um eine Risikoanalyse aus der
Bankenbranche, bei der es um die richtige Bonitätseinschätzung von Kreditkunden geht. Die Bank besitzt in ihrer Datenbank Informationen über die
Kredithöhe und das Einkommen aller Kunden, die in der Vergangenheit einen
Kredit bei der Bank aufgenommen haben. Diese Informationen werden nun in
ein zweidimensionales Achsensystem eingetragen, wobei den Kunden, die den
Kredit zurückgezahlt haben, die 1 zugeordnet wird, während Kunden, die den
Kredit nicht zurückgezahlt haben, mit einer 0 gekennzeichnet werden. (vgl.
Abb. 3.2) Dieses Regressionsverfahren hat dabei das Ziel, aus den gespeicherten Daten ein Vorhersagemodell zu erstellen, welches die neuen Kreditkunden
in vordefinierte Klassen zuordnet.(vgl. [MET94]) Gesucht wir dabei immer die
Diskriminanzfunktion, die die Kreditkunden aufgrund der gegebenen Variablen
(Einkommen und Gehalt) am eindeutigsten klassifiziert. In diesem Fall ent7
Kredithöhe
0
1
0
0
1
0
1
1
0
0
1
1
0
0
1
1
1
0
t
Einkommen
Abbildung 3.2: Diskriminanzanalyse
steht eine lineare Diskriminanzfunktion aus der die folgende Regel abgeleitet
werden kann: “Wenn das Einkommen eines Kunden kleiner als t ist, dann zahlt
der Kunde den Kredit nicht zurück, andernfalls ist eine Kreditvergabe relativ
risikolos“. [RIE99] Auf die Höhe des Einkommens, welches die Diskriminanzfunktion bestimmt, wird in der Quelle nicht genauer eingegangen.
Anhand der Grafik lässt sich zudem erkennen, dass zwei Kunden durch die
gebildete Diskriminanzfunktion falsch klassifiziert worden sind. Bei der 0 auf
der rechten Seite handelt es sich um einen Fehler 1. Art, da dem Kunden eine
gute Bonität prognostiziert wurde, er den Kredit aber nicht zurückgezahlt hat.
Die 1 auf der linken Seite stellt einen Fehler 2. Art dar, da der Kunde den Kredit
zurückgezahlt hat, obwohl die Bonität als schlecht prognostiziert worden ist. Ein
solcher Fehler kommt in der Praxis jedoch nicht vor, da bei schlechter Prognose
generell kein Kredit gewhrt wird.
Da eine 100-prozentige Klassifikation kaum realisierbar ist, muss der Anwender
daher von Fall zu Fall entscheiden, ob die vorliegende Fehlerrate für ihn noch
akzeptabel ist oder ob er eine erneute Klassifizierung, zum Beispiel auf der Basis
anderer Variablen, durchführen will.(vgl. [RIE99])
Ein Zahlenbeispiel zur linearen Diskriminanzanalyse stellt der so genannte ZWert von Altmann dar.(vgl. [UNG01]) Er wird dabei von Banken zur Klassifikation in solvente bzw. insolvente Klassen von öffentlich gehandelten Produktionsunternehmen in den USA verwendet.(Vgl. Abb.3.3) Die angegebenen VaZ = 1,2 * x1 + 1,4 * x2 + 3,3 * x3 + 0,6 * x4 + 1,0 * x5
x1= Umlaufvermögen x2= Einbehaltene Gewinne
x3= Gewinn vor Zinsen und Steuern
x4= Marktwert des EK / Buchwert des FK
x5= Umsatz
Z < 2,675 Einordnung in insolvente Gruppe
Z > 2,675 Einordnung in solvente Gruppe
Abbildung 3.3: Z-Wert von Altmann
riablen gehen dabei durch den jeweiligen Multiplikator verschieden stark in den
letztlich entstehenden Z-Wert ein, wobei der Gewinn vor Zinsen und Steuern
mit einem Wert von 3,3 hier mit Abstand die stärkste Bedeutung zugemessen
wird.(vgl. [UNG01]) Der hohe Wert von 3,3 kommt daher zustande, da der Gewinn vor Zinsen und Steuern in der Vergangenheit häufig ein eindeutiges Indiz
8
für die Einstufung der Unternehmen dargestellt hat und daher einen starken
Einfluß auf den entstehenden Z-Wert haben muß. Neben der in Abbildung 3.3
gezeigten Klassifikationsregel hat Altmann weiterhin herausgefunden, dass im
Bereich von 1, 81 < Z < 2, 9 die Gefahr einer Fehlklassifikation am höchsten ist,
weshalb er diesen Bereich als “zone of ignorance“ bezeichnet hat. [vgl. MET94]
Unternehmen mit einem zugeordneten Z-Wert ausserhalb der gerade beschriebenen “zone of ignorance“ können daher relativ eindeutig in die Gruppe solvent
bzw. insolvent klassifiziert werden, was den Banken wiederum hilft, eine verlustbringende Fehlklassifikation zu verhindern.
3.3
Entscheidungsbäume als Verfahren zur Bonitätsprüfung in der Bankenbranche
Das Bilden von Entscheidungsbäumen ist das am weitesten verbreitete Verfahren bei der Klassifizierung. Sie werden dabei mit Hilfe von verschiedenen Verfahren wie CART, CHAID und C4.5., automatisch aus gegebenen Datensätzen
extrahiert und dienen schließlich als Vorhersagemodell bezüglich neuer Daten.
Ein Entscheidungsbaum besteht aus Knoten, die durch gerichtete Kanten miteinander verbunden sind. Ein Knoten, der keinen Nachfolger besitzt, wird als
Endknoten oder Blatt bezeichnet.(vgl. [NIE00]) Ein Knoten ohne Vorgänger
dient als Ausgangspunkt oder auch Wurzel des Baumes. Jeder Knoten in einem Entscheidungsbaum kann mit einem Test bezüglich des Knotenmerkmals
beschrieben werden. In dem, in Abbildung 3 dargestellten Beispielbaum wird
im Wurzelknoten beispielsweise ein Test bezüglich des Merkmals “Berufsfähig“
durchgeführt. Für jedes Testergebnis (hier ja oder nein) gibt es dabei eine KanBerufsfähig ?
Ja
Nein
30 < Alter <35 ?
...
Jahresgehalt
< 200.000 DM
Schulden >
500.000 DM
Kein Kredit
Student ?
...
Bürgschaft der Eltern ?
...
Vermögen
Kredit
...
...
Kein Kredit
Abbildung 3.4: Entscheidungsbaum
te, die wiederum zum nächsten Knoten führt. Dieses Verfahren wird so lange
fortgeführt, bis ein Endknoten erreicht wird und dadurch ein Klassifikationsergebnis für die zu testenden Daten vorliegt.
Anhand des beschriebenen Beispielsbaumes lassen sich bestimmte Vorhersagen
bezüglich der Kreditwürdigkeit neuer Kunden treffen. So wird ein Neukunde der
berufstätig ist, zwischen 30 und 35 Jahre alt ist, ein Jahresgehalt unter 200.000
DM bezieht und Schulden über 500.000 DM angehäuft hat, beispielsweise als
nicht kreditwürdig eingestuft. Einem Studenten, der eine Bürgschaft der Eltern
vorlegen kann, wird anhand des Entscheidungsbaumes wiederum ein Kredit
gewährt.
9
Im Normalfall sind Entscheidungsbäume allerdings viel komplexer, da sie wesentlich mehr Knoten und Kanten besitzen. Generell sind aber einfache Baumstrukturen den komplexeren vorzuziehen, da der Gesamtüberblick bei der Betrachtung von komplexen Entscheidungsbäumen sehr schwer fällt. Aufgrund
dieser Problematik werden auf die komplexen Entscheidungsbäume häufig Beschneidungsverfahren, auch Pruning-Stragtegien genannt, angewendet, die Entscheidungsbäume auf die wesentliche Länge stutzen, indem sie beispielsweise
nur eine bestimmte maximale Tiefe zulassen, ab der keine weitere Vezweigung
mehr durchgeführt wird.(vgl. [KWZ98]) Ziel dieses Vorganges ist es, die mit
dem “Overfitting“ verbundene hohe Fehlerrate bei der Anwendung des impliziten Prognosemodells auf neue Daten wieder zu reduzieren. (vgl. [KÜS00])
3.4
Verfahrensvergleich der Methoden
nitätsprüfung im Versandhandel
zur
Bo-
Im Versandhandel ist es heutzutage aufgrund der zahlreichen Wettbewerber und
dem daraus resultierenden Konkurrenzdruck üblich geworden, auch Neukunden
bei ihren Bestellungen Kredite zu gewähren. Für Versandhändler stellt diese
Ausgangslage ein erhebliches Problem dar, da dieses häufig zu Zahlungsausfällen
führt.(vgl. [BA00])
Der Baur-Versand unternimmt daher große Anstrengungen im Bereich der Bonitätsprüfung, um künftige Zahlungsausfälle in der Häufigkeit des Auftretens
stark einzuschränken. Zu diesem Zweck sind verschiedene Verfahren zur Klassifizierung miteinander verglichen worden, um ein Verbesserungspotential des
vom Baur-Verlag benutzten Credit-Scorings aufzudecken.(vgl. [HR00]) Bei den
Verfahren handelt es sich um ausgewählte Verfahren der Diskriminanzanalyse,
um verschiedene Entscheidungsbaumverfahren, sowie um die in dieser Arbeit
bisher noch nicht dargestellten Verfahren der logistischen Regression und der
Neuronalen Netze.(vgl. [HR00])
Mit neuronalen Netzen versucht man dabei die Vorgänge im menschlichen Gehirn abzubilden. Neuronale Netze zeichnen sich durch eine hohe Adaptionsfähigkeit aus, durch die auch hochkomplexe nicht-lineare Zusammenhänge dargestellt werden können. Die angesprochene Adationsfähigkeit erreicht man durch
die Verwendung künstlicher Variablen, den Neuronen, die durch nicht-lineare
Funktionen der erklärenden oder klassifizierenden beobachteten Variablen gebildet werden.(Vgl.[BA00])
Bei der logistischen Regression geht es um den Einfluss erklärender Variablen
X1,.....,Xm auf eine Zielvariable Y. Handelt es sich bei Y beispielsweise um die
Zielvariable Krankheit, so zeigt die logistische Regression, welche erklärende
Variable zur Krankheit beitragen, und welche nicht.(vgl. [BZL02])
Das bisher benutzte Scoringmodell des Baur-Verlages basiert auf Datenstichproben vorhandener Kunden, von denen schon bekannt ist, ob sie als kreditwürdig
gelten oder nicht. Anhand der bekannten Kundendaten (Name, Adresse usw.)
wird nun ein Schwellenwert berechnet, der im vorliegenden Beispiel ein Zahlungsausfallrisiko von 25 Prozent gerade noch akzeptiert.
Für Neukunden wird nun auf Basis der gleichen Daten, die bei der Erstbestellung bekannt sind, ein Scoringwert berechnet, der anschließend mit dem
errechneten Schwellenwert verglichen wird. Liegt der Wert oberhalb des Schwellenwertes wird der Kunde als kreditwürdig eingeschätzt. Bei einem Scoringwert
unterhalb des Schwellenwertes wird er als nicht kreditwürdig eingestuft.(vgl.
[BA00])
10
Dieses Modell des Baur-Verlages hat sich in der Praxis bewährt, es wird jedoch trotzdem nach Verbesserungspotenzialen gesucht. Diese Suche hat sich
dabei auf die oben angesprochenen Verfahren bezogen, denen als Grundlage die
Kundendaten von ca. 160.000 Erstbestellern des Baur-Verlages zur Verfügung
stehen. Bei den 66 erklärenden Variablen für die Klassifikationen, die dem BaurVerlag aufgrund der Bestelldaten bekannt sind, hat es sich hier beispielsweise
um das Alter, den Wohnort des Kunden, die Preise der bestellten Artikel und
die gewünschte Zahlungsweise des Kunden gehandelt. Das primäre Ziel dieses
Projektes ist dabei nicht primär eine möglichst gute Klassifizierung der Neukunden gewesen, sondern eine Maximierung des wirtschaftlichen Nutzens der
Neukunden. (vgl. [HR00]) Die Berechnung dieses Wertes geschieht dabei durch
die Formel:
W irtschaf tlichkeit(N utzenzuwachsproKunde) = U msatz ∗ x − Abgabe ∗ y
Die Multiplikation des Umsatzes mit dem Faktor x entspricht dabei der Bildung
eines Deckungsbeitrages, während die Abgaben noch mit y gewichtet werden, da
ein Teil der noch ausstehenden Forderungen beispielsweise durch Inkassobüros
eingetrieben wird.(vgl. [HR00])
Ausgehend von dieser Formel ist dann die Wirtschaftlichkeit der Neukunden
ohne Bonitätsprüfung ermittelt worden. Auf Basis dieses Benchmark-Wertes
konnten dann schließlich die angewendeten Verfahren bezüglich des Zuwachses an Wirtschaftlichkeit (Nutzenzuwachs pro Kunde) gegenübergestellt werden
(Vgl. Abbildung 3.5), wobei die einzelnen Verfahren vorher bezüglich möglichst
geringer Fehler 1. und 2. Art optimiert worden sind. Grundsätzlich ist anhand
Verfahren
Nutzenzuwachs pro Kunde
Neuronale Netze
10,85 DM
Logistische Regression
10,52 DM
OC1
10,32 DM
(multivariates Entscheidungsbaumverfahren)
9,79 DM
Diskriminanzanalyse
CHAID
9,33 DM
(univariates Entscheidungsbaumverfahren)
9,09 DM
BAUR-Modell
CART
8,58 DM
(univariates Entscheidungsbaumverfahren)
0,00 DM
Keine Prüfung
Abbildung 3.5: angewendete Verfahren und Ergebnisse
der Abbildung zu erkennen, dass alle ausgewählten Verfahren eine wesentliche Steigerung der Wirtschaftlichkeit gegenüber dem Benchmarkwert erbracht
haben. Das bisher angewendete Modell des Baur-Verlages schneidet im Vergleich zu den anderen Verfahren eher schlecht ab. Der Unterschied der Wirtschaftlichkeitsunterschiede scheint dabei zwar relativ gering zu sein, was sich
allerdings relativiert, wenn man bedenkt, dass die Anzahl der Neukunden des
Baur-Versands sehr hoch ist.
Um das optimale Verfahren für den Baur-Verlag herauszufinden, muss man
zwischen der Klassifikationsleistung und der Interpretierbarkeit der einzelnen
Verfahren unterscheiden. Die beste Klassifikation hat dabei das ausgewählte
Verfahren aus dem Bereich der Neuronalen Netzte erbracht. Betrachtet man
11
allerdings auch noch die Interpretierbarkeit der Ergebnisse, so ist eher die logistische Regression vorzuziehen, die ähnlich gute Klassifizierungsergebnisse geliefert hat, dabei jedoch wesentlich leichter zu interpretieren ist.(vgl. [HR00])
Der Grund dafür wird in der Literatur häufig mit dem Begriff Black-Box umschrieben, was bedeutet, dass besonders im Fall neuronaler Netze, die maschinell getroffenen Entscheidungen schwer nachzuvollziehen sind und daher eine
Interpretation der Ergebnisse schwer durchzuführen ist.(vgl. [UNG01])
Die Aufgabe des Baur-Verlages hat nun schließlich darin bestanden, zwischen
den Variablen der Klassifikationsleistung und der Interpretierbarkeit der einzelnen Verfahren abzuwägen, und sich auf dieser Grundlage für eines der aufgelisteten Verfahren zu entscheiden, um die dargelegten Verbesserungspotentiale
zu realisieren. Im Vergleich zum angewendeten Scoring-Verfahren könnte der
Verlag so seine Fehlklassifikationen minimieren, was sich schließlich positiv auf
die Geschäftstätigkeit auswirken würde. Inwieweit der Baur-Verlag dieses umgesetzt hat geht aus den verwendeten Quellen leider nicht hervor.
3.5
Fuzzy Logik zur Bonitätsprüfung im Factoring
Data Mining Technologien wie Fuzzy Logik sind in Zeiten komplexer werdender
Aufgabenstellungen und knapper Ressourcen unverzichtbar geworden, um auf
Dauer wettbewerbsfähig zu bleiben. Bei Fuzzy Logik handelt es sich um eine
unscharfe Logik, mit der es gelingt, vage formulierte menschliche Erfahrungen
(beispielsweise die eines Kreditsachbearbeiters) mathematisch zu beschreiben
und zur Entscheidungsfindung einzusetzen.(vgl. [PN00]) Das Verfahren wird
dabei seit einiger Zeit zur Lösung komplexer Aufgabenstellungen eingesetzt.
Im Bereich der Bonitätsprüfung ist eine ähnliche Entwicklung zu erkennen. Traditionelle Verfahren, wie die Bonitätsbeurteilung durch einen Kreditsachbearbeiter, liefern in diesem Bereich zwar immer noch zufrieden stellende Ergebnisse,
geraten bei komplexeren Sachverhalten aufgrund großer Datenmengen jedoch
an ihre Grenzen. Daraus hat sich schließlich die Motivation des Einsatzes von
Fuzzy-Logik im Bereich der Wirtschaftlichkeitsprüfung ergeben.
Im konkreten Beispiel hat dieses Modell Anwendung bei der Kreditlimitvergabe
im Factoring gefunden. Factoring kann dabei als Finanzdienstleistung beschrieben werden, die sich in Branchen mit hohem Liquiditätsbedarf immer größerer Beliebtheit erfreut. Der so genannte Factor kauft dabei beispielsweise die
Geldforderungen eines Warenlieferanten gegenüber eines Kunden an. Der Factor übernimmt dabei innerhalb eines bestimmten Limits das volle Ausfallrisiko,
wobei die Höhe dieses Limits von der Finanzsituation des Kunden abhängt,
welche durch eine Bonitätsprüfung bestimmt wird. Um sicher zu gehen, dass
die angekauften Forderungen auch zurückgezahlt werden können, überprüft der
Factor dabei ständig die Bonität des Kunden.(vgl. [PN00])
Für den Warenlieferanten hat dieses System dabei den Vorteil, dass er das
Risiko eines Zahlungsausfalles nicht mehr trägt und sofort die Rechnung bezahlt
bekommt. Der Factor verlangt für die Risikoübernahme eine Factoringgebühr,
die bei der Zahlung an den Warenlieferanten einbehalten wird, indem er nicht
die volle Rechnung begleicht.
Verdeutlicht wird dieses Vorgehen noch einmal an Abbildung 3.6. Es ist dabei
offensichtlich, dass die Existenz des Factors von einer relativ exakten Bestimmung der Bonität des Kunden bzw. von der korrekten Bestimmung des Limits
abhängig ist. Die Bestimmung der Werte geschieht dabei, wie oben schon angedeutet, mit Hilfe eines wissensbasierten Fuzzy-Systems.
Ein Fuzzy-System besteht dabei aus drei Arbeitsschritten, der Fuzzyfizierung,
12
Factoring
Kunde
Lieferung der Ware
Verkauf der Forderung
„Factoring“
Zahlung des
Kaufpreises abzüglich
einer Factoringgebühr
Bezahlung der Forderung
Abnehmer
Factor
Bonitätsprüfung
Abbildung 3.6: Das Factoringgeschäft
der Inferenz und schließlich der Defuzzyfizierung.(vgl. [ZIM87]) Bei der Fuzzyfizierung wird das Wissen erfahrener Anwender, was häufig in Form von Regeln
ausgedrückt werden kann, auf Terme der Linguistischen Variablen abgebildet
und so dem Rechner zugänglich gemacht. Die Linguistische Variable beschreibt
dabei eine Variable, deren Ausprägung nicht numerische Ausdrücke sind. Die
linguistische Variable nimmt dabei keinen konkreten Wert an, sondern besitzt
mehrere mögliche Ausprägungen. Zusammen mit den Daten des Kunden werden daraus dann bei dem Schritt der Inferenz neue Schlußfolgerungen gezogen.
Es werden dabei neue Fakten hergeleitet, für die dann wieder entsprechende Regeln gesucht weden.(vgl. [PN00]) Bei dem Schritt der Defuzzyfizierung werden
diese gewonnenen Ergebnisse dann wieder in konkrete Handlungsempfehlungen
umgesetzt.
Im Beispiel des beschriebenen Factorringgeschäftes ist so ein Kriterienbaum
entstanden, dessen Regeln mit Hilfe von Fuzzy Logik aus der Wissensbasis (konkrete Kundendaten + vorhandenes Expertenwissen) generiert worden sind. Der
Factor kann schließlich anhand dieses Kriterienbaumes die Bonitätsentscheidung des Systems analysieren, wobei ihm eine komfortable grafische Benutzeroberfläche zur Verfügung steht.(vgl. [PN00]) Der Einsatz von wissensbasierten
Fuzzy-Systemen zur Entscheidungsunterstützung hat sich dabei in der Praxis
als sehr zuverlässig erwiesen und erlaubt so ein profitables Arbeiten des Factors
im Factoringgeschäft.
3.6
Fazit bezüglich der vorgestellten Verfahren der
Bonitätsprüfung
Der Wettbewerbsdruck in allen angesprochenen Branchen hat sich in den Zeiten einer schwachen Konjunktur erheblich erhöht. Es wird dabei immer wichtiger, bei Kreditwürdigkeitsprüfungen die angesprochenen Fehler 1. und 2.
Art zu minimieren, welches durch eine Steigerung der Vorhersagegenauigkeit
bezüglich der Bonität zu erreichen ist. Die auf subjektiven Entscheidungen beruhenden Beratungen eines Kreditsachbearbeiters oder traditionelle Scoringsy13
stem können dabei bezüglich der Genauigkeit einer Kreditwürdigkeitsvorhersage nicht mit den formalisierten Verfahren der Bonitätsprüfung mithalten. (vgl.
[GER01])
Diese Erkenntnis setzt sich in der Praxis erst langsam durch, wobei aber eine
Ablösung der traditionellen Verfahren immer weiter voranschreitet. Es muss
dabei jedoch auch bedacht werden, dass eine Anwendung der formalisierten
Verfahren nicht in allen Fällen als sinnvoll anzusehen ist. Vorteile gegenüber
den traditionellen Verfahren sind vor allem in der Möglichkeit der größeren
Datenverarbeitung zu sehen, weshalb nur Banken oder große Unternehmen mit
jeweils großen Datenmengen diese Verfahren sinnvoll einsetzen können.
Die optimale Wahl des anzuwendenden Verfahrens ist dabei immer von konkreten Anwendungsfall abhängig und stellt daher im Bezug auf die Ergebnisqualität den entscheidenden Schritt einer Bonitätsprüfung dar. Es ist dabei
nicht möglich, das “optimale Ergebnis“ zu erreichen, da die Bandbreite der
einsetzbaren Verfahren zu groß ist. Um dennoch ein möglichst gutes Ergebnis bezüglich der Vorhersagegenauigkeit zu erreichen, müssen daher mehrere
Verfahren bezüglich ihrer Leistung verglichen werden. Bei dieser Wahl spielen
neben der Vorhersagequalität außerdem noch Kostenaspekte eine entscheidende
Rolle, welches die Verfahrenswahl weiter erschwert.
14
Kapitel 4
Clustering - Praxisbeispiele
aus dem Bereich der
Kundensegmentierung
Unter dem Begriff Kundensegmentierung versteht man die Tätigkeit, homogene
Kundengruppen zu ermitteln und dieses ihren Bedürfnissen und Qualitäten entsprechend zu betreuen. Für Unternehmen spielt die Kundensegmentierung eine
immer grösere Rolle, da sie ermöglicht, vorhandene Erfolgspotentiale zu realisieren, indem Kunden durch Werbemaßnahmen direkt angesprochen werden
können. Dieses führt schließlich zu zu einer Stärkung der Kundenzufriedenheit
und deren Loyalität gegenüber den Unternehmen.
Zur Durchführung der Kundensegmentierung wird dabei das Verfahren des Clustering angewendet, wobei es um das Auffinden von Clustern anhand von Proximitätskriterien ohne vordefinierte Klassen geht.(vgl. [LP00])
Nach der genaueren Erklärung der Ideen des Clustering folgen in diesem Kapitel schließlich Praxisbeispiele einer Bank, eines Autohändlers und der Fluggesellschaft Lauda Air, wobei unterschiedliche Clusterverfahren und abweichende
Weiterverarbeitungsmöglichkeiten der Clusterergebnisse dargestellt werden.
4.1
Allgemeine Vorgehensweise des Clustering
Bei dem Verfahren des Clustering werden Objekte (hier Kunden) anhand verschiedener Merkmale in möglichst unterschiedliche, aber in sich weitestgehend
homogene Cluster unterteilt.(vgl. Abbildung 4.1) Der Unterschied zur Klassifikation besteht also darin, dass beim Clustering die Klassen zu denen die Objekte
zugeordnet werden, noch nicht bestehen, sondern durch das Clustering erst gebildet werden. Methodisch besteht eine Clusteranalyse dabei jeweils aus zwei
Schritten. Zunächst werden auf der Basis aller Variablen Abstände (Distanzen)
zwischen den Objekten der zu untersuchenden Menge berechnet, woran sich die
Zuteilung in die einzelnen Cluster anschließt.(vgl. [KWZ98])
Bei den folgenden Beispielen aus der Praxis werden den entdeckten Clustern
immer gewisse Kundengruppen zugeordnet, wobei das Ziel immer ein gezieltes One-to-One Marketing ist, welches die Marketinganstrengungen effektiver
machen und daher ein hohes Kosteneinsparungspotential mit sich bringen.
15
Merkmal 1
X
X
X
X
X
X
X
X
X
X
X
X
Merkmal 2
Abbildung 4.1: Clustering
4.2
Kundensegmentierung in der Bankenbranche
In der Bankenbranche findet man heute eine verschärfte Wettbewerbssituation vor, welche sich durch eine zunehmende Globalisierung der Märkte und
durch sinkende Eintrittsbarrieren begründen lässt. Bemerkbar macht sich dieses beispielsweise an der Fülle von Near- oder Nonbanks wie Versicherungen
und Automobilunternehmen.(vgl. [MOO99])
Es ist bei den Bankkunden zusätzlich der Trend einer abnehmenden Kundenloyalität und die hohe Bereitschaft zum Bankenwechsel zu erkennen. (vgl.
[SÜC98]) Banken sind daher gezwungen, die Kundenzufriedenheit durch ein gezieltes Beziehungsmanagement zu stärken und um so wieder eine erhöhte Kundenloyalität zu erreichen. Die Bedeutung der Kundenpflege wird dabei noch
einmal besonders deutlich, wenn man sich vor Augen hält, dass für die Pflege
schon bestehender Kunden nur 20 Prozent des Aufwandes einer Neukundengewinnung anfällt.(vgl. [HS00])
Der Ausgangspunkt des gezielten Beziehungsmanagement zur Stärkung der
Kundenloyalität ist dabei in einer Clusteranalyse zu sehen, durch die Kunden
in einzelne, möglichst homogene Kundengruppen aufgeteilt werden. Dieses erlaubt dabei schließlich ein gezieltes One-to-one Marketing und trägt wesentlich
zur Stärkung der Kundenloyalität bei.
Das hier vorgestellte Beispiel bezieht sich dabei auf eine Untersuchung einer
Bank, die besonders im Privatkundengeschäft große Verbesserungspotentiale
gesehen hat. Sie stellte als Grundlage der Clusteranalyse die Daten von ca.
66.000 Kunden zur Verfügung, die jeweils durch fast 700 Variablen beschrieben
worden sind. Ziel der Bank ist es gewesen die Kundensegmentierung anhand
des Produktnutzungsverhaltens und der soziodemographischen Merkmale der
Kunden durchzuführen, weshalb es ausgereicht hat, sich bei der Untersuchung
auf 66 Variablen zu beschränken, die für die beiden Untersuchungsschwerpunkte
relevant sind. (vgl. [HS00])
Durch die hohe Anzahl unterschiedlicher Verfahren der Clusteranalyse zur Kundensegmentierung, ist es nicht garantiert, im Voraus das optimale Verfahren
zu bestimmen. Im konkreten Fall sind daher ein partionierende (k-meansVerfahren) und zwei hierarchische Fusionsalgorithmen (Average Linkage und
Ward Verfahren) bezüglich ihrer Ergebnisse verglichen worden. (vgl. [HS00])
Das partionierende Verfahren K-means ist ein globales Verfahren mit exakter
Zuordnung, das Clusterzentren zur Clusterbildung verwendet.(vgl. [LP00])
Average Linkage bezeichnet die durchschnittliche Ähnlichkeit aller Paare von
16
Individuen x Element C und y Element D. (vgl. [GRA00])
Beim Ward Verfahren werden zuerst Mittelwerte für jede Variable innerhalb
der einzelnen Cluster berechnet. Anschließend wird für jeden Fall die Distanz
zu den Cluster-Mittelwerten berechnet und summiert. Bei jedem Schritt sind
die beiden zusammengeführten Cluster diejenigen, die die geringste Zunahme in
der Gesamtsumme der quadrierten Distanzen innerhalb der Gruppen ergeben.
Das Ward Verfahren wird dabei allgemein als das am häufigsten eingesetzte
und empirisch erfolgreichste Verfahren angesehen (vgl. [BLE89]).
Dieses hat sich auch in diesem konkreten Fall bestätigt, wobei aufgrund der
Vielzahl an möglichen Verfahren, keine Garantie besteht, die optimale Lösung
gefunden zu haben. Bei der konkreten Anwendung hat sich schließlich herausgestellt, dass die schon einmal eingeschränkte Datenmenge für den benutzten
Arbeitsspeicher weiterhin zu groß ist.
Aus diesem Grund hat man sich auf eine Zufallsstichprobe von 2000 Kundendaten beschränkt und zusätzlich noch eine Faktorenanalyse durchgeführt. Ziel
dabei ist es, redundante Informationen in den Variablen rauszufiltern, und so
die Vielzahl an Variablen auf die Wesentlichen zu reduzieren.
Im vorliegenden Fall hat sich dabei eine Reduktion auf 14 relevante Variablen
ergeben. Das Ward Verfahren liefert bei der Kundensegmentierung Cluster, die
etwa gleich viele Kunden aufweisen. Aufgabe des Anwenders ist es dabei aber
noch, festzulegen, wie viele Cluster die Lösung endgültig enthalten soll. Als Hilfe dient dabei die jeweilige Veränderung der Fehlerquadratsummen.(vgl. [HS00])
Es hat sich dabei als sinnvoll erwiesen, 13 Cluster zu erstellen, da eine weitere
Erhöhung der Clusteranzahl nur wenig Auswirkungen auf die Fehlerquadratsummenveränderung gehabt hätte.
Den einzelnen Clustern sind daraufhin Clusternamen zugeordnet worden, welche versuchen, die speziellen Charakteristika der einzelnen Cluster zu beschreiben. (Vgl. Abbildung 4.2) Zur anschaulichen Darstellung der Clusterergebnisse
Cluster
1
2
3
4
5
6
7
8
Cluster Name
Vermögende Privatkunden
Wirtschaftlich Selbständige (geringer Finanzierungsbedarf)
Kreditkunden
Gemeinschaftskunden
Wirtschaftlich Selbständige (hoher Finanzierungsbedarf)
Jugendmarkt
Kunden mit geringer Nutzung von Bankleistungen
Ausländische Bankkunden
9
Baufinanzierungskunden
10
Kunden in der Aufbauphase
11
Altkunden
12
Sparbuch-Kunden
13
Kunden mit hohem Gehalt
Abbildung 4.2: Clusterzuordnung
sind schließlich die soziodemographischen Merkmale und das Produktnutzungsverhalten der Kunden eines jeden Clusters mit den Werten der Grundgesamtheit
verglichen worden. Auf diese Weise kann einer Abweichung bezüglich der Kundeneigenschaften der einzelnen Cluster im Vergleich zum ’durchschnittlichen
Kunden’ dargestellt werden.(vgl. [HS00])
Für Cluster 10 hat sich dabei u.a. eine intensive Nutzung der Anlageleistungen
17
und des Zahlungsverkehrs, eine geringe Altersstruktur sowie ein mittleres Gehalt im Vergleich zum “durchschnittlichen Kunden“ herausgestellt. Aufgrund
dieser Fakten ist bei den Kunden dieses Clusters in naher Zukunft beispielsweise mit einem Immobilienkauf zu rechen, der durch eine Bank finanziert werden
muss. Es macht daher Sinn, gezielte Marketingaktionen speziell für Kunden dieses Clusters durchzuführen um ein Wechsel des Kreditinstitutes zu verhindern.
Auf diese Weise kann für jedes Cluster untersucht werden, welche speziellen
Eigenschaften die enthaltenen Kunden aufweisen um schließlich ein gezieltes
One-to-one Marketing (Individual Marketing) durchzuführen.
Während die vorgestellte Bank das Ziel gehabt hat, mit Hilfe vom Clustering
ihre Angebote auf die jeweiligen Kunden zuzuschneiden, sieht die Motivation
beim nun vorgestellten Autohändler etwas anders aus. Das Ziel ist hier nicht das
Angebot den Kunden anzupassen, sondern zu erfahren, welche Kundengruppen
sich für das schon bestehende Angebot interessieren.
4.3
Käuferidentifikation im Automobilhandel
Das Autohaus “Somi“ hat bei diesem Praxisbeispiel das Ziel anhand eines Clustering, potentielle Käufer der Marke ’Somi’ zu identifizieren. Man hat sich
dabei auf die Suche nach Kunden konzentriert, die der Marke positiv oder
zumindest offen gegenüberstehen, da in dieser Kundengruppe die meisten potentiellen Käufer vermutet worden sind.
Als Clusterkriterium ist dabei das Image der Marke “Somi“ herangezogen worden. Als Datengrundlage zur Bestimmung des Images ist eine Befragung durchgeführt worden, wobei die Befragten Antwortmöglichkeiten auf einer Skala von 1
(trifft zu) bis 7 (trifft berhaupt nicht zu) vorgegeben waren. Diese Daten haben
dabei als Grundlage für die folgende Clusteranalyse gedient, bei der Gruppen
gebildet worden sind, Unterschiede zwischen diesen Gruppen extrahiert wurden, sowie anhand von typischen Verhaltensweisen versucht worden ist, diese
Gruppen bezüglich ihrer Mitglieder zu interpretieren.
Ziel der Automobilherstellers “Somi“ ist es letztendlich gewesen innerhalb dieser Cluster potentielle Käufergruppen zu spezifizieren und daraufhin eine gezielte Kundenansprache bzw. Marketingaktion zu starten. Um Vergleichswerte
zu erhalten ist die Clusteranalyse dabei sowohl als K-Means (partionierendes
Verfahren) als auch als künstliches neuronales Netz (genau als Self Organizing
Map-SOM ) durchgeführt worden.
Das Ziel von SOM in der topologieerhaltenden Abbildung hochdimensionaler
Merkmalsräume in einen Outputraum niedriger Dimension. SOM sind dabei
in der Lage, unbekannte Strukturen in der zu analysierenden Datenbasis ohne
a priori Informationen selbstständig zu extrahieren und zu visualisieren.(vgl.
[PS00])
Die so entstandenen Clusterergebnisse beider Verfahren sind schließlich anhand
von zwei verschiedenen Gütemaßen (Homogenitäts-/Heterogenitätswert und FWert) verglichen worden. Bei der Untersuchung des Homogenitäts- bzw. Hetreogenitätswertes wird die Bewertung bezüglich der Güte der Cluster durchgeführt. Die Güte der Cluster steigt dabei, wenn die Cluster in sich geschlossen,
untereinander aber möglichst verschieden sind. .(vgl. [PET98])
Bei dem F-Wert werden zur Ergänzung schließlich noch mal signifikante Unterschiede zwischen den Clustern untersucht, wodurch die Güte der Clusterergebnisse weiter spezifiziert wird. Als Ergebnis hat sich schließlich bezüglich
der Gütequalität ein Clustering mittels SOM angeboten, wobei sich eine Clustermenge von 5, bezüglich der klaren Clustertrennung, als am sinnvollsten
18
herausgestellt hat. Die Clusteranalyse hat dabei ergeben, dass die Segmente
1 und 4 der Marke positiv gegenüberstehen, während die Personen der anderen Cluster eher nicht als potentielle Kunden angesehen werden können.(vgl.
Abb.4.3) Erkennen lässt sich dieses, wie oben schon angedeutet, anhand der
Item
n
Gutes Preis-/Leistungsverhältnis
Segment1
180
2,52
Segment2
367
3,81
Segment3
171
3,04
Segment4
151
2,04
Segment5
89
4,42
Hohe Sicherheit
Geringer Kraftstoffverbrauch
Hoher Austattungsgrad
Lange Wartungsintervalle
Geringe Reparaturkosten
Hohe Werkstattdichte
2,73
2,88
2,73
3,27
3,46
3,61
3,94
3,93
3,96
3,99
4,02
3,99
3,26
3,32
3,16
4,2
4,52
2,88
1,98
2,15
2
2,53
2,6
1,9
4,56
4,36
4,56
4,65
5,2
4,64
Fortschrittlich
Hohe Zuverlässigkeit
Hohe Servicequalität
Hoher Wiederverkaufswert
2,73
2,52
3,01
3,52
3,99
3,99
4,01
4,1
2,76
3,13
3,48
5,38
1,79
1,72
3,48
5,38
4,81
5,07
4,92
5,98
Abbildung 4.3: Fragebogenauswertung
vergleichsweise kleinen Werte bezüglich der einzelnen Bewertungskriterien, die
sich aus der Fragebogenaktion ergeben haben. Für die weitere Nutzung dieses
Analyseergebnisses es ist nun das Ziel des Automobilherstellers gewesen, herauszufinden, welche Kunden sich in den Segmenten 1 und 4 befinden, was die
Kunden der Cluster sich wünschen bzw. erwarten und wo sich diese Kunden
bezüglich eines neuen Automobils informieren.
Es hat sich dabei u.a. herausgestellt, dass sich viele Angestellte in den Clustern befinden, wobei ihnen ein niedriger Kaufpreis, eine hohe Werkstattdichte
und eine hohe Sicherheit sehr wichtig sind. Die Informationsquellen der einzelnen Segmente wurden wiederum aus einer daraufhin ausgerichteten Frage des
Ausgangsfragebogens herausgefiltert.
Auf Grundlage dieser Ergebnisse hat der Automobilhersteller ’Somi’ einer Werbekampagne erarbeitet, bei der nur die potentiellen Käufer angesprochen worden sind, in der zusätzlich auf deren Bedürfnisse eingegangen worden ist und die
nur in Informationsquellen publiziert wurde, die von den potentiellen Kunden
auch gelesen wird.
Das Beispiel zeigt dabei, wie die Ergebnisse einer Data Mining-Analyse als
Grundlage für eine gezielte Marktbearbeitungsstrategie genutzt werden können.
Die richtige Clusterbildung, die anschließende Kundenzuordnung und die daraus
abgeleitete Marketingstrategie ist dabei durch das besser laufende Tagesgeschäft
(höhere Verkaufszahlen) bestätigt worden.(vgl. [LP00])
4.4
Werbekampagnenentwurf der Lauda-Air
Ende März 1998 hat die Lauda Air die Werbekampagne ’Golden Standard’
gestartet, um bei den Kunden der Fluggesellschaft eine klare Trennung zwischen Charter- und Liniengeschäft zu erreichen. Das Ziel dabei ist es gewesen,
die Charterkunden bezüglich ihrer Serviceansprüche zu spezifizieren, um so ein
Einsparpotential an Serviceleistungen gegenüber den teureren Linienflügen zu
erreichen.
Zur Gestaltung der Werbekampagne ist die Untersuchung dabei in zwei Hauptschritte unterteilt, wobei zuerst die typischen Eigenschaften von Charterkunden herausgefiltert worden sind, welches letztendlich bei der Ausgestaltung der
Kampagne ’Golden Standard’ im Mittelpunkt steht. Im zweiten Schritt war
19
es dann das Ziel, durch eine Clusteranalyse mittels des Ward Verfahrens, weiterführende differenzierte Werbemaßnahmen zu entwickeln.(vgl. [WRR00])
Die Datengewinnung der Lauda-Air ist mit Hilfe einer Fragebogenaktion auf
einer Ferienmesse durchgeführt worden, wobei es sich bei den Besuchern weitestgehend um Charterkunden gehandelt hat. Die 3.000 zufällig ausgewählten
Kunden sind dabei hauptsächlich bezüglich ihrer Einschätzung der Wichtigkeit
von Serviceleistungen und bezüglich ihrer demographischen Daten befragt worden. Bei der letztlichen Charakterisierung der Charterkunden haben sich so geschlechtsspezifische, altersspezifische und Fluggewohnheiten betreffende Präferenzen, aber auch wesentliche Unterschiede zwischen den einzelnen Kundengruppen herausgestellt. Trotz der vorliegenden Unterschiede hat diese Charakterisierung aber weitestgehend für die Erstellung der Werbekampagne ’Golden
Standard’ gedient.(Vgl. Abbildung 4.4)
„Was verstehen wir unter dem Golden Standard ?
- Bordunterhaltung auf allen Flügen ( Audio und Video Vergnügen pur! )
- Catering von Wien’s Top Restaurant Do&Co
- Bier, Wein & Softdrinks kostenlos
- Nikis Kids Club für die jüngsten Passagiere
- Eine der jüngsten Flugzeugflotten der Welt
- Laufend neue Serviceideen
- Freundliche Flugbegleiter
- und das kleine bißchen ‚mehr’ an Herzlichkeit“
Abbildung 4.4: Werbekampagne ’Golden Standard’
Die erwähnten Unterschiede bezüglich des Alters, des Geschlechtes und der
Fluggewohnheiten der Charterkunden machen dabei aber deutlich, wie sinnvoll
in diesem Fall die anschließende Clusteranalyse für die Lauda Air sein kann.
Für das durchzuführende Clustering ist die Ausgangsmenge der Objekte mit
Hilfe des Proxitätsmaßes in eine Distanzmatrix umzuwandeln. Das Proxitätsmaß ist dabei eine, auf einem paarvergleich basierende Maßzahl, wobei für jedes
Paar die Ausprägung der Eigenschaften und der Grad an den Übereinstimmungen untersucht werden.(vgl. [MEW01]
Als Proxitätsmaß ist in diesem Fall die quadrierte euklidische Distanz gewählt
worden, wobei die Summe der quadrierten Differenzen zwischen den Werten der
Einträge herangezogen werden. (Vgl.[WRR00])
Man hat dabei die Bildung von 4 Clustern gewählt, da sich dieses bezüglich der
Homogenität innerhalb der Cluster und bezüglich der Unterschiede zwischen
den Clustern als am sinnvollsten herausgestellt hat. Den vier Clustern sind dann
anschließend entsprechende Beschreibungen zugeordnet worden, wobei den einzelnen Clustern die Kundengruppen gesicherte Erlebnisurlauber, junge, aktive
Freizeitkonsumenten, Familienurlauber und schwer zu Begeisternde zugeordnet
worden sind.
Anhand der Clusteranalyse konnten von der Lauda Air so Kundengruppen identifiziert werden, wobei sich noch speziellere Serviceanforderungen herauskristallisierten. Aufgrund der Data Mining-Methode des Clustering hat die Lauda-Air
daher die Möglichkeit gehabt, weitere Werbekampagnen zu entwerfen, welche
speziell auf die Kundengruppen zugeschnitten sind, und welche aufgrund des
stärkeren Individual Marketing Charakters bessere Ergebnisse der Werbekampagnen erwarten lassen.
20
Kapitel 5
Klassifikation + Clustering
am Beispiel einer
Kündigerprävention auf dem
Mobilfunktmarkt
Das folgende Beispiel soll deutlich machen, dass sich die beiden Verfahren der
Klassifikation und des Clustering in der Realität häufig nicht eindeutig trennen
lassen und kombiniert zur Anwendung kommen. Im konkreten Fall geht es um
das Auffinden von potentiellen Kündigern eines Mobilfunkanbieters. Anhand
dieses Beispiels lässt sich dabei gut zeigen, welchen Vorteil ein kombiniertes
Anwenden der beiden Verfahren gegenüber einer Einzelanwendung besitzt.
Die Kundenloyalität hat innerhalb vieler Branchen in den letzten Jahren stark
abgenommen. Dieser Trend macht sich dabei besonders stark auf HightechMärkten wie dem Telekommunikationsmarkt bemerkbar, weil die vielen Anbieter auf dem Markt mit allen Mittel versuchen, die Kunden für sich zu gewinnen.
Mobilfunkanbieter versuchen daher schon lange Zeit vor Auslaufen des Vertrages zu erfahren, ob die Kunden erneut einen Vertrag bei dem entsprechenden
Unternehmen abschließen werden, oder ob dafür eventuell das Anbieten spezieller Angebote nötig ist. Es macht jedoch aus wirtschaftlichen Gründen keinen
Sinn, den Kunden ein spezielles Angebot zu unterbreiten, die auch ohne dieses
Angebot automatisch verlängert hätten.
Ziel des Mobilfunkanbieters ist es daher die Kunden in die zwei Klassen Kündiger und Nichtkündiger aufzuteilen. Verbunden wird diese Klassifikation dabei
mit einem Clustering, welches die Kunden in 11 Cluster (Segmente) unterteilt
(vgl. Abbildung 5.1). Als Grundlage für diese Untersuchungen dienen dabei
die soziodemographischen Merkmale sowie Merkmale zum Mobilfunkvertrag
von alten Kunden, von denen schon bekannt ist, ob sie gekündigt haben, oder
nicht.(vgl. [PRU01])
Abbildung 5.1 zeigt dabei, wie die durch das Clustering entstandenen Segmente in der Reihenfolge der Anzahl der potentiellen Kündiger des Mobilfunkvertrages sortiert werden. Anhand der Tabelle oder mit Hilfe eines Gain-Charts,
der die Güte eines Klassifikators darstellt, kann man schließlich beurteilen, wie
das Ergebnis der Klassifikation zu beurteilen ist.(vgl. [PRU01]) In diesem Fall
beinhalten die ersten 5 Cluster der Tabelle ca. 93 Prozent aller potentiellen
Kündiger. Der Mobilfunkanbieter kann sich, aufgrund dieser hohen Erreichbarkeitsquote, bei der Kündigerpräventation nun ausschließlich auf Kunden dieser
Cluster beschränken. Er läuft dabei nicht Gefahr, eine hohe Anzahl an poten21
Segment Nr.
Gesamt
3
Kundenanzahl
50.000
3.803
Kündiger
20.000
3.537
Nichtkündiger
30.000
266
Anteil
40,0 %
93,0 %
6
10
4
9
7
11
2.482
5.185
9.561
2.509
5.891
4.720
2.023
4.469
7.247
1.262
1.034
234
459
716
2.314
1.247
4.857
4.486
81,5 %
86,2 %
75,8 %
50,3 %
17,6 %
5,6 %
2
5
1
8
7.148
1.568
6.048
1.067
150
13
29
2
6.998
1.573
6.019
1.065
2,1 %
0,8 %
0,5 %
0,2 %
Abbildung 5.1: Kundeneinteilung
tiellen Kündigern kein Angebot zu machen.
Die ersten fünf berechneten Segmente liefern dabei eine Beschreibung der potentiellen Kündiger, was für Segment 3 bedeutet: “Kunden im Privat-Tarif, die
unter 30 Jahre sind und eine Handy über 300 Euro besitzen, kündigen mit einer Wahrscheinlichkeit von 93 Prozent“ (vgl. [PRU01]) Fällt ein Kunde, dessen
Vertrag bald auslaufen wird, also aufgrund seiner Daten in eines der ersten
fünf Segmente, wird er als potentieller Kündiger behandelt und erhält vom
Mobilfunkprovider ein spezielles Angebot. Andernfalls vertraut man auf die
Analyseergebnisse und geht davon aus, dass der Kunde von alleine den Vertrag
verlängert.
Die Kombination von Clustering und Klassifikation ermöglicht es in diesem
Fall die beim Clustering erhaltenen Segmente zusätzlich noch in die Klassen
Kündiger und Nicht-Kündiger einzuteilen, was die Identifikation der gesuchten
potentiellen Kündiger erheblich erleichtert. Anhand dieser Kombination kann
daher recht genau bestimmt werden, welchen Kunden ein spezielles, neues Angebot unterbreitet werden muss, wobei verhindert werden soll, dass potentielle
Kündiger übersehen werden und dass Nichtkündigern trotzdem ein Angebot
unterbreitet wird (Fehler 1. und 2. Art). Der Mobilfunkanbieter kann auf diese
Weise aufgrund einer minimierten Angebotsbreite Einsparpotentiale realisieren,
die sich wiederum positiv auf das Geschäftsergebnis auswirken.
22
Kapitel 6
Sortimentsanalyse im
Einzelhandel
Als Datengrundlage zur Sortimentsanalyse steht dem Einzelhandel eine sehr
große Menge an Daten zur Verfügung, die anhand der schon länger eingeführten
Scannerkassen gewonnen wird. Dadurch ist es den Einzelhändlern ermöglicht
worden, anhand der Bondaten täglich alle anfallenden Einkaufsvorgänge artikelgenau festzuhalten. Mittels der Datenanalyse können dabei Rückschlüsse
auf die Kundenpräferenzen und deren Kaufverhalten geschlossen werden. (vgl.
[NIE01]) Daraus lassen sich schließlich Schlußfolgerungen bezüglich des Sortimentsverbundes, der Warenplatzierung und der einzusetzenden Werbung ziehen.
6.1
Assoziationsanalyse zur Bildung von Assoziationsregeln im Einzelhandel
Im ersten Anwendungsfall ist hier eine Assoziationsanalyse eingesetzt worden,
um Beziehungen (Regeln) in den Abverkaufsdaten aufzuspüren. Die aus der
Assoziationsanalyse abgeleiteten Assoziationsregeln werden dabei mittels Werten für die Relevanz, die Konfidenz und der Abweichung genauer spezifiziert.
Bei der Relevanz geht es dabei um den Anteil einzelner Artikel oder Artikelkombinationen an der Gesamtzahl der analysierten Bons. Die Konfidenz sucht
dann Abverkaufsverknüpfungen von Artikelkombinationen. Dabei geht es um
den verkauften Anteil von Artikel A, wenn ein anderer Artikel B ebenfalls verkauft wird. Die relative Abweichung stellt schließlich einen Vergleich zwischen
Relevanz und Konfidenz dar.(vgl. [MIC01])
Vergleicht man zum Beispiel einen beliebigen Artikel B (Relevanz 0,5 Prozent)
mit dem Anteil der Käufer eines Artikels A, die ebenfalls Artikel B kaufen
(Konfidenzwert 30 Prozent), so lässt sich daraus die Schlußfolgerung ziehen,
dass Käufer des Artikels A 60 mal (Konfidenzwert/Relevanz) häufiger Artikel
B kaufen, als alle anderen Kunden. (vgl. [MIC01]) Bei der Analyse sind letztlich
Assoziationsregeln entstanden, die sich zunächst aber nur auf eine Warengruppenebene bezogen haben. In Abbildung 6.1 ist jedoch auch eine von mehreren
Regeln dargestellt, die Beziehungen zwischen unterschiedlichen Artikelebenen
darstellen. Die Relevanz beträgt dabei 0,051, was bedeutet, dass die Kombination aus Fleischkauf + Maggi Würze Nr.1 in 0,5 Prozent aller Bons auftaucht.
Die Konfidenz von 5,4 bedeutet dann, dass Kunden die Fleisch kaufen, in 5,4
Prozent aller Fälle auch Maggi Würze Nr.1 kaufen. Die relative Abweichung
von 12,1 bedeutet schließlich, dass Kunden die Fleisch kaufen, 12,1 mal häufi23
[Fleischabteilung]
[Maggi Wuerze Nr.1]
Relevanz : 0,051 Konfidenz : 5,4 rel. Abweichung : 12,1
Abbildung 6.1: Assoziationsregel
ger Maggi Würze Nr.1 kaufen, als alle anderen Kunden.
Neben diesen artikelbezogenen Analysen können aber genauso Zusammenhänge
von Preisen, Mengen, Größen und Farben abgeleitet werden. In der Praxis entstehen so häufig sehr große Mengen an Assoziationsregeln, weshalb es wichtig
ist, diese zu filtern und zu sortieren. So ist zum Beispiel das Herausfinden von
unbekannten, aber wichtigen Beziehungen für die Einzelhändler von größerer
Bedeutung, als schon bekannte oder triviale Beziehungen. Eine Sortierung kann
beispielsweise ab- oder aufsteigend nach den Werten der Relevanz, Konfidenz
und relevanten Abweichung durchgeführt werden.
Die so erhaltenen Regelmengen können von den Einzelhändlern nun bezüglich
verschiedener Entscheidungsfindungen benutzt werden. Beim Sortimentsverbund geht es für die Einzelhändler beispielsweise darum, diese zu erkennen
und die jeweiligen Waren dieses Verbundes zur Verfügung zu stellen, um die
Verbundwirkung nicht eizuschränken. Aus den Regeln ergeben sich weiterhin
wichtige Hinweise, wie die einzelnen Waren zueinander platziert werden können,
um das Potential von Sortimentsverbünden optimal zu nutzen. Es gibt dabei
sowohl die Strategie, die Verbundwaren nebeneinander zu platzieren um einen
gemeinsamen Verkauf zu sichern, oder diese an verschiedenen Punkten des Einkaufsmarktes zu platzieren, um auch auf andere Produkte aufmerksam zu machen. Für die Werbungsaktivitäten bieten Assoziationsanalysen schließlich die
Möglichkeit nicht nur ein Produkt zu bewerben, sondern auch die entdeckten
Sortimentsverbünde mit in die Marketingstrategie einzubeziehen.
Für einen erfolgsanstrebenden Händler gilt deshalb letztendlich die Regel: Nicht
der einzelne Artikel bringt den Erfolg, sondern das durch eine Assoziationsanalyse aufgedeckte Zusammenspiel aller Artikel bezüglich der Platzierung, Werbung, Listung usw.(vgl. [MIC01])
Während in diesem Beispiel die Aufsttellung von Assoziationsregeln zur Untersuchung der Verbundwirkung einzelner Produkte im Vordergrund gestanden
hat, sieht es im nun folgenden Fall etwas anders aus. Untersuchungsziel ist es
dort, den Einflußs von Werbemanahmen auf die Verbundwirkung innerhalb von
Warenkörben zu untersuchen.
6.2
Clustering zur Aufdeckung der Verbundwirkungen innerhalb eines Warensortiments
In diesem Beispiel geht es um eine konventionelle Verbundanalyse eines Filialunternehmens der Lebensmittelbranche. Ziel dieser Filiale ist es zunächst
gewesen, anhand eines Clustering existierende Verbundbeziehungen innerhalb
des Nahrungs- und Genussmittelbereichs aufzudecken. Des Weiteren ist es dann
um die Auswirkung absatzpolitischer Maßnahmen auf die entdeckten Verbund24
beziehungen untersucht worden.
Als Datengrundlage haben 15.000 verschiedene Warenkörbe und 26 Warengruppen gedient. Die Clusteranalyse typologisiert dabei diese 26 Warengruppen nach
ihrer Ähnlichkeit im Verbundprofil.(Vgl. [SRJ01]) Die Euklidische Distanz hier
wiederum als Proximitätsmaß und als Fusionierungsalgorithmus wird das WardVerfahren herangezogen. Unter Berücksichtigung der Fehlerquadratsumme und
der Anwendung des Elbow-Kriteriums erwies sich hier eine Segmentierung in
4 Cluster als am sinnvollsten. Bei Anwendung des Elbow-Kriteriums werden
dabei in einem x-y-Diagramm die Fehlerquadratsumme und die entsprechende Clusterzahl dargestellt. An der Stelle innerhalb dieses Diagramms, an dem
sich der stärkste Heterogenitätszuwachs herausbildet, entsteht im Idealfall ein
Knick in der Funktion in Form eines Ellbogens.(vgl. Abb. 6.1) An dieser Stelle
Fehlerquadratsumme
ElbowKriterium
0,5
3
Anzahl der
Cluster
Abbildung 6.2: Elbow-Kriterium
lässt sich schließlich die optimale Clusterzahl im Bezug auf die Heterogenität
zwischen den Clustern ablesen.(vgl. [EGF00])
Die einzelnen Cluster weisen dabei sehr unterschiedliche Verbundintensitäten
aus, wobei die Verbundwirkung der Frischwaren, wie es auch zu erwarten gewesen ist, am höchsten ausgefallen ist. (vgl. Abb. 6.2) Der nächste Schritt bei der
Cluster 1 - Fleisch/Wurst ( Bedienung), Käse ( SB ),
Tiefkühlkost, Nährmittel, Gewürze/Feinkost,
Obst-/Gemüsekonserven
Cluster 2 - Obst/Gemüse, Milch/Molkereiprodukte
Cluster 3 - Fleisch/Wurst, Käse ( Bedienung ), Butter,
Öle/Fette, Fleisch-/Fischkonserven,
Schokolade, Süßwaren, Gebäck
Cluster 4 - Frischgeflügel, Suppen/Fertiggerichte,
Fisch/Feinkost, Weine, Sekt, Spirituosen,
Bier, Tabakwaren, Kaffee
Abbildung 6.3: Verbundwirkung
vorliegenden Untersuchung von Kaufverbundeffekten hat schließlich die Werbeaktivitäten mit in die Untersuchung eingeschlossen. Es sollte dabei beantwortet
werden, wie sich die Verbundintensität einer Warengruppe verändert, wenn sie
25
beworben wird, und bei welcher Warengruppe sich die Werbeaktivitäten am
stärksten auf die Verbundwirkung auswirkt. Als Untersuchungsgrundlage hat
dabei die Warengruppe “alkoholfreie Getränke“ gedient, die sich aufgrund relativ starker Ausstrahlungseffekte nicht speziell einem der 4 Cluster in Abbildung
6.2 zuordnen lässt.
Die “alkoholfreien Getränke“ sind dabei über eine Woche in vier vergleichbaren
Filialen des Lebensmittelunternehmens mit unterschiedlichen Methoden beworben worden. Es hat sich dabei beispielsweise gezeigt, dass eine Preisreduzierung
um 20 Prozent die Verbundwirkung ebenfalls mit 20 Prozent verstärkt, während
eine Preisreduzierung in Verbindung mit In- und Out of Store Werbung, die
Verbundwirkung sogar um 170 Prozent erhöht.
Diese Untersuchung kann nun vergleichsweise mit anderen Warengruppen
durchgeführt werden, wodurch schließlich herausgefunden werden kann, bei welcher Warengruppe Werbemaßnahmen die größten Auswirkungen haben.
6.3
Anwendung einer modernen NeurocomputingMethode zur Quantisierung von Warenkorbdaten
Die im Handel anfallende Datenmenge ist aufgrund der Einführung von Scannerkassen so groß geworden, dass die in Abschnitt 6.2 vorgestellte konventionelle
Verbundanalyse an ihre Grenzen stößt. Aus diesem Grund hat man sich deshalb letztendlich auch nur auf verschiedene Warengruppen aus dem Bereich der
Nahrungsmittel beschränkt. Um allerdings Verbundeffekte in ganzen Handelssortimenten aufzudecken werden in der heutigen Zeit immer häufiger moderne
Neurocomputing-Verfahren angewendet. Verfahren des Neurocomputing (meistens neuronale Netze, Entscheidungsbäume oder Clustering) besitzen dabei
den Vorteil, dass keine Algorithmen und Regeln ermittelt, getestet und codiert
werden müssen. Dieses Prozesse werden dabei durch das Lernen von Sachverhalten aus Vergangenheitsdaten ersetzt.(Vgl.[NEU02])
Das Verfahren der Vektor-Quantisierung, welches eine nachträgliche, disaggregierte Analyse von Verbundbeziehungen innerhalb eines Sortiments ermöglicht,
bewirkt dabei eine Zerlegung der binären Warenkorbdaten. Jedem Warenkorb
wird dabei ein zusätzliches nominales Merkmal zugeordnet, welches schließlich die Zugehörigkeit zu einer bestimmten Warenkorb-Klasse indiziert.(Vgl.
[SRJ01])
Aus Homogenitäts- bzw. Heterogenitätsgrnden sind hier letztendlich 8 warengruppenspezifische Klassen-Centroide (Mittelwerte) gebildet worden, die die
Kauftätigkeiten der Kunden für einen Supermarkt der LEH-Gruppe darstellen. Abbildung 6.3 zeigt auszugsweise eine auf diese Weise entstandene Warenkorbklasse mit absteigend sortierten Warengruppen-Centroiden. Der Wert 4,33
steht dabei für die durchschnittlich enthaltenen Warengruppen in der gewählten Warenkorb-Klasse. Der Wert 1,00 für die Limonade deutet dann daraufhin,
dass in ca. 10 Prozent der Warenkörbe von Klasse 1 mindestens eine Limonade
vorhanden ist. Des Weiteren befindet sich in 1,5 Prozent der Warenkörbe mindestens eine Flasche Wasser. Die Angaben in den Klammern geben also an, wie
hoch die Wahrscheinlichkei ist, dass die entsprechende Warengruppe mindestens
einmal im Warenkorb vorhanden ist. Da in dieser Klasse durchschnittlich 4-5
Warengruppen in einem Warenkorb kombiniert werden, sind daher am häufigsten die Warengruppen Limo,Wasser, Milch, Tragetasche und Flaschenbier im
Warenkorb vorhanden.
26
Klasse 1 - # 4,33
Limo(1,00), Wasser(.15), Milch(.14), Tragetasche(.13), Flaschenbier(.11)
Backwaren(.09), Joghurt(.09), Säfte(.09), Dosenbier(.09), Wurstwaren(.08)
Südfrüchte(.07)
Abbildung 6.4: Beispiel einer Warenkorbklasse
Das Verwendungspotential ist allerdings mit der einzelnen Bedeutung der Warengruppen in den unterschiedlichen Warenkörben noch lange nicht ausgereizt.
Dieses ist damit zu begründen, dass sich die so gewonnene Kenntnisse über
die durchschnittlich enthaltenen Warengruppen pro Warenkorb noch mit anderen Merkmalen kombinieren lassen. Dazu gehören beispielsweise Merkmale
wie Kauftag, Kaufuhrzeit, Filialstandort usw.. Es können so diverse Werbestrategien entworfen werden, indem zum Beispiel an bestimmten Tagen oder zu
bestimmten Uhrzeiten Rabatte auf Warengruppen erhoben werden, die sonst
zu dieser Uhrzeit eher selten nachgefragt werden. Ein anderes Beispiel ist eine
tagesabhängige Bewerbung von Warengruppen, so dass typische Warengruppen an Tagen beworben werden, an denen die Nachfrage sonst nicht so hoch
ist. Eine Quantisierung von personalisierten Daten mittels Kundenkarten liefert schließlich noch die Möglichkeit die Käufe direkt auf spezielle Kunden zu
beziehen und ermöglicht so eine gezieltes Individual-Marketing.
Zusammenfassend ist zu sagen, dass durch immer größer werdende Datenmengen eine Neuorientierung in Richtung der moderneren NeurocomputingVerfahren unumgänglich geworden ist, da sie ein wesentlich größeres Potential
bezüglich der folgenden Marketingmanahmen bieten als konventionelle Analysen von Warenkörben.
27
Kapitel 7
Prognose zur optimierten
Werbeträgerplanung bei
Versandhäusern
Bei der Prognose werden bisher unbekannte Merkmalswerte mit Hilfe anderer
Merkmale oder mit Werten des gleichen Merkmals aus früheren Perioden vorhergesagt. Für die Aufgabe der Prognose existieren dabei verschiedene Ansätze.
Wie aus den obigen Beispielen zu Bonitätsprüfung schon bekannt, kann auch
das Verfahren der Klassifikation zur Prognose verwendet werden. Voraussetzung
ist dabei, dass diskrete Werte wie “kreditwürdig“ oder “nicht-kreditwürdig“
vorhergesagt werden sollen. Bei der Prognose konzentriert man sich jedoch weitestgehend auf kontinuierliche quantitative Werte, weshalb die Prognose von
der klassischen Aufgabe der Klassifikation abweicht. Für Prognosezwecke werden daher häufig Methoden aus dem Gebiet der künstlichen Intelligenz wie
Neuronale Netze eingesetzt.(vgl. [NIE00])
In der Praxis spielt die Prognose beispielsweise im Werbeträgerplanungsprozess bei Versandhäusern eine große Rolle. Ziel dabei ist es, den Einsatz der
Werbeträger so zu planen, dass das Verhältnis von Werbekosten und Umsatz
optimiert wird. Für die Berechnung werden dazu verschiedene Kennzahlen und
Formeln herangezogen, in den in Abbildung 7.1 einige dargestellt werden. Die
KUR = (Werbekosten / Umsatz) * 100
=
=
Nettoumsatz
Wareneinstandskosten
Anteilige Logistikkosten
Überhangverluste
Deckungsbeitrag I
Werbekosten
Deckungsbeitrag II
Deckungsbeitrag I = (Deckungsbeitrag II / Nettoumsatz) * 100[%]
Deckungsbeitrag II = (Deckungsbeitrag I - KUR) * Nettoumsatz
Abbildung 7.1: KUR sowie Deckungsbeitrag I und II
Kosten-Umsatz-Relation(KUR) drückt dabei den prozentuellen Werbekostenanteil am Nettoumsatz aus. In Abhängigkeit von Nettoumsatz und Werbekosten
ergeben sich die Deckungsbeiträge I und II. Die beiden unteren Formeln dienen
28
schließlich dazu, die Deckungsbeiträge mit der in Prozent ausgedrückten KUR
in Verbindung zu setzen.(vgl. [NIE00])
Die Werbekosten sind dabei um so höher, je größer die Ausstattungsdichte der
Kunden mit Katalogen ist. Für das Versandhaus ist es nun entscheidend, welche Ausstattungsdichte der Kunden mit Katalogen möglichst optimale Werte
im Bezug auf den Umsatz, den Bruttobestellwert und schließlich den Deckungsbeitrag II liefert.
In diesem Fall sind für die Prognose Neuronale Netze als selbständig lernende
Prognosesysteme eingesetzt worden, um aus dem bekannten Kundenverhalten
Schlüsse bezüglich der optimalen Ausstattungsdichte der Kunden mit Katalogen zu erlangen. Die schon vorhandenen Daten bezüglich des Kundenverhaltens in der Vergangenheit werden dazu in eine Trainings- und eine Testmengen
unterteilt. Das Training des neuronalen Netztes erfolgt anhand der Trainingsmenge. Die dabei gewonnenen Zusammenhänge werden nun auf die Testmenge
angewendet, wobei kontrolliert wird, ob sich die Ergebnisse der Trainingsmenge anhand der Testmenge bestätigen lassen. Diese beiden Schritte werden so
lange wiederholt, bis ein hinreiched gutes Netz gefunden wird. Das in diesem
Fall entwickelte neuronale Netz hat also die Aufgabe gehabt, den unbekannten
Ursachen-Wirkungszusammenhang zwischen Werbeträger und Auswirkung auf
die Kauftätigkeit der Kunden zu ermitteln.
Zur besseren Bestimmung der ökonomischen Auswirkungen der Werbeträgeranzahl auf die oben beschriebenen Kennzahlen sind die Kunden schließlich noch in
20 verschiedene Klassen eingeteilt worden. Jede Klasse enthält dabei 5 Prozent
aller Kunden, wobei die Kundenqualität von Klasse 1 bis Klasse 20 abnimmt.
Als Ergebnisse bezüglich der Auswirkungen der Werbeträgeranzahl auf die angesprochenen Kennzahlen hat sich herausgestellt, dass ein maximaler Umsatz
mit einer 100-prozentigen Austattungsdichte erreicht wird. Diese hohe Ausstattungsdichte wirkt sich jedoch aufgrund der höheren Kosten für die Werbeträger
negativ auf die KUR aus. Interessanter ist daher eher, mit welcher Ausstattungsdichte welcher Deckungsbeitrag erreicht wird. Der höchste Deckungsbeitrag von
160.000 DM hat sich dabei bei einer Werbeträgerausstattung von 40 Prozent
der besten Kunden eingestellt.(vgl. [NIE00])
Das Versandhaus hat also schließlich herausgefunden bzw. prognostiziert, welche Ausstattungsdichte mit Katalogen das Verhältnis bezüglich des Umsatzes und der Werbekosten optimiert. Man kann diese gewonnenen Erkentnisse
schließlich für die zukünftige Werbeträgerplanung gewinnbringend nutzen, wobei jedoch gesagt werden muss, dass andere Aspekte, wie zum Beispiel die Kundenbindung oder die Kundenneugewinnung bei den Überlegungen keine Rolle
gespielt haben, was sich wiederum negativ auf den Geschäftserfolg auswirken
kann.
29
Kapitel 8
Schlussfogerungen und Bezug
zur Projektgruppe
In der Ausarbeitung zum Thema ’Datenanalyse im Marketing’ hat die Hauptaufgabe darin bestanden, anhand von zahlreichen Praxisbeispielen die vielfältigen Einsatzmöglichkeiten von Data Mining im Marketing, aber auch in anderen
Bereichen aufzuzeigen. Des Weiteren hat im Mittelpunkt gestanden, inwiefern
der Einsatz von Data Mining gegenüber klassischen Methoden der Datenanalyse Vorteile mit sich bringt. Es hat sich dabei gezeigt, dass der Einsatz von
Data Mining in allen vorgestellten Beispielen Verbesserungspotentiale aufgedeckt hat. Nachdem die Einsatzgebiete und die konkret eingesetzten Verfahren
vorgestellt worden sind, hat anschließend die Darstellung der Praxisbeispiele im
Mittelpunkt gestanden.
Eines der am weitesten verbreiteten Anwendungsgebiete für Data Mining ist
im Risikomanagement zu sehen. Die Bonitätsprüfung stellt dabei eine Entscheidungsmöglichkeit für verschiedene Branchen dar, ob ein potentieller Kunde als
kreditwürdig oder als nicht kreditwürdig klassifiziert wird. Ziel dabei ist es
immer die angesprochenen Fehler 1. und 2. Art zu vermeiden, um so einen drohenden wirtschaftlichen Verlust zu verhindern. Die Untersuchung der einzelnen
Beispiele hat dabei gezeigt, das zahlreiche Data Mining-Verfahren in diesem
Gebiet zum Einsatz kommen, wobei zwischen diesen zudem deutliche Unterschiede im Bezug der Performance zu erkennen sind.(Vgl. Abschnitt 3.3) Dabei
sind “aufwändigere“ Data-Mining Verfahren wie z.B. die Anwendung neuronaler Netze sowohl den ’einfacheren’ Data Mining-Verfahren wie beispielsweise der Diskriminanzanylyse, aber vor allem den klassischen Verfahren wie der
Scoringmethode oder der Bearbeitung durch Kreditsachbearbeiter in ihrer Bonitätsbeurteilung deutlich überlegen.
Im zweiten Anwendungsfeld für Data Mining geht es dann um den Bereich der
Kundensegmentierung. Zunächst ist, das in diesem Bereich angewendete Clustering, näher erläutert worden, wobei verschiedene Verfahren zur Anwendung
gekommen sind, die sich im Wesentlichen bezüglich der Homogenität bzw. Heterogenität der Cluster und dem Automatisierungsgrad zur Bestimmung der
Clusteranzahl unterscheiden. Das Anwendungsfeld hat sich hier wiederholt als
sehr vielfältig herausgestellt, wobei das Ziel generell immer darin besteht, die
Kunden der jeweiligen Branchen in Cluster aufzuteilen, um sie schließlich durch
gezieltes One-to-one Marketing persönlich anzusprechen. Die Vorteile liegen dabei im Erreichen einer höherer Kundenbindung verbunden mit der Realisierung
von Einsparpotentialen, die aufgrund der Abwendung vom Massenmarketing
realisiert werden.
Mit dem Beispiel aus dem Mobilfunkmarkt sollte deutlich gemacht werden,
30
dass die beiden Verfahren Klassifizierung und Clustering in der Realität häufig
zusammen angewendet werden, da dieses noch spezifischere Analyseergebnisse
verspricht als eine getrennte Anwendung dieser beiden Verfahren.
Als nächstes Anwendungsfeld wurde schließlich die Sortimentsanalyse bearbeitet, wobei häufig Assoziationsanalysen, aber auch Clustering oder auch moderne Neurocomputing-Methoden zum Einsatz kommen. Bei den konkreten Beispielen, die sich auf den Einzelhandel beziehen, geht es vordergründig darum,
aufgrund der gewonnenen Scannerdaten auffällige Verbundwirkungen innerhalb
des Warensortiments aufzudecken, und diese gewonnenen Erkentnisse schließlich bei der Sortimentspolitik und beim Marketing gewinnbringend umzusetzen.
Kapitel 7 beschreibt abschließend mit der Prognosewirkung noch ein weiteres Feld der Anwendungsmöglichkeiten von Data Mining zur Datenanalyse. Es
werden dabei Prognosen für die Zukunft erstellt, die aufgrund von schon vorhandenen Daten für verschiedene Anwendungsbereiche generiert werden. Die im
konkreten Beispiel angesprochene Ähnlichkeit zur Klassifizierung macht dabei
noch einmal deutlich, dass es schwierig ist, die einzelnen Data Mining-Verfahren
strikt zu trennen, da sie wie gesagt häufig auch kombiniert zur Anwendung kommen.
Neben der Vielfalt der Einsatzgebiete und eingesetzten Verfahren ist bei der
Betrachtung der Praxisbeispiele vor allem das Potential des Data Mining zur
Datenanylyse deutlich geworden, was sich darin gezeigt hat, dass durch die
Anwendung von Data-Mining in allen besprochenen Beispielen Verbesserungspotentiale aufgezeigt worden sind.
Dieses Ergebnis bestätigt dabei eine Studie der Universität Eichstätt-Ingolstadt,
die herausgefunden hat, dass 87 Prozent der Unternehmen, die Data Mining
zur Analyse ihrer Datenmengen einsetzen, mit der Profitabilität dieser Projekte sehr zufrieden sind. Trotz dieser überzeugenden Performance nutzen zur
Zeit lediglich 50 Prozent der 500 größten deutschen Unternehmen Data MiningVerfahren zur Analyse ihrer großen Datenmengen (vgl. [LEB02]).Diese Erkenntnisse und die Feststellung, dass sich alle 18 Monate die Informationsmenge in
der Welt verdoppelt, machen deutlich, dass Data Mining auch in Zukunft eine
große Bedeutung zugemessen wird.
Innerhalb des Projektgruppenszenarios soll Data Mining sowohl vom Kartenanbieter, als auch von beiden Hndlern betrieben werden. Die Händler geben zu
diesem Zweck Kunden- und Karteninformationen direkt an den Kartenanbieter
weiter. Dieser konzentriert sich im Bereich des Data Mining hauptsächlich auf
die Bereiche Klassifikation und Clustering. Die so erhaltenen Analyseergebnisse
werden zur weiteren Verarbeitung wieder an die Händler zurückgegeben. Die
Händler sind dabei jedoch nicht von der Benutzung der Analyseergebnisse des
Kartenanbieters abhängig. Auch sie besitzen die Möglichkeit, aufbauend auf
den schon vorhandenen Analyseergebnissen, weiterhin Data Mining zu betreiben. Als Einsatzgebiete sind dabei, wie von mir vorgestellt, beispielsweise die
Kundensegmentierung und Käuferidentifikation zu Marketingzwecken oder die
Bonitätsprüfung zu nennen. Ziel der Händler ist es letztendlich, den Kunden ein
personalisiertes Angebot anzubieten, um auf diesem Wege Wettbewerbsvorteile
gegenüber Konkurrenten zu erlangen.
31
Kapitel 9
Glossar
[Average Linkage]Average Linkage bezeichnet die durchschnittliche Ähnlichkeit aller Paare von Individuen x Element C und y Element D
[Bonität]Die Bonität beschreibt die relative Ertragskraft des Schuldners in der
Zukunft.
[C4.5]C4.5 zählt zu den bekanntesten Entscheidungsbaumverfahren aus dem
Bereich des induktiven Lernens. Das Auswahlkriterium in C4.5 basiert auf informationstheoretischen Überlegungen, es wird ein error-based Pruning eingesetzt.
[CART]Die CART-Methode (Classification and Regression Trees) wurde von
Breiman et al. 1984 als Ergebnis mehrjähriger Forschungsarbeit entwickelt.
Das CART Entscheidungsbaumverfahren zählt zu den bekanntesten Top-Down
Ansätzen mit entsprechender Pruning-Strategie.
[CHAID]Der CHAID-Algorithmus (Chi-Squared Automatic Interaction Detection) gehört zu den Segmentierungs-Verfahren aus der AID-Familie, die sich
durch verschiedene Implementierungen und vor allem durch ihre Zielkriterien
unterscheiden. Sein Auswahlkriterium beruht auf dem Chi-Quadrat-Test auf
Unabhängigkeit. Er zählt zu den direkten Top-Down-Verfahren ohne die Verwendung einer nachfolgenden Pruning-Phase
[Clustering]Beim Clustering werden Cluster gebildet, die bezüglich der zu
analysierenden Daten, in sich möglichst homogen und untereinander möglichst
heterogen sind.
[Data Mining]Data Mining ist die Suche nach Beziehungen und Mustern, die
in Datenbanken versteckt sind, wobei rohe Daten in nützliche Informationen
transformiert werden. Data Mining wird dabei als einer von mehreren Schritten
im KDD-Prozess verstanden.
[Diskriminanzanalyse]Die Diskriminanzanalyse untersucht den jeweiligen
Datenbestand auf solche Attribute, die einen hohen Erklärungsgrad für eine
bereits vorgegebene Klassifikation besitzen. Als Paradebeispiel ist hier die Anwendung der Diskriminanzanalyse als Frühwarnsystem bei der Bonitätsprüfung
zu nennen.
[Entscheidungsbäume]Bei der Methode der Entscheidungsbäume werden
Objekte, deren Klassenzuordnung bekannt ist, sukzessive mit Hilfe einzelner Merkmale in Gruppen aufgeteilt, die in sich homogen, aber voneinander
möglichst unterschiedlich sind. Am Ende des Verfahrens entsteht ein Baum,
aus dessen Verzweigungskriterien Regeln gebildet werden können, die dann auf
nicht zugeordnete Objekte angewendet werden können.
[Factoring]Finanzierungsgeschäft, bei dem ein spezialisiertes Finanzierungsinstitut (Factor) von einem Verkäufer dessen Forderungen aus Warenlieferungen
und Dienstleistungen laufend oder einmalig ankauft und die Verwaltung der
32
Forderungen übernimmt.
[Fehlerquadratsumme] Die Fehlerquadratsumme ist die Summe der quadrierten Abweichungen der einzelnen Meßwerte von ihrem Gruppenmittelwert
und stellt darum die Variation innerhalb der zu behandelnden Gruppe dar.
[Gain-Chart]Ein Gain-Chart ist eine Möglichkeit, die Qualität eines Klassifikators darzustellen. Ein Gain Chart wird dabei durch 2 Kurven charakterisiert,
die den Informationsgewinn auf den Lerndaten und den Evaluierungsdaten darstellen. Je größer der Abstand zwischen den beiden Kurven ist, um so geeigneter
ist der Klassifikator.
[K-means]K-means ist ein partitionierendes, globales Verfahren mit exakter
Zuordnung, das Clusterzentren zur Clusterbildung verwendet.
[KDD-Prozess]Unter der Bezeichnung Knowledge Discovery in Databases(KDD) versteht man den gesamten Prozess der Wissensentdeckung in Datenbanken. Der Prozess beinhaltet dabei Schritte von der ursprünglichen Datenauswahl bis hin zur Interpretation der gefundenen Muster und der folgenden
Umsetzung.
[Klassifikation]Bei der Klassifikation besteht die Aufgabe darin, betrachtete
Objekte einer vorher bestimmten Klasse zuzuordnen. Die Zuordnung findet
dabei aufgrund der Objektmerkmale und der Klassifikationseigenschaften statt.
[One-to-one Marketing] Unter one-to-one Marketing oder auch Individual
Marketing versteht man das auf spezielle Kunden oder Kundengruppen ausgerichtete Marketingverhalten, dass sich vom Massenmarketing abwendet.
[Pruning-Strategien]Im Fall von komplexen und tiefgeschachtelten Entscheidungsbäumen, bei der die Klassifikation ungesehener Objekte häufig ungeeignet
ist, verwenden mehrere Entscheidungsbaumverfahren Pruning-Strategien. Ein
in einem ersten Schritt konstruierter eventuell tiefverästelter Baum wird dabei
durch das Herausschneiden von Unterbäumen reduziert, die nur einen geringen
Beitrag zur Klassifikation leisten.
[quadrierte euklidische Distanz] Die quadrierte euklidische Distanz beschreibt die Summe der quadrierten Differenzen zwischen den Werten der Einträge.
[SOM]Das Ziel von Self Organizing Maps(SOM) besteht in der topologieerhaltenden Abbildung hochdimensionaler Merkmalsräume in einen Outputraum
niedriger Dimension. SOM sind dabei in der Lage, unbekannte Strukturen in
der zu analysierenden Datenbasis ohne a priori Informationen selbstständig zu
extrahieren und zu visualisieren.
[Ward-Verfahren]Mit dieser Methode werden zuerst Mittelwerte für jede Variable innerhalb der einzelnen Cluster berechnet. Anschließend wird für jeden
Fall die Quadrierte Euklidische Distanz zu den Cluster-Mittelwerten berechnet.
Diese Distanzen werden für alle Fälle summiert. Bei jedem Schritt sind die beiden zusammengeführten Cluster diejenigen, die die geringste Zunahme in der
Gesamtsumme der quadrierten Distanzen innerhalb der Gruppen ergeben.
33
Literaturverzeichnis
[BA00] Bonne, Thorsten; Arminger Gerhard: Diskriminanzanalyse in :Wilde, Matthias (Hrsg.): Handbuch Data Mining im Marketing. Ingolstadt und
München 2000
[BLE89] Bleymüller, J.: Multivariate Analyse für Wirtschaftswissenschaftler,
Münster 1989
[BZL02] Bender, R.; Ziegler, A.; Lange, St.: Logistische Regression in Artikel
Nr 14 der Statistik-Serie in der DMW Stuttgart 2002
[EGF00] Eschler, Gabi; Gotsch, Nikolaus; Flury, Christian: Polyprojekt
Primalp : www.primalp.ethz.ch/pdf-files/Schlussbericht Komponentenprojekt
E.pdf 2000
[FAY96] Fayyad, U. et al.: From Data Mining to Knowledge Discovery in
Databases. AI Magazine, Fall 1996a
[GER01] Gerke, Wolfgang, Theorie und Praxis des Kreditgeschäfts, Erlangen;
siehe : www.bankundboerse.wiso.uni-erlangen.de
[GRA00] Grabmeier, Johannes: Segmentierende und clusterbildende Methoden,in :Wilde, Matthias (Hrsg.): Handbuch Data Mining im Marketing. Ingolstadt und München 2000
[HR00] Hippner, Hajo; Rupp, Andreas: Kreditwürdigkeitsprüfung im Versandhandel, in :Wilde, Matthias (Hrsg.): Handbuch Data Mining im Marketing.
Ingolstadt und München 2000
[HS00] Hippner, Hajo; Schmitz, Berit: Data Mining in Kreditinstituten - Die
Clusteranalyse zur zielgruppengerechten Kundenansprache, in :Wilde, Matthias
(Hrsg.): Handbuch Data Mining im Marketing. Ingolstadt und München 2000
[KÜS00] Küsters, Ulrich: Data Mining Methoden: Einordnung und Überblick,
in :Wilde, Matthias (Hrsg.): Handbuch Data Mining im Marketing. Ingolstadt
und München 2000
[KWZ98] Krahl, Daniela; Windheuser, Ulrich; Zick, Friedrich-Karl: Data Mining - Einsatz in der Praxis
[LEB02] Leber, Martina: Data Mining: Jeder zweite Großbetrieb wertet Kundendaten systematisch aus, Katholische Universität Eichstätt-Ingolstadt 2002
[LP00] Löbler, Helge; Petersohn, Helge: Kundensegmentierung im Automobilhandel zur Verbesserung der Marktbearbeitung, in: Wilde, Matthias (Hrsg.):
Handbuch Data Mining im Marketing. Ingolstadt und München 2000
[MET94] A., Mettler: Formalisierte Bonitätsprüfungsverfahren und Credit
Scoring, Referat gehalten anlässlich der Konferenz ’Risiokomanagement im Privatkundengeschäft’, Bad Homburg 1994
[MEW01] Antje, Mews: Multivariate Analyseverfahren: Die Clusteranalyse.
Internetquelle: www.snafu.de/7Eherbst/clust1.html 7.12.2002
[MEY00] Meyer, Matthias: Data Mining im Marketing: Einordnung und Überblick, in: Wilde, Matthias (Hrsg.): Handbuch Data Mining im Marketing. Ingolstadt und München 2000
[MIC01] Michels, Edmund: Data Mining Analysen im Handel - konkrete Einsatzmöglichkeiten und Erfolgspotenziale, in: Wilde, Matthias (Hrsg.): Handbuch Data Mining im Marketing. Ingolstadt und München 2000
[MOO99] Moormann, J.: Umbruch in der Bankinformatik - Status Quo und
Perspektiven für eine Neugestaltung in: Fischer, Th.: Handbuch Informationstechnologie in Banken. Wiesbaden 1999
[NEU02] Neurocomputing, Data Mining and neuronal Networks auf:
www.neurocomputing.de/body index.html
[NIE00] Joachim, Niedereichholz (Hrsg.): Data Mining im praktischen Einsatz,
Eschborn 2000
34
[PET 98]Petersohn, H.: Beurteilung von Clusteranalysen und selbstorganisierenden Karten, in: Hippner, H.; Meyer, M.; Wilde, K.D.: Computer-Based
Marketing, Wiesbaden 1998
[PN00] Poloni, Marco; Nelke, Martin: Einsatz von Data Mining für Kundenmodellierung am Beispiel der Bonitätsbeurteilung, in :Wilde, Matthias (Hrsg.):
Handbuch Data Mining im Marketing. Ingolstadt und München 2000
[PRU01] Prudential System Software GmbH: Data Mining zur Erzeugung von
Kundenprofilen mit dem prudsys Discoverer 2000; siehe http://www.prudsys.de
[PS00] Poddig, Thorsten ; Sidorovitch, Irina: Künstliche Neuronale Netze:
Überblick, Einsatzmöglichkeiten und Anwendungsprobleme, in: Wilde, Matthias (Hrsg.): Handbuch Data Mining im Marketing. Ingolstadt und München
2000
[RIE99] Rieger, Anke: Entscheidungsunterstützung durch Data Mining: Der
Aufwand zahlt sich aus, Fachartikel aus : ExperPraxis 99/2000
[SÄU00] Säuberlich,Frank: KDD und Data Mining als Hilfsmittel zur Entscheidungsunterstützung. Frankfurt u.a. 2000
[SRJ01] Schnedlitz, Peter; Reutterer, Thomas; Joos Walter: Data-Mining und
Sortimentsverbundanalyse im Einzelhandel, in: Wilde, Matthias (Hrsg.): Handbuch Data Mining im Marketing. Ingolstadt und München 2000
[SÜC98]Süchting, J.: Die Theorie der Bankloyalität - (Immer noch) eine
Basis zum Verständnis der Absatzbeziehungen von Kreditinstituten ? in: H.
Heitmüller (Hrsg.): Handbuch des Bankmarketing , Wiesbaden 1998
[UNG01] Unger, Gregor: Verfahren zur Bonitätsprüfung, in der Seminarreihe
IT-Unterstützung für das Asset Management. 2001
[WRR00] Wagner, Udo; Reisinger, Heribert; Russ, Reinhold: Der Einsatz von
Methoden des Data Mining zur Unterstützung kommunikationspolitischer Aktivitäten der Lauda Air, in: Wilde, Matthias (Hrsg.): Handbuch Data Mining
im Marketing. Ingolstadt und München 2000
[ZIM87]= Zimmermann, H.-J.:Fuzzy Sets, Decision Making, and Expert Systems. Kluwer Academic Publishers, Boston,Dordrecht,Lancaster 1987
35
Abbildungsverzeichnis
3.1
3.2
3.3
3.4
3.5
3.6
Fehler 1. und 2. Art .
Diskriminanzanalyse .
Z-Wert von Altmann .
Entscheidungsbaum .
angewendete Verfahren
Das Factoringgeschäft
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
und Ergebnisse
. . . . . . . . .
4.1
4.2
4.3
4.4
Clustering . . . . . . . .
Clusterzuordnung . . . .
Fragebogenauswertung .
Werbekampagne ’Golden
5.1
Kundeneinteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
6.1
6.2
6.3
6.4
Assoziationsregel . . . . . . . .
Elbow-Kriterium . . . . . . . .
Verbundwirkung . . . . . . . .
Beispiel einer Warenkorbklasse
7.1
KUR sowie Deckungsbeitrag I und II
. . . . . .
. . . . . .
. . . . . .
Standard’
36
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 6
. 8
. 8
. 9
. 11
. 13
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
16
17
19
20
24
25
25
27
. . . . . . . . . . . . . . . 28
Herunterladen