Marktforschung

Werbung
Marktforschung
Technische Universität Chemnitz
Fakultät für Wirtschaftswissenschaften
Lehrstuhl für Marketing und Handelsbetriebslehre
Dr. Tina Kießling
Sommersemester 2013
© Dr. Tina Kießling (Professur Marketing)
Vorlesung Marktforschung
Vor- und Nachteile der Institutsmarktforschung
Vorteile
Nachteile
•
bessere Methodenkenntnis
•
Erfahrung mit ähnlichen Problemen
•
leistungsfähigere Erhebungs-
•
Kommunikationsschwierigkeiten
instrumente
•
unsolide Auftragserfüllung
•
größere Objektivität
•
Indiskretion
•
Kostenanfall nur bei Inanspruchnahme
©Tina.Kießling (Professur Marketing)
•
geringe Vertrautheit mit dem konkret zu
lösenden Problem
Vorlesung Marktforschung
2
Auswahlkriterien von Institutsmarktforschung
›
Markterfahrung (Automobil)
›
Methodenerfahrung (Tiefeninterviews)
›
Ausstattung (personell, sachlich, Labor, …)
›
Bisheriger Kundenkreis (Datensicherheit)
›
Ruf/Image
›
Mitgliedschaft in Fachverbänden
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
3
Prozess der Problemformulierungen
Spezifizierung der
Forschungsfrage und
Definition des
Forschungsproblems
Identifikation und
Bestimmung des
Informationsbedürfnis
Zieldefinition und
Prognose des
Informationswerts
Quelle: in Anlehnung an Hair, J. F.; Bush, R. P.; Ortinau, D. J.:Marketing Research: within a changing information environment,
3. Aufl., New York 2006, S. 55ff.
• Festlegung des Forschungsziels
• Verstehen der kompletten Problemsituation
• Identifikation von Problemursachen
(Bsp.: Eisbergproblematik)
• Transformation in wissenschaftliche Forschungsfrage/programm
• exakte Abstimmung des Forschungsziel mit Auftraggeber
• Kosten/Nutzen
• Umsetzbarkeit
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
4
Beispiel für Hypothesen
1) Das Durchschnittseinkommen von Verwendern des Produktes XY liegt
bei 30.000 Euro.
2) Bekanntheitsgrad von Produkt A ist größer als von Produkt B.
3) Je älter jemand ist, desto geringer ist der für Bekleidung ausgegebene
Einkommensanteil.
Konditionalsatz:
Empirisch prüfbar:
Allgemeingültig:
Falsifizierbar?
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
5
Definitionen
Wissenschaftliche Hypothesen
sind Annahmen über reale Sachverhalte (empirischer Gehalt, empirische Untersuchbarkeit) in Form von Konditionalsätzen. Sie weisen über
den Einzelfall hinaus (Generalisierbarkeit, Allgemeinheitsgrad) und sind
durch Erfahrungsdaten widerlegbar (Falsifizierbarkeit).
Quelle: Bortz, J.; Döring, N.: Forschungsmethoden und Evaluation, 4. Aufl., Berlin 2006, S. 4
• Formulierung geht auf Poppers kritischen Rationalismus zurück
• Hypothesen können nicht bewiesen werden!, nur vorläufig bestätigt
• wenn Hypothese sich bewährt (häufig vorläufig bestätigt), dann
Erkenntnisbeitrag für Wissenschaft => Einfluss auf Theoriebildung
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
6
Definitionen
Wissenschaftliche Hypothesen
sind Annahmen über reale Sachverhalte (empirischer Gehalt, empirische Untersuchbarkeit) in Form von Konditionalsätzen. Sie weisen über
den Einzelfall hinaus (Generalisierbarkeit, Allgemeinheitsgrad) und sind
durch Erfahrungsdaten widerlegbar (Falsifizierbarkeit).
Quelle: Bortz, J.; Döring, N.: Forschungsmethoden und Evaluation, 4. Aufl., Berlin 2006, S. 4
Theorien
haben die Funktion, Sachverhalte zu beschreiben, zu erklären und
vorherzusagen. Im Kern bestehen sozialwissenschaftliche Theorien aus
einer Vernetzung von gut bewährten Hypothesen bzw. anerkannten
empirischen „Gesetzmäßigkeiten“.
Quelle: Bortz, J.; Döring, N.: Forschungsmethoden und Evaluation, 4. Aufl., Berlin 2006, S. 15
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
7
Exkurs: Wissenschaftstheorie
›
Klassischer Rationalismus (z.B. Kant, Leibniz)
» Erkenntnisse durch rationalen Verstand und Zurückgreifen auf
vorhandene Theorien (Empirie und Mafo sind eigentlich nicht nötig)
» Erklärung/Prognose durch Deduktion: Allgemeinheit Einzelfall
» ABER: allgemeingültige Gesetze erklären nicht alles, Verstand kann
sich irren und nicht die gesamte Realität abschätzen
›
Klassischer Empirismus (z.B. Locke, Hume)
» Erkenntnis durch Wahrnehmung/Beobachtung der Umwelt
» Erklärung/Prognose durch Induktion: Einzelfall Allgemeinheit
» ABER: von endlicher Anzahl an Beobachtungen kann kein
allgemeingültiges Gesetz abgeleitet werden, Erkenntnis geht nie über
aktuelle Beobachtung hinaus
›
Kritischer Rationalismus (z.B. Popper)
» Grundgedanke: Vernunft ist fehlbar, gewonnene Erkenntnisse sind
niemals endgültig, sondern nur als vorläufig zu betrachten
» Vollkommen fehlerfreie Aussagen über Realität gibt es nicht
» da nicht belegt werden kann, dass etwas richtig ist, Versuch zu zeigen,
dass es nicht falsch ist
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
8
Bedeutung von Konzeptualisierung& Operationalisierung & Messung
›
Schlechte Konzeptualisierung u/o Operationalisierung u/o Messung
führt zu:
» Falschen o. unzureichenden o. unzuverlässigen Ergebnissen
» Sie sind so „schlau“ wie vorher, haben aber (viel) Geld investiert
» Sie sind angreifbar, Ihre Entscheidungen werden abgelehnt oder Sie
treffen die falschen Entscheidungen ohne Wirkung oder mit schlechter
Wirkung
» Sie bekommen Ärger .
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
Konzeptualisierung - Dimensionalität
›
Eindimensionales Konstrukt: einheitliches in sich geschlossenes
Konzept ohne inhaltliche Differenzierung
›
Mehrdimensionales Konstrukt: mehrere inhaltlich miteinander
verwandte Dimensionen können als ein einheitliches Konstrukt
aufgefasst werden
›
Feststellung der Dimensionalität:: anhand theoretischer
Überlegungen, (wissenschaftlichen) Erkenntnissen oder
empirischen Daten
›
Indikatoren/Items: wahrnehmbare, beobachtbare, messbare
Merkmale
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
9
Operationalisierung
›
Operationale Definition von Eigenschaften erfordert
» präzise theoretisch-begriffliche Fassung der interessierenden
Eigenschaften
» Angabe der in der Realität wahrnehmbaren Merkmale
(= Indikatoren/Items)
» Angabe der Mittel, mit denen diese zu messen sind (= Messinstrument)
» Unterscheidung zwischen Single- und Multi-Item-Messung
» Auswahl des Messmodells: reflektiv vs. formativ
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
Operationalisierung
›
Ein Messinstrument besteht aus Aussagen/Fragen (d.h. dem/den
Indikator/en) und der Möglichkeit die Ausprägung der Probanden bzgl. des
Indikators zu erfassen (Antwortmöglichkeiten – Skala)
›
Ein hypothetisches Konstrukt sollte einerseits mit mehreren Indikatoren
operationalisiert werden (multi-item), andererseits jedoch nicht mehr als
nötig:
» Multi-item messungen erlauben die Verwendung von Gütekriterien
» Reliabilität steigt (Absicherung falls eine Aussage nicht perfekt), aber Gefahr,
dass Artefakt erfasst wird, steigt bei Multi-Item-Messungen
» Viele Items verlängern den Fragebogen und können Probanden überfordern
›
Reflektiv: alle Indikatoren sind semantisch ähnlich (Synonyme)
›
Formativ: Indikatoren bilden inhaltlich unterschiedliche Aspekte ab
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
11
Objektivität
›
Durchführungsobjektivität … fordert eine geringstmögliche
soziale Interaktion zwischen Auskunftsperson und
Untersuchungsleiter ( Standardisierung des Fragebogens,
konkrete Anweisung für den Untersuchungsleiter)
›
Auswertungsobjektivität … fordert geringstmögliche Freiheitsgrade des Untersuchungsleiters bei der Auswertung der Messergebnisse ( Einsatz standardisierter Items, eindeutige Zuweisung
von Messwerten, eindeutige Auswertungsvorschriften (Datenbereinigung, Variablenberechnung, etc.), insb. bei offenen Fragen)
›
Interpretationsobjektivität … fordert geringstmögliche
Freiheitsgrade des U-Leiters bei der Interpretation der Ergebnisse
(Korrelation der Ergebnisse der verschiedenen Auswerter)
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
13
Reliabilität
›
Fehler lassen sich nicht vermeiden  Zufallsfehler (=
Standardfehler = um wieviel schwanken die Messwerte um den
Mittelwert bei einer wiederholten Messung) treten bei jeder Messung
auf, dieser wird aber immer kleiner, je größer die Messung (d.h. je
näher an Grundgesamtheit)
›
Ursachen für Messfehler:
» Fehlende Bedingungskonstanz (z.B. äußere Einflüsse)
» Fehlende Merkmalskonstanz (z.B. Einstellungsänderung bei zweiter
Befragung)
» Fehlende instrumentelle Konstanz (z.B. mangelnde Präzision des
Messinstruments)
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
Reliabilität
Test-Retest-Methode
die gleiche Skala wird dem gleichen Kreis an Auskunftspersonen unter
gleichen Bedingungen mehrfach, d.h. zu verschiedenen Zeitpunkten,
vorgelegt. Die erzielten Messergebnisse werden miteinander korreliert.
› Eine Messung ist dann reliabel, wenn die Messergebnisse,
welche zu unterschiedlichen Zeitpunkten erhoben wurden,
gleich sind.
› Abweichende Ergebnisse bei Bedingungskonstanz sind ein
Hinweis für die Unzuverlässigkeit des Messinstruments,
allerdings müssen Lerneffekte berücksichtigt werden.
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
15
Reliabilität
Split-half-Methode
das Messinstrument wird in zwei gleiche Hälften geteilt und die so
getrennten Indikatoren zu Teilskalen zusammengefasst und miteinander
korreliert.
› Ein hoher Korrelationskoeffizient gilt als Ausdruck für hohe
interne Konsistenz und steht für eine hohe Reliabilität des
Messinstrumentes.
› Problem: Die Ergebnisse dieser Reliabilitätsschätzung hängen
von der Teilung des Messinstrumentes (Itembatterie) ab.
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
16
Reliabilität
Cronbachs Alpha
dient zur Messung der internen Konsistenz und entspricht dem
Mittelwert aller möglichen Kombinationen der Split-half-Methode.
› Ermittelt die interne Konsistenz der gesamten Skala (über alle
Indikatoren eines Konstruktes) und sollte größer als 0,7 sein.
› Cronbachs Alpha gibt an, ob die Reliabilität einer Messung
verbesserungswürdig ist.
› Problem: Cronbachs Alpha steigt mit wachsender Anzahl der
Indikatoren eines Konstruktes.
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
Reliabilität
Item-To-Total-Korrelation
›
Die einzelnen Items werden mit der Summe aller Items korreliert:
» Hohe Korrelation > 0,5  Item weist positiven Beitrag zur Reliabilität
auf (passt gut zum Rest der Skala)
» Niedrige Korrelation < 0,5  Item misst was anderes als der Rest der
Skala, Reliabilität könnte verbessert werden durch Eliminierung
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
17
Validität
Externe Validität
liegt dann vor, wenn die Messergebnisse generalisierbar sind, d.h. von
der betrachteten Stichprobe auf die Grundgesamtheit übertragen
werden können.
› Repräsentanz der Untersuchungssituation und der
Probanden
› Spannungsverhältnis interne und externe Validität
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
19
Validität
Konvergenzvalidität
bezeichnet das Ausmaß, in dem sich Indikatoren eines Konstrukts
annähern. Die Indikatoren sollten also hoch miteinander korrelieren.
› Gütemaße, um die Konvergenzvalidität zu prüfen:
» Faktorladungen: sollten größer als 0,7 sein
» Konstruktreliabilität: sollte größer als 0,7 sein
» durchschnittlich erfasste Varianz (DEV): sollte größer als 0,5 sein
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
20
Konvergenzvaliditiät
›
Faktorladung: Verhältnis eines Items zum Gesamtkonstrukt, je
höher sie sind (nahe 1), desto besser der Erklärungsbeitrag des
Items zum Konstrukt
›
Konstruktreliabilität und DEV werden aus den Faktorladungen
und dem Standardfehler berechnet. Sie beziehen sich auf die
Gesamtheit der Konstruktitems und geben an, wie gut das Konstrukt
durch alle Items gemessen wird.
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
Validität
Kriteriumsvalidität
gibt an, inwiefern es Zusammenhänge zwischen dem Konstrukt mit
einem oder mehreren Kriterien gibt.
›
Vorhersagevalidität (Prognosevalidität): Es wird geprüft, ob es einen
Zusammenhang zwischen dem Konstrukt und einem zeitlich später
liegendem Kriterium/Variable gibt.
›
Übereinstimmungsvalidiät: Es wird geprüft, ob Zusammenhang mit
fast zeitgleichen Kriterien vorliegt. (z.B. unmittelbarer Kauf eines
Produktes und Einstellung zum Produkt, Konzentration während der
Klausur und Klausurergebnis)
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
22
Praktikabilität (Durchführbarkeit)
Bezieht sich auf die auf die Durchführbarkeit der Messung und
auf die Frage, ob die mit der Messung gewonnenen Ergebnisse
den finanziellen und zeitlichen Aufwand rechtfertigen.
 Zentraler Punkt: Rentabilität, d.h. finanzieller und zeitlicher
Aufwand
Entscheidungskriterien:
-Welche Informationen/Ergebnisse würden durch eine nicht
Messung verloren gehen?
-Welche Ziele werden mit der Messung verfolgt?
-Welche Folgen kann die Messung mit sich bringen?
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
23
Besondere Anforderungen an die qualitative Forschung
Offenheit fordert
… eine möglichst geringe Festlegung/Vorprägung des Forscher sowie
einen
weitestgehenden
Verzicht
auf
eine
theoretische
Vorstrukturierung des Untersuchungsgegenstands  keine
frühzeitig Hypothesenbildung, da diese erst auf Basis der gewonnen
Daten bestimmt werden sollen
… dass Probanden, das Problemfeld selbst strukturieren, eigene
Schwerpunkte setzen und evtl. noch unbekannte Zusammenhänge
zu anderen Problembereichen aufzeigen  Forscher versucht die
„Welt des Probanden“ zu verstehen und nicht diese durch
vorgegebene Fragen zu verändern
Ziel ist die Suche von Inhalten: Erhebungsmethode muss flexibel sein,
um neuen Informationen folgen zu können  geringe
Standardisierung der Datenerhebung erforderlich, Offenheit auch
bei der Datenauswertung (meist interpretativ)
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
Besondere Anforderungen an die qualitative Forschung
Typisierung fordert
…
das
Herausfiltern
von
charakteristischen,
typisierenden
Sachverhalten in Bezug auf das zu untersuchende Problem (diese
Sachverhalte sollen für weitere Überlegungen genutzt werden).
Das setzt voraus, dass Informationen ganzheitlich erfasst werden anstelle von statistischer Repräsentativität soll inhaltlich
repräsentativ gearbeitet werden
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
Besondere Anforderungen an die qualitative Forschung
Kommunikativität fordert
… dass die Methode der Datenerhebung sich an der Auskunftsperson
ausrichtet, so dass der Befragungsteilnehmer in seinen
Ausdrucksformen nicht eingeschränkt wird (Wortwahl, Mimik,
Gestik)
… dass für den Probanden eine natürliche Situation geschaffen wird,
um somit den Redefluss nicht einzuschränken. (Interaktionen
zwischen Befragungsteilnehmer und Interviewer werden hierbei
nicht als Störgröße verstanden, aber der Interviewer muss sich dem
Befragungsteilnehmer anpassen.)
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
Erklärung der Gütekriterien
›
Intercoder-Reliabilität: die Ergebnisse werden durch mehrere Personen kodiert und
miteinander verglichen (entspricht der Parallel-Test-Methode der Reliabilitätsprüfung)
›
Intracoder-Reliabilität Eine Person kodiert des Material mehrfach, allerdings zu
verschiedenen Zeitpunkten und vergleicht die Ergebnisse / betrachtete wird die
Kongruenz der Resultate (entspricht der Test-Retest-Methode der
Reliabilitätsprüfung)
›
konsensuelle Validierung: Interpretation der Ergebnisse erfolgt durch mehrere
Forscher, die versuchen einen Konsens zu finden
›
kommunikative Validierung: Ergebnisse werden den Probanden zur
Reflexion/Überprüfung vorgelegt
›
Kriteriumsvalidität: Vergleich mit einem Außenkriterium
»
Übereinstimmungsvalidität: Die Übereinstimmungsvalidität gibt an, ob (die Ausprägungen
eines) Konstrukts mit Beobachtungen aus der Umgebung übereinstimmen, die der Forscher
bereits kennt. (z.B. Rückgriff auf „Known Groups“)
»
Prognosevalidität: Die Vorhersagevalidität gibt an, ob sich mit (den Ausprägungen eines)
Konstrukts Vorhersagen machen lassen, die sich in der Zukunft erfüllen.
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
Zusätzliche Nachteile von Befragungsmethoden
Schriftliche
Befragung
Persönliche
Befragung
Telefonische
Befragung
Computerbefragung
- Rücklaufquote
- Situative Faktoren
(Ort, Zeit, Dritte)
- Keine Verwendung
von Demo-Material
- Rücklaufquote
- Unkontrollierbarkeit der teilnehmenden
Probanden
- Interviewereinfluss
- Unkontrollierbarkeit der
Ausfüllsituation
- Unkontrollierbarkeit der
Ausfüllsituation
- Fragebogen muss
Teilnehmer
motivieren
- Fragebogen muss
Teilnehmer
motivieren
Lösung:
- Interessantes
Thema
- Angemessene
Fragebogenlänge
- Einfache Fragen
©Tina.Kießling (Professur Marketing)
Lösung:
- Interessantes
Thema
- Angemessene
Fragebogenlänge
- Einfache Fragen
Vorlesung Marktforschung
28
Der Zweck von Testfragebogen (Pretest)
Ziel:
›
Weckt Fragebogen das Interesse der Probanden?  Einfluss auf
Teilnahmebereitschaft/Rücklauf
›
Überprüfung der Verständlichkeit der Fragen
›
Überprüfung der Vollständigkeit der Fragen
›
Kontrolle der Filterführung
›
Schulung/Übung mit den Interviewern
›
Gütebeurteilung von neu entwickelten Konstruktmessungen
(Messinstrumente)
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
Qualitative Interviews
Exploratives Interview: Aufgrund des geringen Wissenstands zum Untersuchungsgegenstand wird
das Ziel verfolgt, vollständig die relevanten Informationen zum interessierenden Thema zu sammeln;
Abfragen von Wissen, Erfahrungen, Einstellungen, Know-how der Probanden
› Bsp.: Expertengespräche (Personen mit entsprechendem Fachwissen)
Psychologisches Tiefeninterview: Ziel ist das Erfassen von unbewussten, verborgenen oder schwer
erfassbaren Motivstrukturen und Sinnzusammenhängen durch die Interpretation und das
Hinterfragen des Gesagten. Bedeutungszuweisung erfolgt nachträglich aufgrund bestimmter
Theorien. Intensives Gespräch zwischen den Partnern
› Zielt auf die Erhebung des „Psychologischen Gehalts“ des Gesagten ab
› Bsp.: Laddering-Technik: aufeinander aufbauende Warum-Fragen zur Analyse von Tiefenstrukturen
Fokussiertes Interview: Interview beschränkt sich auf einen bestimmten Themenbereich
(Eigenschaft/Produkt)
› Interview wird mit der Präsentation von Stimuli kombiniert, um das Gesprächsthema stärker
einzugrenzen (z.B. Anzeigen, TV-Spots, Produkte bzw. –proben)
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
Gruppendiskussionen / Focus Group Interview
›
Die Datenerhebung erfolgt durch eine Gruppe von Personen unter der Leitung eines Moderators,
wobei ein vorgegebenes Thema diskutiert wird. Der Moderator steuert hierbei zurückhaltend das
Gespräch.
›
Idealgröße: 6-10 Personen; bei emotionalen Themen: 5-6 Personen
Sonderformen:
Kumulierte Gruppendiskussion: mehrere, aufeinander aufbauende Gruppendiskussionen werden
geführt, wobei die Ergebnisse vorangegangener Gesprächsrunden aufgegriffen werden und
Probanden wechseln können.  Argumente werden hinsichtlich ihrer Durchsetzungsfähigkeit
überprüft
Kombinierte Gruppendiskussion: Der Gruppendiskussion werden Einzelinterviews vor- und
nachgestellt, wobei ein Vergleich der Meinung von Probanden zu verschiedenen Zeitpunkten
(artikulierte Meinung im 1. & 2. Interview) möglich ist unter Berücksichtigung des sozialen
Einflusses (Gruppendiskussion)
›
Interview  Gruppendiskussion  Interview
Kontradiktorische Gruppendiskussion: Hier wird ein Mitarbeiter in die Gruppe integriert, der
provozierende Äußerungen bringt, um einen frühzeitigen Gruppenkonsens zu vermeiden, mit dem
Ziel möglichst viele Argumente aus unterschiedlichen Blickwinkeln zu sammeln und eine optimale
Lösung zu finden. Bsp.: Beurteilung der Tragfähigkeit / Tauglichkeit einer Produktidee
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
Nähere Beschreibung der Beobachtungsverfahren
›
Kundenlaufstudie: Kunde wird vom Betreten des Ladens bis Verlassen beobachtet,
Beobachter ist als “Mitarbeiter auf Inventur” getarnt (Notizen), Ziel: Identifizierung von
Reihenfolge des und Regalverweildauer beim Shopping  Optimierung
Ladengestaltung und Warenpräsentation
›
Einkaufsverhaltensbeobachtung: Kunde wird nur an bestimmter Stelle/Regal
beobachtet z.B. mittels Videokamera, Ziel: Ermittlung, ob Produkt auffällt o. gekauft
wird, wie sponton, mit welcher Mimik, nach welcher Dauer (Produktbeschäftigung)
›
Handhabungsbeobachtung: Beobachtung bei der Verwendung eines Produktes
(Beurteilung erfolgt meist unter Vorwand – z.B. Geschmacksprobe), Ziel: Optimierung
der Produktgestaltung, Identifizierung von Problemen
›
Mystery Shopping: Beobachter nimmt im Vergleich zu den vorhergehenden
Verfahren aktiv an der Erhebungssituation teil, muss allerdings eine Rolle/Funktion
einnehmen, die seine Anwesenheit rechtfertigt und kein Misstrauen erweckt, Ziel:
Beurteilung der Dienstleistungsqualität, der Prozessqualität etc. (z.B.: Mafo als Kunde
im Geschäft/Restaurant)
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
Nähere Beschreibung der Beobachtungsverfahren
›
Messung der elektrodermalen Reaktion: Sensoren an Hand  Messung
emotionaler Wirkung von Werbespots bzw. Messung der Aktiviertheit
›
Compagnon-Verfahren: getarnte Leseverhaltensbeobachtung mittels versteckter
Kamera, Ziel: wie lange wird Anzeige aus einer Zeitschrift betrachtet bzw. wird sie
überhaupt angeschaut
›
Blickaufzeichnung/-registrierung: Mittels verschiedener Messverfahren, wie
beispielsweise einer Augenkamera/Brille ist eine Blickbewegungsregistrierung bei der
Betrachtung eines Bildes möglich, welche die Verweildauer/Fixation auf bestimmten
Bildelementen aufzeichnet, Ziel: welche Inhalte werden angeschaut  Rückschlüsse
auf Infoaufnahme  Optimierung von Anzeigen-/Verpackungsgestaltung
›
Tachistoskop-Verfahren: unter Einsatz von PC  Präsentation von Bildern/Reizen
in kurzer Zeit, Ziel: Ermittlung von Objekten, die schnell erkannt werden und somit
hohe Aufmerksamkeit erzielen, Ermittlung von kognitiven (welche Marken werden
erkannt) und emotionalen (welcher Eindruck bleibt haften) Reaktionen
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
Merkmale des Experiments
›
Kausalhypothese liegt vor als gerichteter (nicht umkehrbarer)
Zusammenhang: X (unabhängige Variable)  Y (abhängige
Variable)
›
in kontrollierter Anordnung wird X systematisch variiert
(experimentelle Variable) und Änderung der abhängigen Variablen
Y (Untersuchungsvariable/Messgröße) gemessen
›
Experimentator kontrolliert zugleich alle übrigen Variablen
(Störvariablen), die nicht beeinflussbar sind, aber ebenfalls einen
Einfluss auf die abhängige(n) Variable(n) ausüben können: Neben
der Experimentalgruppe wird eine Kontrollgruppe eingeführt.
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
34
Möglichkeiten zur Kontrolle von Störvariablen
Diese Techniken ermöglichen eine experimentelle Versuchsanordnung trotz des Vorhandenseins von
Störvariablen, d.h. von Variablen, die sich nicht-manipulieren lassen, wie demographische und
psychographische Merkmale, Konkurrenzaktivitäten usw..
1)
Konstanthaltung: Durch die Konstanthaltung der Störvariable wird diese/deren Wirkung
eliminiert  Auswahl der Untersuchungseinheiten wird so vorgenommen, dass diese hinsichtlich
der Störvariable homogen sind ( konstant)
›
Bsp.: Geschlecht hat einen Einfluss auf die Beurteilung eines Werbemittels = Störvariable 
Experiment wird nur bei Frauen durchgeführt,
›
Nachteil: geringerer Informationsgehalt/Aussagekraft der Daten und geringere
Verallgemeinerungsfähigkeit der Ergebnisse
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
35
Möglichkeiten zur Kontrolle von Störvariablen
2)
Einbau ins Untersuchungsdesign: Störvariable wird als unabh. Variable in die Versuchsanordnung eingebaut, wodurch ein mehrfaktorieller Versuchsplan entsteht, der mit Experimentalbedingungen arbeitet.  Somit können auch nicht-manipulierbare Variablen in die
Versuchsanordnung eingebaut werden
›
Bsp.: Alter des Testimonials beeinflusst die Einstellung zur Werbung
-
Experimentalbed. 1: Werbemittel A (junges Testimonial), B (altes Testimonial)
-
Experimentalbed. 2: männlich / weiblich  Störvariable
-
Abhängige Variable: Einstellung zur Werbung (E)
›
Vergleich der Wirkungen von E (Frauen/jung), E (Frauen/alt), E (Männer/jung), E (Männer/alt)
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
36
Möglichkeiten zur Kontrolle von Störvariablen
3) Vergleich der Experimental- mit der Kontrollgruppe: Einführung einer Kontrollgruppe ermöglicht
die Identifizierung der Einflüsse von Störvariablen
 Experimentalgruppe: bei dieser Gruppe wird das Experiment durchgeführt, d.h. Veränderung der
unabh. V.
 Kontrollgruppe: bei dieser Gruppe wird das Experiment nicht durchgeführt, d.h. keine
Veränderung der unabh. V.
BEACHTE: die Gruppenzusammensetzung beider Gruppen muss homogen/identisch sein!
Mögliche Zusammensetzungsverfahren:
Matching (bewusste/aktive Zusammensetzung): alle Untersuchungsgruppen (d. h. Experimental- und
Kontrollgruppe) werden hinsichtlich der Ausprägung der Störvariablen strukturgleich
zusammengesetzt
›
Beispiel: Umsatz eines Produkts in Abhängigkeit der Platzierung im Handelsgeschäft
»
Unabh. V.: Platzierung im Geschäft (Display vs. erweiterte Regalfläche)
»
Abh. V.: Umsatz nach 5 Wochen
»
Störvariable: Lage des Einzelhändlers (Großstadt vs. ländliche Gegend)
»
Matching: z.B. nur Händler in Großstädten
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
37
Möglichkeiten zur Kontrolle von Störvariablen
Randomisierung (zufällig Zusammensetzung):
›
Zuweisung von Untersuchungseinheiten auf die einzelnen Experimentalbedingungen erfolgt nach
dem Zufallsprinzip  Wahrscheinlichkeitstheoretisch besitzt somit jede Untersuchungseinheit die
gleiche Chance, in eine Experimentalgruppe zu kommen.
›
 bei genügend großer Stichprobe besitzen alle Gruppen bzgl. aller in Frage kommenden
Störvariablen die gleiche Struktur
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
38
Zentrale Fragen bei der Stichprobenziehung
›
Wer soll befragt werden? Wessen Antworten interessieren?
» Untersuchungsergebnisse werden nachhaltig durch die Auswahl der Probanden
beeinflusst!
›
Kann die Grundgesamtheit bestimmt werden?
» Grundgesamtheit = die Gesamtheit der Untersuchungseinheiten (Personen) für
die das Untersuchungsmerkmal zutreffend ist (z.B. Studenten in Chemnitz)
» Die Ermittlung der Grundgesamtheit ist erforderlich, da sie die Basis für alle
weiteren Erhebungs- und Berechnungs-verfahren darstellt und die
Repräsentativität der Befragungs-ergebnisse bestimmt.
›
Können die Untersuchungseinheiten erreicht und zur Teilnahme
motiviert werden?
» Teile der GG sind nicht erreichbar?  Verzerrung der Befragungsergebnisse
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
Vollerhebung und Teilerhebung
›
Vollerhebung (Totalerhebung)
» Erfassung aller Untersuchungseinheiten
» Feststellen, ob bzw. in welcher Ausprägung das Untersuchungsmerkmal auftritt
» aufwendig, kostspielig
›
Teilerhebung
» Erfassung einer Teilmenge der Grundgesamtheit
» Ziel: mit Aussagen über Teilmenge (Erhebungsmenge, Sample,
Stichprobe) einen Rückschluss auf die Grundgesamtheit ziehen
 Repräsentationsschluss
» Stichprobe gilt als repräsentativ, wenn sie in der Verteilung aller
interessierenden Merkmale der Grundgesamtheit entspricht, d.h. ein
zwar verkleinertes, aber sonst wirklichkeitsgetreues Abbild der
Gesamtheit darstellt.
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
40
Quota-Verfahren
Auswahl der Untersuchungseinheiten erfolgt analog zur Verteilung der interessierenden Merkmal in
der Grundgesamtheit.
Voraussetzung: Kenntnis über die Merkmale (Quoten) und ihrer anteiligen Verteilung in der GG
Vorgehen:
-
Als Quotierungsmerkmale dienen in der Praxis meist nur wenige Merkmale, deren Verteilung bekannt ist, wie z.B.
Alter, Geschlecht, Beruf, … (kann mittels Sekundärforschung bestimmt werden)
-
Interviewer erhalten eine Quotenanweisung, welche die Zusammensetzung der Grundgesamtheit widerspiegelt
-
innerhalb der Quotenanweisung besitzt der Interviewer Freiheitsgrad bei der Auswahl der Befragungspersonen
(die Summe der Interviews müssen aber der vorgegebenen Quote entsprechen)
Vorteil ggü. Zufallsverfahren: schnell, kostengünstig und elastisch ist
Problem: Repräsentanz und somit die Güte der Ergebnisse können beeinträchtigt werden durch:
-
subjektive Verzerrung, d.h. durch den Interviewer werden die Ergebnisse subjektiv beeinflusst (z.B. Auswahl der
Probanden nach Sympathie)
-
Bequemlichkeitseffekt: leichter erreichbare Personen werden ausgewählt (z.B. wenn Beruf nicht als
Quotierungsmerkmal vorgegeben ist  Rentner, Hausfrau)
-
Klumpeneffekt: die Auswahl des Interviewers beschränkt sich auf regionale Gesichtspunkte oder auf bestimmte
soziale Schichten
-
es gibt Merkmale (insb. Qualitative Merkmale, z. B. Einstellung), die nicht quotierbar sind (hierzu wäre eine
Voruntersuchung notwendig)
Aber: Trotz dieser Probleme hat sich das Quota-Verfahren mehrfach bestätigt (kann Random-Verfahren ebenbürtig
sein, welche auch nicht frei von Fehlern sind).
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
Typische Auswahl
Es wird eine Anzahl von Elementen herausgegriffen, die als typisch und charakteristisch
für die Grundgesamtheit angesehen werden (z.B. Untersuchungen auf eine Stadt
beschränken, die als typisch für die Region gilt).
Voraussetzung: Grundgesamtheit sollte homogene Struktur besitzen.
Problem: Auswahl erfolgt sehr subjektiv  Was sind typische Elemente der GG? 
Kein methodisch gesichertes Verfahren, das dem Repräsentationsschluss gerecht wird
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
Konzentrationsprinzip (= cut-off-Verfahren / Abschneidetechnik)
Beschränkung auf einen Teil der Grundgesamtheit, der in Bezug auf den
Erhebungsgegenstand als wesentlich erachtet wird (z. B. Investitionsgüterbereich 
Beschränkung auf Großbetriebe, Vernachlässigung von KMU)
Voraussetzung: Einzelnen Elemente in der Grundgesamtheit besitzen ein großes
Gewicht, relativ wenige Elemente liefern einen hohen Erklärungsbetrag für den
betreffenden Sachverhalt
Bsp.: Befragung im Investitionsgüterbereich: Befragung der führenden Großbetriebe
liefert bereits ausreichende Ergebnisse, Befragung der übrigen Betriebe wäre
unwirtschaftlich bei nur mäßigen Erkenntniszugewinn
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
Auswahltechniken der einfachen Zufallsauswahl
›
Zufallszahlentabelle/-generator: alle Elemente werden nummeriert und dann per
Zufallszahlen(generator) ermittelt
›
Systematische Auswahl: per Zufallszahl wird ein Startpunkt ermittelt und dann
jedes n-te Element gewählt
›
Schlussziffernverfahren: die durchnummerierten Elemente werden anhand
bestimmter Endziffern ausgewält
›
Buchstabenauswahl: alle Elemente mit bestimmten Anfangs- oder Endbuchstaben
werden in die Stichprobe aufgenommen
›
Geburtstagsauswahl: alle Personen der GG, die an einem bestimmten Tag
Geburtstag haben, kommen in die Stichprobe
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
Vorteile und Probleme der einfachen Zufallsauswahl
Vorteil der reinen Zufallsauswahl:
- Kenntnisse über die Struktur der interessierenden Merkmale in der Grundgesamtheit
ist nicht erforderlich (wie dies bei den Verfahren der bewussten Auswahl notwendig
ist).
- Verzerrungen durch falsche Quotenvorgaben oder durch subjektive Auswahl der
Untersuchungspersonen entstehen nicht.
 bei genügend großer Stichprobe gleicht sich diese hinsichtlich der (unbekannten)
Merkmale der Grundgesamtheit an
Probleme der reinen Zufallsauswahl:
- Grundgesamtheit muss immer vollständig beschrieben vorliegen
- alle Elemente der GG müssen zugreifbar sein (dies ist bei einer großen
Grundgesamtheit sehr aufwendig)
 Hohe Kosten und Aufwand; häufig Probleme bei der Umsetzung
- Ergebnisverzerrungen durch Unerreichbare und Verweigerer, welche bei diesem
Auswahlverfahren nicht ersetzt werden können
 Gefährdung der Repräsentativität
- Oft ist eine hohe Varianz der Merkmale gegeben
 z. B. Umsätze von Handelsbetrieben  nicht homogene Grundgesamtheit
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
Schichtenauswahl
Bei diesem Verfahren wird eine große heterogene Grundgesamtheit in mehrere sich
gegenseitig ausschließende Untergruppen (Schichten) aufgeteilt  die Elemente der
Stichprobe werden zufällig aus jeder Schicht gezogen.
 sinnvoll, wenn die Grundgesamtheit heterogen, die Untergruppen aber homogen sind
Schichtungsmöglichkeiten:
proportionale Schichtung: jede Schicht ist in der Stichprobe im gleichen Verhältnis wie in
der GG vertreten
›
Bsp.: GG (1000 Unt.): 50% Kleinläden, 30% Discounter, 20% SB-Warenhäuser  Stichprobe (n=100): 50
Kleinläden, 30 Discounter, 20 Warenhäuser
disproportionale Schichtung: einzelne Schichten besitzen für die Untersuchung eine
große Bedeutung und werden deswegen stärker gewichtet
›
Bsp.: Umsatz als wichtiges Merkmal  stärkere Gewichtung der Discounter und SB-Warenhäuser: 30 Kleinläden,
40 Discounter, 30 Warenhäuser
optimale Schichtung: Zusammensetzung so, dass Zufallsfehler reduziert wird
›
homogene Untergruppen/Schicht  kleine Stichprobe
›
heterogene Untergruppen/Schicht  große Stichprobe
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
Geschichtete Zufallsauswahl vs. Klumpenauswahl
Schichtenauswahl
Gemeinsamkeit
Klumpenauswahl
Zerlegung der Grundgesamtheit in Teilmengen und Ziehung von
Stichproben aus den Teilmengen
Unterschiede
Teilmengenbildung
Teilmengen werden gebildet
aufgrund von Strukturmerkmalen
der GG, die im Zusammenhang
mit den Untersuchungsmerkmalen
stehen (Schichten)
Teilmengen, die in der GG bereits
vorliegen (Teilmassen) oder sich
aus vorhandenen Teilmassen leicht
bilden lassen (Klumpen)
Idealtypische
Eigenschaften der
Teilmenge
Jede Schicht in sich möglichst
homogen und Schichten
untereinander möglichst heterogen
Jeder Klumpen in sich möglichst
heterogen und Klumpen
untereinander möglichst homogen
Stichprobe
m Teilstichproben, jede aus einer
der m Teilschichten
eine Stichproben, die n Klumpen
enthält
Zufallsauswahl
n zufällig ausgewählte Elemente
aus jeder der m Teilstichproben
die zufällig ausgewählte Klumpen
werden vollständig erfasst und
ausgewertet
Quelle: in Anlehnung an Meißner, J.-D.: Statistik verstehen und sinnvoll nutzen, Oldenburg 2004, S.313
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
Systematische Fehler
›
Ursachen
» durch den Träger der Untersuchung hervorgerufene Fehler
→ Erhebungsplanung
→ Erhebungsdurchführung
→ Auswertung
» durch den Interviewer
→ Verzerrung der Probandenauswahl
→ Verzerrung der Antworten
» durch den Probanden
→ Non-Response-Fälle
→ Falschbeantwortung
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
48
Vorgehensweise
(1) Auswahl der Eigenschaften und Eigenschaftsausprägungen
(2) Erhebungsdesign
(3) Bewertung der Stimuli
(4) Schätzung der Nutzenwerte
(5) Aggregation der Nutzenwerte
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
zu (1): Merkmale müssen relevant, vom Unternehmen umsetzbabr und beeinflussbar,
zahlenmäßig begrenzt und von einander unabhängig sein; außerdem sollten die
Merkamlsausprägungen kompensatorisch sein (entweder rot oder grün)
Zu (2): Auswahl von Kombination/Produktvarianten
Zu (3): Bildung von Rangordnung bzgl. Nutzenvorstellungen u/o Kaufbereitschaft u/o
Gefallen etc. => keine isolierte Bewertung der einzelnen Merkmale, sondern
Bewertung der Merkmalskombinationen
Zu (4): anhand der Rangordnungen können dann die Nutzenwerte der einzelnen
Produktkomponenten/Merkmale geschätzt werden
Zu (5): Zusammenfassung der individuellen Nutzenwerte zu einem Gesamturteil
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
49
Beispiel: der optimale Joghurt
›
›
Zu 1): Produktmerkmale: Verpackung, Verpackungsgröße, Inhaltsstoffe
-
Verpackung: Glas vs. Becher
-
Inhaltsstoffe: biologisch vs. herkömmlich
-
Verpackungsgröße: 150g vs. 250g vs. 300g
Zu 2):
-
Variante 1: Glas, biologisch, 150g
»
Variante 2: Becher, biologisch, 150g
»
Variante 3: Glas, herkömmlich, 150g usw.
»
 2 x 2 x 3 = 12 Produktvarianten, die bei der Conjoint-Analyse betrachtet werden.
›
Zu 3):
›
Bewertung des Probanden:
-
Platz 1: Glas, bio, 150g
-
Platz 2: Becher, bio, 150g
-
Platz 3: Glas, bio, 250g
-
…
›
 Den höchsten Nutzen stiften die Produktmerkmale: bio, 150g, Glas
›
Beachte: Probanden bewerten nicht die einzelnen Produktmerkmale, sie bringen die
Produktvarianten in eine Rangreihung.
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
Clusteranalyse
Zentrale Frage:
Welche Merkmale eignen sich um die Untersuchungsobjekte so zu gruppieren, dass
Objekte in einer Gruppe gleiche bzw. sehr ähnliche Merkmalsausprägungen aufweisen
(homogen), diese aber zu den Merkmalsausprägungen von Objekten in einer anderen
Gruppe sehr verschieden sind (heterogen)  es existieren also Gruppenunterschiede
Vorgehensweise:
- Identifizierung und Quantifizierung der Ähnlichkeit/Unähnlichkeit von Objekten anhand
eines geeigneten Maßes (Proximitätsmaß)
- Zuordnung der Objekte aufgrund der Ergebnisse aus Schritt 1, so dass in sich
homogene und nach außen heterogene Gruppen entstehen.
Probleme:
› Bestimmung der optimalen Anzahl an Cluster
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
Exploratorische Faktorenanalyse
Methodensteckbrief...
›
Variablenzahl
Abhängigkeit
Strukturen-...
Skalenniveau
multivariat
Interdependenz
entdeckend
metrisch
Zielsetzung: Verfahren zur Reduktion größerer Variablenmengen auf
eine kleinere Zahl dahinterstehender, unabhängiger Größen, den
sogenannten Faktoren
›
Beispielhafte Fragestellungen:
» Lässt sich die Vielzahl der Eigenschaften, die Käufer von Automobilen
als wichtig empfinden, auf wenige komplexe Faktoren reduzieren?
» Wie lassen sich darauf aufbauend die verschiedenen Automarken
anhand dieser Faktoren beschreiben (Positionierung)?
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
53
Explorative Faktorenanalyse
Zentrale Fragestellung:
Welche Variablen korrellieren sehr hoch mit einander und könnten so zu einem
gemeinsamen, dahinterliegenden Faktor gehören?
Vorgehen:
›
Berechnung der Korrelationsmatrix
›
Faktorenanalyse (z.B. Hauptkomponentenanalyse) vergleicht die einzelnen
Variablen mit möglichen Faktoren  Ergebnis: Faktorladungsmatrix;
Variablen, die eine Faktorladung >0,7 aufweisen, können einem Faktor
zugeordnet werden
›
Faktorinterpretation (subjekt durch den Untersuchungsleiter)
©Tina.Kießling (Professur Marketing)
Vorlesung Marktforschung
Herunterladen