Diskriminanzanalyse

Johannes Lüken / Dr. Heiko Schimmelpfennig Ausgehend von einer Gruppierung von Objekten beschäftigt sich eine Diskriminanzanalyse mit der Identifikation der Variablen bezüglich derer sich diese Gruppen voneinander trennen lassen Zuordnung von „neuen“ Objekten zu den Gruppen auf Basis ihrer Variablenausprägungen (Klassifizieren) Mit der ersten Aufgabe befasst sich dieser Beitrag, mit der zweiten der kommende Beitrag dieser Reihe.   Ableitung der Diskriminanzfunktionen Abbildung 1 zeigt 12 Objekte, die anhand von zwei Eigenschaften charakterisiert und jeweils einer…

Latent-Class-Clusteranalyse

Johannes Lüken / Dr. Heiko Schimmelpfennig Klassische Verfahren der Clusteranalyse weisen ein Objekt eindeutig einem Cluster zu. Ergebnis einer Latent-Class-Clusteranalyse sind dagegen Wahrscheinlichkeiten, mit denen Objekte den einzelnen Clustern zugeordnet werden. Es wird davon ausgegangen, dass latente (nicht beobachtbare) Klassen für Unterschiede in den Daten mit verantwortlich sind.   Einführungsbeispiel In einer Befragung zur Ermittlung der Präferenzen beim Reisen wurde unter anderem gefragt wie Reisen gebucht werden: (a) überwiegend Online / (b) überwiegend Reisebüro /…

Bestimmung der Clusteranzahl

Johannes Lüken / Dr. Heiko Schimmelpfennig Im Allgemeinen strebt man an, mithilfe einer Clusteranalyse möglichst wenige Gruppen zu identifizieren, weil eine kleine Anzahl an Segmenten (zum Beispiel Kundengruppen) einfacher zu handhaben ist. Gleichwohl geht eine geringere Anzahl an Clustern immer zu Lasten der Homogenität der Gruppen. Daher werden mit einer Clusteranalyse zumeist mehrere Klassifikationen unterschiedlicher Clusteranzahlen erzeugt, aus denen dann diejenige auszuwählen ist, die beiden Anforderungen am besten gerecht wird. Anhaltspunkte für diese Entscheidung sind…

Partitionierende Clusteranalyse

Johannes Lüken / Dr. Heiko Schimmelpfennig Partitionierende Verfahren zählen neben den hierarchischen zu den bedeutendsten Methoden der Clusteranalyse. Sie gehen von einer gegebenen Klassifikation der Elemente aus und versuchen diese durch Umgruppierungen zu verbessern. Beide Verfahrenstypen sind aber nicht sich ausschließende Alternativen, sondern können gemeinsam eingesetzt werden, um die Stärken beider zu nutzen. K-Means-Algorithmus Das bekannteste Verfahren der partitionierenden Clusteranalyse basiert auf dem K-Means-Algorithmus, der folgende Schritte umfasst: Für eine vorgegebene Anzahl an Clustern wird…

Hierarchische Clusteranalyse

Johannes Lüken / Dr. Heiko Schimmelpfennig Neben den partitionierenden zählen die hierarchischen Verfahren zu den bedeutendsten Methoden der Clusteranalyse. Sie fassen die zu gruppierenden Elemente schrittweise zu immer größeren Clustern zusammen. Dagegen gehen partitionierende Verfahren von einer gegebenen Klassifikation der Elemente aus und versuchen diese durch Umgruppierungen zu verbessern.   Verfahren der Hierarchischen Clusteranalyse Hierarchische Verfahren werden unterteilt in agglomerative und divisive Algorithmen. Praktische Relevanz besitzt jedoch nur die agglomerative Vorgehensweise. Im Fall einer deterministischen…

Clusteranalyse

Johannes Lüken / Dr. Heiko Schimmelpfennig Die Segmentierung von Nachfragern anhand ihrer Präferenzen bzw. von Produkten anhand ihrer Eigenschaften oder die Bestimmung von Konsumententypologien mittels psychografischer Merkmale zählen zu den klassischen Anwendungsgebieten der Clusteranalyse. Daneben eröffnen die verschiedenen Varianten viele weitere Anwendungsmöglichkeiten.   Homogenität und Heterogenität von Clustern Ziel einer Clusteranalyse ist es zumeist, eine Menge von Objekten wie Personen oder Produkten so in Gruppen, Klassen bzw. Clustern zusammenzufassen, dass diese in sich homogen sind,…

Shapley Value

Johannes Lüken / Dr. Heiko Schimmelpfennig Der Shapley Value ist ein Lösungskonzept der kooperativen Spieltheorie. Die ihm zugrunde liegende Berechnungsvorschrift findet darüber hinaus für Treiberanalysen sowie Produktlinien- oder Sortimentsoptimierungen Anwendung.   Der Shapley Value in der Spieltheorie Die kooperative Spieltheorie untersucht, wie die Teilnehmer an einem Spiel durch die Bildung von Koalitionen ihren eigenen Nutzen maximieren können. Ein Beispiel: Drei Einzelhändlern – den Spielern 1, 2 und 3 – ist es möglich, durch Zusammenschlüsse zu…

Total Unduplicated Reach and Frequency (TURF)

Johannes Lüken / Dr. Heiko Schimmelpfennig Total Unduplicated Reach (Nettoreichweite) und Frequency (Frequenz) sind Kennzahlen, die aus der Mediaplanung stammen. Eine TURF-Analyse nutzt sie insbesondere zur Unterstützung von Entscheidungen über das Produktprogramm oder das Sortiment. Eingesetzt werden sie beispielsweise, um die richtige Auswahl an Farben, Düften oder Geschmacksrichtungen zu treffen.   Nettoreichweite und Frequenz Die Nettoreichweite ist die Anzahl oder der Anteil der Personen in einer Stichprobe, die zumindest ein Produkt eines Sortiments bzw. eine…

Maximum Difference Scaling (MaxDiff)

Maximum Difference Scaling (MaxDiff) Johannes Lüken / Dr. Heiko Schimmelpfennig Maximum Difference Scaling (MaxDiff) bzw. Best-Worst-Scaling ist ein Verfahren zur Messung der Wichtigkeit oder Präferenz beispielsweise von Produkteigenschaften, Marken oder Werbeslogans. Im Allgemeinen trennt es besser zwischen den zu beurteilenden Items als entsprechende Abfragen auf einer Ratingskala bzw. vereinfacht die Erhebung im Vergleich zu einer Konstantsummenskala.   Klassisches MaxDiff Aus einer vorgegebenen Menge von Items wird jedem Befragten mehrfach eine Teilmenge aus zumeist drei bis…

Analytic Hierarchy Process (AHP)

Johannes Lüken / Dr. Heiko Schimmelpfennig Ursprünglich ist der AHP ein Instrument zur Entscheidungsunterstützung, das auf Basis hierarchisch strukturierter Ziele eine Rangordnung von Alternativen ermittelt. Eingesetzt wird er unterdessen ebenfalls zur Präferenzmessung. Im Gegensatz zur Conjoint-Analyse finden keine ganzheitlichen Beurteilungen von Konzepten statt, sondern werden wiederholt einzelne Merkmale bzw. Ausprägungen miteinander verglichen.   Datenerhebung Zur Präferenzmessung werden Merkmale und Ausprägungen, aus denen sich zum Beispiel ein Produkt zusammensetzt, hierarchisch angeordnet. Eine einfache Hierarchie bildet das…

Menu Based Choice (MBC)

Johannes Lüken / Dr. Heiko Schimmelpfennig In vielen Kaufsituationen wählt der Entscheider aus fertigen Produkten (zum Beispiel Shampoos, Fernsehgeräten oder Pauschalreisen) aus. Um diese Art der Kaufentscheidung abzubilden, eignen sich Conjoint-Verfahren. Anders ist das jedoch bei Fahrzeugen, Menüs im Restaurant oder Versicherungen. Hier sind die Kombinationsmöglichkeiten meistens vielfältig und die Annahme einer „First Choice“ aus vordefinierten Produkten entspricht nicht der Realität. Das Menu Based Choice (MBC) ermöglicht die Untersuchung dieser Art von Entscheidungssituationen. Es analysiert…

Mehrfaktorielle Varianzanalyse

Johannes Lüken / Dr. Heiko Schimmelpfennig Häufig interessiert der Einfluss, den zwei oder mehr Merkmale auf eine metrische Variable besitzen. Sind die unabhängigen Merkmale nominal skaliert, kann dazu die mehrfaktorielle Varianzanalyse eingesetzt werden. Um die ihr zugrunde liegende Idee darzustellen, genügt die Betrachtung der zweifaktoriellen Varianzanalyse.   Zweifaktorielle Varianzanalyse Es soll herausgefunden werden, ob die Kaufbereitschaft für ein Produkt von der Verpackung abhängt, die sich in Form (quadratisch oder rund) und Farbe (rot, blau oder…

Maximum-Likelihood-Schätzung

Johannes Lüken / Dr. Heiko Schimmelpfennig Die Maximum-Likelihood (ML)-Methode zählt zu den gängigsten Verfahren zur Schätzung von Parametern einer Grundgesamtheit auf Basis einer Stichprobe. Ihr Grundgedanke ist, den Wert eines Parameters so zu bestimmen, dass das Auftreten der konkreten Beobachtungen in der Stichprobe am wahrscheinlichsten ist.   Maximum-Likelihood-Prinzip Ein Anbieter möchte wissen, mit welcher Wahrscheinlichkeit ein Kunde infolge eines Mailings bei ihm kauft. Bezeichnet p diese Wahrscheinlichkeit, so ist 1-p die Wahrscheinlichkeit, dass kein Kauf…

Discrete Choice Modelle

Johannes Lüken / Dr. Heiko Schimmelpfennig Eine bedeutende Aufgabenstellung der Marktforschung ist die Bestimmung der maßgeblichen Einflüsse auf Kaufentscheidungen. Die zu erklärende Variable bildet die Entscheidung ab und ist somit kategorial. Zur Analyse derartiger diskreter Auswahlsituationen kommen häufig Logit-Modelle zum Einsatz.   Binäres Logit-Modell Im einfachsten Fall stehen zwei Alternativen zur Auswahl. Beispielsweise könnte interessieren, was die Entscheidung für oder gegen den Kauf eines Produktes bestimmt. Abbildung 1 zeigt einen Ausschnitt aus einer möglichen Datenbasis,…

Kategoriale Variablen in Regressionsmodellen

Johannes Lüken / Dr. Heiko Schimmelpfennig Regressionsmodelle sind nicht beschränkt auf metrische unabhängige Variablen. Kategoriale Variablen wie Geschlecht, Beruf etc. können Berücksichtigung finden, wenn ihre Ausprägungen als Zahlen dargestellt werden. Eine gängige Vorgehensweise ist die Dummy-Codierung.   Dummy-Codierung unabhängiger dichotomer Variablen Es soll untersucht werden, welchen Einfluss neben dem Preis das Schalten einer Werbung auf den monatlichen Absatz besitzt. Die lineare Regressionsfunktion ist somit Absatzmenge = b0 + b1×Preis + b2×Werbung Während der Preis eine…

Einfaktorielle Varianzanalyse

Johannes Lüken / Dr. Heiko Schimmelpfennig Mit der einfaktoriellen Varianzanalyse wird überprüft, ob sich die Mittelwerte eines metrischen Merkmals zwischen drei oder mehr Gruppen signifikant voneinander unterscheiden. Die Gruppen stellen die Ausprägungen beziehungsweise Stufen des Faktors dar, dessen Einfluss auf die metrische Variable untersucht wird.   Multiple t-Tests Es soll herausgefunden werden, ob die Kaufbereitschaft für ein Produkt von der Verpackung abhängt. Zur Auswahl stehen beispielsweise drei verschiedene Verpackungen. Die Probanden bekommen zufällig eine davon…

Interaktionseffekte in Kausalanalysen

Johannes Lüken / Dr. Heiko Schimmelpfennig Interaktionen bzw. Wechselwirkungen zwischen unabhängigen Variablen liegen in einer Kausalanalyse vor, wenn sich Variablen in ihrer Wirkung auf eine abhängige Variable gegenseitig verstärken oder abschwächen. Häufig wird beispielsweise berichtet, dass reiche Menschen gesünder sind als arme und sich dieser Unterschied mit zunehmendem Alter vergrößert. Das Alter verstärkt demnach den Einfluss des Einkommens auf die Gesundheit. Eine Berücksichtigung von Interaktionen kann Vorhersagen somit deutlich verbessern.   Interaktion zwischen zwei Variablen…

Strukturgleichungs-Modellierung

Johannes Lüken / Dr. Heiko Schimmelpfennig Die Strukturgleichungsmodellierung zählt zu den bedeutendsten Methoden der Kausalanalyse. Sie erweitert die multiple Regressionsanalyse in zweifacher Hinsicht: Zum einen ist es möglich, nicht nur Vermutungen über kausale Zusammenhänge mehrerer unabhängiger und lediglich einer abhängigen Variable, sondern auch über komplexere Zusammenhänge zwischen Variablen zu überprüfen. Zum anderen erlaubt sie, nicht unmittelbar beobachtbare – so genannte latente – Variablen wie Einstellung, Involvement oder Loyalität zu berücksichtigen.   Bestandteile eines Strukturgleichungsmodells Üblicherweise…

Identifizierung von Scheinkorrelationen

Johannes Lüken / Dr. Heiko Schimmelpfennig   Kontrolle von Störvariablen mit der Regressionsanalyse Ein statistischer Zusammenhang wie beispielsweise eine positive Korrelation zwischen Produktqualität und Kundenzufriedenheit genügt allein nicht, um die Produktqualität als Treiber der Zufriedenheit zu identifizieren. Es muss zudem ausgeschlossen sein, dass dieser statistische Zusammenhang auf Störvariable(n) zurückzuführen ist. So könnte etwa das Markenimage beide Größen beeinflussen und damit die Korrelation zumindest zu einem Teil hervorrufen. Anhand eines kleinen leicht nachrechenbaren Zahlenbeispiels wird veranschaulicht,…

Einführung in Kausalanalysen

Johannes Lüken / Dr. Heiko Schimmelpfennig Kausale Zusammenhänge beschreiben Beziehungen zwischen Variablen in Form von Wenn-dann- bzw. Je-desto-Sätzen. Ein typisches Beispiel ist der Zusammenhang zwischen der Kundenzufriedenheit und einem ihrer Treiber wie „Wenn die wahrgenommene Produktqualität steigt, dann erhöht sich die Kundenzufriedenheit“. Die Wenn- oder Je-Komponente enthält die Ursache bzw. unabhängige Variable, die Dann- oder Desto-Komponente die Wirkung bzw. abhängige Variable. Mit Kausalanalysen werden Vermutungen über kausale Zusammenhänge getestet. Auf diese Weise werden beispielsweise aus…

Signifikanz und Stichprobenumfang

Johannes Lüken / Dr. Heiko Schimmelpfennig Bei der Tabellierung von Marktforschungsdaten ist es gang und gäbe, signifikante Unterschiede zwischen betrachteten Teilgruppen zu kennzeichnen. Nicht selten kommt es vor, dass eine Differenz zwischen zwei Gruppen als signifikant und eine größere Differenz zwischen zwei anderen Gruppen nicht als signifikant ausgewiesen wird. Eine mögliche Erklärung dafür ist, dass die ersten beiden Gruppen stärker besetzt sind als die anderen beiden.   Signifikanztest Ein in einer Stichprobe beobachteter Effekt, zum…

Verfahren der Varianzanalyse

Johannes Lüken / Dr. Heiko Schimmelpfennig Wenn die Mittelwerte von mehr als zwei unterschiedlichen Gruppen (unabhängigen Stichproben) oder mehr als zwei Erhebungen bei denselben Personen (abhängigen Stichproben) miteinander verglichen werden sollen, reicht ein t-Test nicht mehr aus. Dann ist auf eines der nachfolgend vorgestellten Verfahren der Varianzanalyse zurückzugreifen.   Ein- und mehrfaktorielle Varianzanalyse In einem Produkttest werden drei unterschiedliche Varianten getestet. Dazu erfolgt eine zufällige Aufteilung der Probanden in drei Gruppen. Die Mitglieder einer Gruppe…

Einführung in Signifikanztests

Johannes Lüken / Dr. Heiko Schimmelpfennig Signifikanztests untersuchen, inwieweit die auf Grundlage einer Stichprobe erzielten Ergebnisse auch in der dahinter liegenden Grundgesamtheit gelten. Da die wahren Werte von Parametern der Grundgesamtheit wie Mittelwert, Anteil, Korrelations- oder Regressionskoeffizient nicht bekannt sind, werden hypothetische Werte angenommen und überprüft, ob diese mit den Werten in der Stichprobe im Widerspruch stehen.   Beispiel Es soll untersucht werden, ob sich nach dem erstmaligen Verbrauch eines Produktes die Kaufbereitschaft für das…

Marktsimulationen mit Conjoint-Analysen

Johannes Lüken / Dr. Heiko Schimmelpfennig Marktsimulationen ermöglichen die Prognose der Auswirkungen von Produkt- und Preisvariationen auf Marktanteile und andere ökonomischen Größen. Dazu liefert die Conjoint-Analyse mit der für jeden einzelnen Befragten ermittelten individuellen Nutzenstruktur die notwendige Datenbasis.   Grundlegendes Vorgehen Im Rahmen der im Conjoint-Modell enthaltenen Merkmale und Ausprägungen werden Produkte definiert und zu einem Set zusammengestellt. Bei metrischen Merkmalen ist man dabei nicht auf die abgefragten Ausprägungen beschränkt. Durch eine Interpolation können auch…

Kriterien für die Auswahl des geeigneten Conjoint-Verfahrens

Johannes Lüken / Dr. Heiko Schimmelpfennig Jedes Verfahren der Conjoint-Analyse besitzt Stärken und Schwächen. Insofern lässt sich keine generelle Empfehlung geben, welches vorzugsweise eingesetzt werden sollte. Die Entscheidung für ein Verfahren ist vielmehr vor dem Hintergrund der Charakteristika der jeweiligen Fragestellung und Erhebung zu treffen. Nachfolgend werden wichtige Kriterien vorgestellt.   Anzahl der Merkmale Menschen sind allenfalls in der Lage, maximal acht Merkmale gegeneinander abzuwägen. Sollen mehr Merkmale berücksichtigt werden, muss durch den Befragten oder…

Varianten des Choice Based Conjoint (CBC)

Johannes Lüken / Dr. Heiko Schimmelpfennig Unter den Conjoint-Verfahren ist das CBC am weitesten verbreitet. Aktuell kommt es in über 80% aller Conjoint-Analysen zur Anwendung. Der große Vorteil dieser Methode liegt in ihrer realitätsnahen und einfachen Datenerhebung. Der Befragte wird mehrfach vor die Aufgabe gestellt, aus einem Set von Angeboten jenes auszuwählen, das ihm am meisten zusagt. Eine None-Option kann es ihm zudem ermöglichen, sich gegen alle Angebote zu entscheiden. Die folgende Abbildung zeigt ein…

Conjoint-Verfahren im Überblick

Johannes Lüken / Dr. Heiko Schimmelpfennig Die Conjoint-Analyse wird eingesetzt, wenn Produkte oder Dienstleistungen marktgerecht und auf den Kundennutzen ausgerichtet gestaltet werden sollen. Analysiert werden die Präferenzen der Nachfrager. Die Verfahren gehen davon aus, dass sich der Gesamtnutzen eines Konzeptes (einer konkreten, mehrdimensionalen Produktidee) additiv aus den Teilnutzen seiner Merkmale zusammensetzt. Aus der ganzheitlichen Beurteilung (CONsidered JOINTly) mehrerer Kombinationen von Merkmalsausprägungen wird auf deren Teilnutzen geschlossen (dekompositioneller Ansatz). Dazu braucht man nur einen Teil aller…