Data Science, Machine Learning und KI
Kontakt

Ein paar hundert Meter von unserem Büro entfernt gibt es ein kleines Mittagslokal. Es gehört zu einer kleinen Kette, die sich auf selbst zusammenstellbare, verzehrfertige Salate spezialisiert hat. Als wir vor ein paar Jahren in unser neues Büro zogen, wurde dieser Salatlieferant schnell zu einem festen Bestandteil unseres Alltags. Im Laufe der Zeit hat sich das jedoch geändert. Wir essen immer noch regelmäßig dort, aber ich bin mir sicher, wenn man sich den STATWORX-bezogenen Umsatz ansieht, würde der Trend das Management nicht erfreuen, und die Frage ist, warum?
Die Antwort hat viel mit dem Auftreten neuer Konkurrenten, verbesserten Kochkünsten, ausgeklügelten Werbeaktionen und sicherlich auch mit der Preisgestaltung zu tun. Letztere – die Preisgestaltung – wird im Mittelpunkt dieser Serie stehen.
Bei der Analyse von Fragen der Preisgestaltung ist es oft von wesentlichem Interesse, ein Maß dafür zu haben, wie sich eine Preisänderung auf die Nachfrage auswirkt. Das Maß, auf das sich Ökonomen im Allgemeinen einigen, um diese Beziehung zu beschreiben, ist die Preiselastizität der Nachfrage, \epsilon. Als relatives Maß ist es einheitsunabhängig, was es zu einem Gewinner macht. Die Elastizität ist definiert als die prozentuale Änderung der Menge geteilt durch die prozentuale Änderung des Preises:

    \[epsilon = frac{Delta qty/ qty}{Delta price/ price}\]

Konzeptionell werden üblicherweise drei Bedingungen unterschieden: Elastizitätswerte von <-1 weisen auf eine „elastische Nachfrage“ hin. Das heißt, wenn man den Preis um ein Prozent erhöht, sinkt die Nachfragemenge um mehr als ein Prozent. Die beiden anderen Bedingungen sind Nachfrageelastizitäten von >-1, in diesem Fall spricht man von „unelastischer Nachfrage“ und dem Fall, dass die Elastizität gleich -1 ist. Dies wird als „einheitselastische Nachfrage“ bezeichnet.

Es wäre sehr hilfreich, wenn wir die tatsächliche Preiselastizität der Nachfrage für unsere Salatbar ableiten könnten. Mit einem zuverlässigen Elastizitätswert in der Hand können wir Fragen beantworten wie: Wie viele Salate können wir bei einem bestimmten Preis voraussichtlich verkaufen? Wie wirkt sich eine Preisänderung von 10 % auf die Nachfrage aus? Mit diesem Wissen wäre es möglich, die Preisgestaltung als Instrument zu nutzen, um verschiedene KPIs für das Salatgeschäft zu erreichen. Letztendlich kann die Salatbar ihren Preis anpassen, um den Gewinn zu maximieren oder den Umsatz zu steigern – je nach ihren strategischen Zielen.

Die Feinheiten der Ableitung dieser Preiselastizitäten der Nachfrage mit Regressionen sind das Thema dieses kurzen Blogs. Die Situation unseres Salatanbieters ist ein anschauliches Beispiel dafür, wie wir die Preiselastizität berechnen können und wie sie zur Anpassung der eigenen Preisstrategie genutzt werden kann.

Einrichtung

Um es vorweg zu nehmen – obwohl dieser Salatverkäufer existiert und tatsächlich ein integraler Bestandteil der STATWORX-Nahrungskette ist, sind alle Daten, mit denen wir arbeiten, erfunden. Sie beschreiben, wie ich mir die Marktsituation dieses kleinen Salatanbieters vorstelle. Mit jedem neuen Beitrag, in dem wir komplexere Themen untersuchen, werden wir tiefer in die Welt der Salatverkäufer eintauchen.

Die Frage dieses Blogbeitrags ist einfach: Wie können wir mit Hilfe der linearen Regression Preiselastizitäten ableiten? Um dies zu untersuchen, benötigen wir Informationen über historische Preise und Verkäufe. Zu Beginn werden keine Konkurrenz, keine Alternativprodukte in den Geschäften, keine neuen Werbeaktionen, keine saisonalen Effekte oder ähnliches berücksichtigt.
Die täglichen Verkaufspreise der letzten zwei Jahre wurden für unsere kleine Salatbar simuliert, indem zufällig Preise zwischen 5,59 € und 9,99 € ausgewählt wurden – natürlich keine großartige Preisstrategie, aber für die Zwecke dieses Beitrags reicht sie aus. Zur Ableitung der Verkäufe wurde eine multiplikative Nachfragefunktion verwendet, der ein gewisser Zufallsfaktor hinzugefügt wurde. Und damit sind wir mit der Simulation der Daten fertig. Weitere Einzelheiten finden Sie im Code auf unserer Github-Seite.

Berechnung der Elastizität der Nachfrage

Wir wollen wissen, wie sich eine lineare Regressionsfunktion zur Elastizität verhält. Es stellt sich heraus, dass dies davon abhängt, wie die Variablen transformiert wurden. Es ist möglich, die Elastizität – ein Faktor der relativen Veränderung – in fast jeder Situation abzuleiten. Hier finden Sie die vier häufigsten Umformungen.

Transformation Function Elasticity
Level-Level Y = a+bX epsilon=b*frac{X}{Y}
Log-Level log(Y) = a+bX epsilon=b*X
Level-Log Y = a+b*log(X) epsilon=frac{b}{Y}
Log-Log log(Y) = a+b*log(X) epsilon=b

Abhängig von der Transformation der Variablen vor der Regression sind unterschiedliche Transformationen nach der Regression erforderlich, um die Elastizitätswerte zu ermitteln. Die obige Tabelle zeigt, dass die Elastizität im Falle eines log-log-Modells ein konstanter Wert über die gesamte Nachfragekurve ist, während sie in allen anderen Fällen vom spezifischen aktuellen Preis und/oder der Nachfrage abhängig ist. Dies bedeutet, dass die Wahl des Modells einen Hinweis auf die angenommene Nachfragekurve gibt. Eine falsche Wahl führt zu einem falsch spezifizierten Modell.

Das ist gut zu wissen, aber welches Modell sollte man verwenden? Um dies zu beurteilen, habe ich einfach jedes dieser vier Modelle durchgespielt. Die Ergebnisse finden Sie in der Tabelle unten, aber sie sind nichts, was man jemals in der realen Welt finden wird, da alle Effekte hoch signifikant sind und der R^2 für eine soziale oder wirtschaftliche Analyse lächerlich hoch ist. Dies ist beabsichtigt, da kaum Zufälligkeiten hinzugefügt wurden. Darüber hinaus waren die Daten so angelegt, dass das Log-Log-Modell prädestiniert war, das „Gewinnmodell“ zu erzeugen.

Model Intercept Price Variable varnothing Elasticity R^2
Level-Level 439.58 (3.2) -38.57 (0.42) -2.50 0.84
Log-Level 6.59 (0.01) -0.23 (0.01) -1.63 0.95
Level-Log 671.22 (3.53) -265.66 (1.83) -2.11 0.93
Log-Log 7.86 (0.01) -1.52 (0.01) -1.51 0.97

Das Argument ist nicht, dass ein Log-Log-Modell das beste Modell zur Ableitung von Elastizitäten ist. Allerdings gibt es starke mikroökonomische Argumente dafür, warum das Log-Log-Modell das sinnvollste Modell zur Beschreibung der Nachfrageelastizität ist. Die zugrunde liegende Nachfragekurve beschreibt die Nachfrage am ehesten so, wie Ökonomen sie vermuten. Sie stellt sicher, dass die Nachfrage nicht unter Null sinken kann, wenn der Preis steigt, und dass auf der anderen Seite die Nachfrage exponentiell wächst, wenn der Preis sinkt. Die Ableitbarkeit eines konstanten Elastizitätswertes ist jedoch, wie bereits erwähnt, ihre wünschenswerteste Eigenschaft. Diese Tatsache macht es viel einfacher, die Elastizität zur Optimierung der Preisgestaltung einzusetzen.

Dennoch kann die empirische Analyse uns dazu bringen, andere Preis-Nachfrage-Beziehungen anzunehmen. Die folgende Grafik zeigt dies auf anschauliche Weise. Die Legende der Grafik ordnet die Modelle in aufsteigender Reihenfolge ihrer Eignung. Bei der Betrachtung der einzelnen Diagramme wird deutlich, warum das Level-Log-Modell besser abschneidet als das Level-Level-Modell, und warum das Log-Level-Modell das Level-Log-Modell übertrifft und so weiter. Die nicht-lineare Beziehung zwischen Preis und Nachfrage, die wir durch die Verwendung einer multiplikativen Nachfragekurve eingeführt haben, wird am besten durch das Log-Log-Modell beschrieben. Hätte ich eine additive Nachfragekurve verwendet, wäre die Rangfolge andersherum gewesen. Das Argument lautet also, dass die Wahl des Modells unter bestimmten Umständen einen erheblichen Einfluss haben kann.

elasticity regression comp

Für die Anwendung in der Praxis müssen wir uns der funktionalen Form, die durch die von uns gewählte Regression angezeigt wird, sehr bewusst sein. Die Auswirkungen können schwerwiegende Folgen haben. Die Elastizität, mit der die Daten erzeugt wurden, betrug -1,5. Um zu veranschaulichen, wie sich die Wahl des Modells auf die geschätzte Elastizität auswirken kann, habe ich die durchschnittlichen Elastizitäten für Modelle auf Niveau-, Log-Level- und Level-Level-Niveau berechnet und sie mit dem Preiskoeffizienten des Log-Log-Modells verglichen. Dies ist zwar eine etwas zu starke Vereinfachung, aber der Punkt bleibt bestehen: Die Ergebnisse sind sehr unterschiedlich, was Konsequenzen hat, wenn man versucht, die abgeleiteten Elastizitäten zu nutzen. Auf der Grundlage der grafischen Analyse und der Modellinformationen würden wir jedoch zu dem Schluss kommen, dass das Log-Log-Modell am besten abschneidet, so dass wir so vorgehen können, wie es die Theorie vorsieht.

Preis-Optimierung

evor wir zum Schluss kommen, wollen wir uns kurz ansehen, wie wir die Elastizität nutzen können, um die erratische Preisstrategie des kleinen Salatverkäufers zu verbessern (meine zufällige tägliche Preisänderung). Dazu müssen wir die Kostenfunktion der Salatbar kennen. Glücklicherweise kennen wir sie: Die Salatbar hat für jeden Tag, an dem sie geöffnet ist, Fixkosten von etwa 300 €. Die Zubereitung eines einzelnen Salats kostet etwa 2,50 € pro Salat. Die Kostenfunktion lautet also:

    \[€€TotalCost = 300€ + SaladesSold * 2.50€\]

Die Mikroökonomie lehrt uns, dass Fixkosten bei der Berechnung von elastizitätsbasierten, margenoptimierten Preisen keine Rolle spielen. Ich erspare dir die Details, aber die Funktion zur Berechnung des optimierten Preises lautet letztendlich wie folgt:

    \[OptimalPrice = frac{Elasticity*CostPerSalad}{1+Elasticity}\]

Unter Anwendung der aus dem Log-Log-Modell abgeleiteten Elastizität ergibt sich ein vorgeschlagener optimaler Preis, der irgendwo zwischen 7,21€ und 7,47€ liegt. Die Schätzung liegt bei 7,34 €. Anstatt seinen Preis täglich willkürlich zu ändern, ist es am besten, sich an Preise in diesem Bereich zu halten. Der Salatverkäufer kann davon ausgehen, dass er jeden Tag etwa 125 Salate verkauft, was ihm einen täglichen Gewinn zwischen 287 € und 320 € sichert.

KPIs Lowerbound Elasticity Exp. Elasticity Upperbound Elasticity
Elasticity -1.51 -1.52 -1.54
Opt. Price 7.43€ 7.30€ 7.17€
Quantity 126 125 125
Profit 319€ 302€ 285€

Dies ist eine gewagte Aussage. Mit den tatsächlichen Beispieldaten wäre die Schlussfolgerung in Ordnung. Aber in der Praxis sind solche perfekten Regressionsergebnisse mit so wenig Unsicherheit unrealistisch. Und genau hier wird es heikel. Zur Veranschaulichung dieses Punktes habe ich den Standardfehler von fast nicht vorhanden auf 0,15 angepasst. Die Ergebnisse sollten immer noch hochsignifikant sein, aber wenn man sich die nachstehende Tabelle ansieht, wäre man über die Folgen solch kleiner Änderungen überrascht.

KPIs Lowerbound Elasticity Exp. Elasticity Upperbound Elasticity
Elasticity -1.23 -1.52 -1.82
Opt. Price 13.51€ 7.30€ 5.57€
Quantity 106 125 114
Profit 864€ 302€ 51€

Die Gewissheit, mit der wir den optimalen Preis vorgeschlagen haben, war sehr unbegründet. In diesem Beispiel ist die Spanne für die Elastizität trotz der größeren Unsicherheit immer noch relativ klein. Die sich daraus ergebende Preisspanne für den idealen Preis liegt jedoch zwischen 5,58 € und 13,73 €, was kein sehr präziser Vorschlag ist. Die Preisspanne liegt sogar über dem höchsten Preis, den der kleine Salatverkäufer jemals zu setzen wagte. Die Folgen sind gravierend: Der resultierende Gewinn schwankt fast um das Sechzehnfache zwischen dem höchsten und dem niedrigsten Preis.

Um das Offensichtliche zu verdeutlichen: Der dargestellte Ansatz zur Elastizitätsberechnung ist nur die Spitze des Eisbergs. Das bedeutet, dass wir Zeit in die Verbesserung des derzeitigen Ansatzes investieren müssen. Die nächsten Beiträge werden sich auf intervenierende Faktoren wie Werbemaßnahmen und ähnliche Produkte konzentrieren. Daniel Lüttgau Daniel Lüttgau

Wie kann man Preiselastizität bestimmen? Die Antwort auf diese Frage ist nicht eindeutig, sondern fallspezifisch. Es gibt viele Verfahren, um Preiselastizität empirischzu bestimmen. DirekteExpertenbefragungen, Kundenbefragungen, indirekte Kundenbefragungen durch Conjoint Analysen und vielfältige experimentelle Testmethoden.

Wenn die Datenlage es erlaubt, wenden wir Methoden an, die auf historischen Marktdaten basieren. Unterfüttert mit Daten zu Faktoren, wie Wettbewerbspreise, Werbeinformationen etc., lassen sich hier durch am erfolgreichsten die entscheidenden Wirkungsmechanismen für eine dynamische und automatisierte Preisgestaltung identifizieren.

In drei Blogposts sollen die verschiedenen Verfahren beleuchtet und ihre Vor- und Nachteile aufbereitet werden. Im vergangen ersten Teil wurden befragungsbasierten Verfahrenbesprochen. In diesem zweiten Teil wird der Fokus auf experimentellen Methoden und Conjoint Analysen liegen. Im darauf folgenden und abschließenden Post sollen gängige regressionsbasierte Verfahren Thema sein.

Die im vorherigen Blogbeitrag beschrieben Expertenbefragungen und direkte Kundenbefragungen sind in vielerlei Hinsicht schwierig. Experteninterviews vernachlässigen systematisch die Kundenperspektive. Kundenbefragungen sind inhaltlich problematisch, da sie fast zwingend eine isolierte Fokussierung auf die Preissetzung bewirken. Dies steht im Widerspruch zum eigentlichen Kaufprozess, der viel wahrscheinlicher einer Kosten-Nutzen-Abwägung entspricht.

Indirekte Verfahren

Um diesen Problemen auszuweichen, wird daher häufig auf indirekte Befragungsmethoden zurückgegriffen. Durch indirekte Befragungsverfahren sollen die Kaufsituation und die Kundenentscheidung realistischer abgebildet werden, als dies durch Befragungen möglich ist. Ein zentrales Konzept sind dabei Conjoint Analyse Verfahren. Conjoint Analysen sind ein zentrales und etabliertes Marketinginstrument mit vielfältigen auf die jeweilige Problemstellung zugeschnittene Varianten.

Grundsätzlich sollen Conjoint Analysen dabei helfen, die tatsächlichen Abwägungen und Präferenzen von Kunden zwischen verschiedenen Bedürfnissen besser nachzuvollziehen. Durch ein umfassenderes Verständnis der Kundenpräferenzen sollen dann Rückschlüsse auf die konkrete Fragestellung abgeleitet werden. Prinzipiell können so durch Conjoint Analysen vielfältige und komplexe Fragestellungen beantwortet werden.

Um die Zahlungsbereitschaft von Kunden abzufragen, werden Kunden z.B. verschiedene sogenannte Produkt-Preis-Profile zur Auswahl gestellt. Die verschiedenen Auswahlmöglichkeiten unterscheiden sich hinsichtlich im Voraus definierter Merkmale und bzgl. des Preises. Die Teilnehmer sind aufgefordert, zwischen diesen Alternativen zu wählen und Ihre Präferenzen darzulegen. Basierend auf diesen Präferenzaussagen werden die Wirkungen des Preises und der verschiedenen Produktmerkmale herausgearbeitet.

Der Erfolg von Conjoint Verfahren hängt wesentlich von den vorbereitenden Schritten bei der Produkt-Preis-Profi-Gestaltung ab. Eine Vielzahl von Entscheidungen müssen getroffen werden, z.B.:

  • Wie viele verschiedene Merkmale sollen verglichen werden? Dies ist nicht trivial, denn es kann schnell unübersichtlich werden. Entscheidet man sich für nur 3 Merkmale mit jeweils 3 Ausprägungen, so konfrontiert man den Konsumenten bereits mit bis zu 27 Alternativen. Wollte man hier mit Paarvergleichen arbeiten, dann müsste sich der Teilnehmer theoretisch durch 351 Paarvergleich arbeiten. In der Praxis werden natürlich
  • Wie viele Ausprägungen sollen je Merkmal auswählbar sein? Studien zu Folge werden Produkte mit mehr Auswahlmöglichkeiten von Teilnehmern als wichtiger erachtet. Es gibt viele ähnliche Beispiele dafür wie das Testdesign das Ergebnis beeinflusst. Problematisch wird dies, wenn die Wirkung des Testdesigns den tatsächlichen Kaufprozess entstellt.
  • Wie sollen den Teilnehmern die verschiedenen Alternativen präsentiert werden? Sollen alle Alternativen mit ihren unterschiedlichen Preisen gleichzeitig präsentiert werden (Vollprofile) oder sind Paarvergleiche besser? Vollprofile sind realitätsnäher, aber konfrontieren den Teilnehmer mit einer komplexeren Problemstellung, wodurch evtl. keine klaren Ergebnisse abgeleitet werden können.

Der Anwender von Conjoint Verfahren wird mit der komplexen Anforderungspalette konfrontiert, der man bei Experimenten oder bei der Fragebogenausgestaltung ebenfalls begegnet. Dennoch sind Conjoint Analysen ein beliebtes und häufig angewandtes Verfahren. Insbesondere Computergestützte Methoden helfen inzwischen die Komplexität zu reduzieren.

Ähnlich wie die anderen bereits beschriebenen Verfahren sind Conjoint-Analysen kein Instrument, das für ein fortlaufendes systematisches Elastizitäts-Monitoring geeignet ist. Conjoint Verfahren können für explorative Analysen, z.B. im Fall von Produktneueinführungen, ein sehr nützliches Instrument darstellen. Gilt es aber ein fortlaufendes, reaktives Preisgestaltungsinstrument zu entwickeln, so wird das Verfahren an seine Grenzen stoßen, insbesondere dann, wenn man ein breites Produktsortiment hat.

Experimente

Bei Experimenten werden Kunden(-Gruppen) in realen oder nachgestellten Kaufsituationen (Feld-bzw. Laborexperimente) verschiedene Preisalternativen vorgegeben. Aus dem Kaufverhalten der Testteilnehmer werden Rückschlüsse bzgl. des Effektes des Preises auf den Absatz abgeleitet. Ähnlich wie bei Conjoint Analysen gibt es bei der Ausgestaltung solcher Tests viele Vorgehensmöglichkeiten. Insbesondere der E-Commerce bietet vielfältige Anwendungsmöglichkeiten, da viele zusätzliche transaktionsspezifische Informationen bei der statistischen Auswertung des Experiments hinzugezogen werden können. Doch auch im Brick-And-Mortar-Bereich können durch klassische Store-Tests wichtige Rückschlüsse auf produktspezifische Zahlungsbereitschaften gewonnen werden.

Letztlich gibt es fast keine Grenzen bei der Ausgestaltung von preisbezogenen Experimenten, insbesondere dann, wenn auch Laborexperimente in Frage kommen. Hier stellt sich immer die Frage nach der externen Validität dieser Experimente. Künstliche Situationen können atypisches Verhalten verursachen. Ebenso kann es schwierig sein, aus den Erkenntnissen des Experiments praxisrelevante Schlüsse zu ziehen.

Ebenfalls problematisch sind die hohen Kosten, die mit Experimenten einhergehen. Insbesondere mit Feldexperimenten greift man direkt in das aktive Geschäft ein. Jede Preissenkung kann mit Profitverlust einhergehen, jede Preiserhöhung kann Absatzverluste bedeuten.

In unseren Projekten mit Kunden nutzen wir Feldexperimente als Validierungswerkzeug für unsere auf Marktdaten basierten Analyseverfahren. Modellgesteuerte Feldexperimente können genutzt werden, um die Prognosegüte eines Modells zu evaluieren und dessen Schwächen aufzudecken.

Alle bisher beschriebenen Verfahren haben ihre Funktion und können bei entsprechenden Rahmenbedingungen sinnvoll und richtig sein. Wenn die Datenlage es aber erlaubt, wenden wir Methoden an, die auf historischen Marktdaten basieren. Im abschließenden Post sollen gängige regressionsbasierte Verfahren Thema sein. Daniel Lüttgau Daniel Lüttgau

Wie kann man Preiselastizität bestimmen? Die Antwort auf diese Frage ist nicht eindeutig, sondern fallspezifisch. Es gibt viele Verfahren, um Preiselastizität empirisch zu bestimmen. Direkte Expertenbefragungen, Kundenbefragungen, indirekte Kundenbefragungen durch Conjoint Analysen und vielfältige experimentelle Testmethoden.

Wenn die Datenlage es erlaubt, wenden wir Methoden an, die auf historischen Marktdaten basieren. Unterfüttert mit Daten zu Faktoren, wie Wettbewerbspreise, Werbeinformationen etc., lassen sich hierdurch am erfolgreichsten die entscheidenden Wirkungsmechanismen für eine dynamische und automatisierte Preisgestaltung identifizieren.

In drei Blogposts sollen die verschiedenen Verfahren beleuchtet und ihre Vor- und Nachteile aufbereitet werden. Der heutige erste Teil beginnt mit befragungsbasierten Verfahren. Der zweite wird sich mit experimentellen Methoden und Conjoint Analysen beschäftigen. Im darauf folgenden und abschließenden Post sollen gängige regressionsbasierte Verfahren Thema sein.

Expertenbefragungen

Der auf Befragungen basierende Methodenbereich gliedert sich in Expertenbefragungen und verschiedene Verfahren der Kundenbefragung. Wir beginnen mit Expertenbefragungen. Dabei werden Fachleute mit umfassendem Wissen über den Markt oder ein spezielles Marktsegment, in dem das Unternehmen agiert, zur Preiswirkung befragt. Naheliegende Ansprechpartner sind vertriebsnahe Manager, Mitarbeitern aus dem Vertrieb oder Marketing, aber auch externe Fachleute und Berater. Methodisch kann zwischen unstrukturierten, freien Interviews und strukturierten, häufig Workshop basierten, in klare Vorgehensschritte untergliederte Verfahren gewählt werden.

Expertenbefragungen sind in der Regel günstiger und weniger zeitintensiv als Kundenbefragungen. In der Hoffnung, dass Fachleute markttransformierende Ereignisse früher und besser erkennen als andere Verfahren, werden Expertenbefragungen gelegentlich auch unterstützend zu anderen Methoden durchgeführt.

Ein Vorteil von Expertenbefragungen ist, dass sie auch in Momenten hoher Ungewissheit zu Ergebnissen führen. Vollständig unerprobter Preisstrategien oder neue Marktsituationen durch neue Wettbewerber oder veränderte Kundenbedürfnisse sind in der Regel nur mit Hilfe von Expertenurteilen abzubilden. Unklar ist aber, welchen Wert diese Ergebnisse haben, denn der mit unbekannten Situationen einhergehenden Unsicherheit sind auch die Experten ausgesetzt.

Darüber hinaus kämpfen Expertenbefragungen mit einer Reihe von Problemen: Es gelingt durch sie nicht, die Kundenperspektive mit einzubeziehen. Außerdem können Experten als Folge von systematisch falschen Annahmen oder lange gültigen, aber veralteten,Paradigmen falsche Schlüsse ziehen. Experten kommen außerdem häufig zu stark divergierenden Prognosen, die dann schwer vereinbar sind.

Insgesamt gilt, dass Expertenbefragungen für ein fortlaufendes Elastizitäten-Monitoring eher ungeeignet sind. Andere analytische Verfahren sind in höherer Frequenz und größerem Umfang durchführbar. In schnelllebigen Marktumfeldern oder für Akteure mit großen Produktsortimenten sind dies entscheidende Nachteile von Expertenbefragungen.

Kundenbefragungen

Bei direkten Befragungen werden Kunden durch Fragen wie „Zu welchem Preis würden Sie dieses Produkt gerade noch kaufen?“ zu ihrer Zahlungsbereitschaft befragt. Die Angaben werden genutzt, um Elastizitätswerte abzuleiten. Durch eine bewusste Fragekonstruktion oder eine gezielte Abfolge können zusätzliche Sachverhalte abgefragt werden. Die ergänzende Frage: „Ab welchem Preisunterschied würden Sie von Produkt X zu Produkt Y wechseln?” erlaubt beispielsweise die gezielte Abfrage von Kreuzelastizitäten zwischen spezifischen Substituten.

Direkte Befragungen sind in vielerlei Hinsicht schwierig. Insbesondere im Kontext von Konsumgütern mit einer Vielzahl an Produkten und Alternativen wird das Abfragen von Zahlungsbereitschaften aufwendig. Inhaltlich problematisch ist die fast zwingend isolierte Fokussierung auf die Preissetzung. Dies steht im Widerspruch zum eigentlichen Kaufprozess, der viel wahrscheinlicher einer Kosten-Nutzen-Abwägung entspricht. Studien weisen auch auf eine Diskrepanz zwischen tatsächlichem und in Umfragen bekundeten Verhalten hin.

Um diesen Problemen auszuweichen, wird daher häufig auf indirekte Befragungsmethoden in Form von Conjoint Analyse oder experimentelle Testdesigns zurückgegriffen. Durch diese Verfahren sollen die Kaufsituation und die Kundenentscheidung realistischer abgebildet werden, als dies durch Befragungen möglich ist. Diese alternativen Verfahren sind Thema des nächsten Beitrags. Daniel Lüttgau Daniel Lüttgau

Preiselastizität ist die praktikabelste und aussagekräftigste Metrik, um die im Preismanagement entscheidende Frage zu beantworten: Wie reagieren Kunden auf eine Preiserhöhung/Preissenkung um x Prozent? Auf der Basis dieser Kennzahl ist es möglich ein differenziertes Preismanagement aufzubauen. Immer im Blick: der Kunde.

Leider ist der Weg hinzu belastbaren Elastizitätswerten steinig. Es gibt in der Praxis viele Fallstricke und Besonderheiten, die, wenn nicht angemessen berücksichtigt, große Ungenauigkeiten bei der Bestimmung von Preiselastizität verursachen. Die Folge können folgenschwere Fehleinschätzungen sein. Diese Fallstricke aufzuzeigen ist das Ziel dieser Blog-Beitragsserie. Der Schwerpunkt dieses Beitrags liegt auf der Frage: Welche Faktoren beeinflussen auf welche Weise die Preiselastizität?

Viele intervenierende Einflussfaktoren

Auf die Beziehung zwischen Preis und Absatz wirken alle Aspekte des Verkaufsprozesses und des Marktes hinein. Die Zahl möglicher Einflussfaktoren und Wirkungszusammenhänge ist so groß und vielfältig, dass die Suche nach Vollständigkeit nicht zielführend sein kann. Es gibt keine Checkliste, die, wenn gewissenhaft abgearbeitet, garantiert, dass nun alle wichtigen Faktoren berücksichtigt wurden und dadurch robuste Elastizitätswerte abgeleitet werden können.

Um die Vielfältigkeit der Einflussfaktoren aufzuzeigen, habe ich hier eine Auswahl von häufig genannten Einflüssen bereitgestellt:

  • Informationen zu der Zahl der Wettbewerber, ihrer Relevanz, ihrer Preise und ihre Werbeaktionen
  • Informationen zu den eigenen Werbemaßnahmen: Welche Werbemaßnahmen gibt es? Was war Ihre Laufzeit? Wie wirken sich die Maßnahmen auf die Preisgestaltung aus (Couponaktionen etc.)? Sind die Maßnahmen individualisiert oder gemeingültig?
  • Informationen zum Standort: Online oder Offline? Alleinstehen oder in einem Einkaufszentrum? Stadt oder Land?
  • Informationen zu Konkurrenz- und Komplementärprodukten
  • Markeninformationen
  • Feiertage, Saisonalität und ggf. Informationen zu den Wochentagen, zu dem Zeitpunkt des Verkaufs oder gar zum Wetter bzw. zu Wettervorhersagen die zum Verkaufszeitpunkt galten

Es ist weder praktikabel noch möglich alle diese Faktoren in eine Modellierung zu integrieren. Hinzukommt, dass viele diese Faktoren in komplexen Wirkungszusammenhänge mit Preis und Absatz stehen. Zwei Beispiele sollen veranschaulichen, welche Komplexität schon mit der Modellierung einer einzelner Faktoren einhergehen kann:

Marken

Marken sind eines der zentralsten Marketinginstrumente. Erfolgreich umgesetzt, steigern Marken die Kundenloyalität und dienen Kunden als Qualitätsstandards. Diese Aspekte wirken in die Preissetzung hinein. Für etablierte Marken/Markenprodukte ist zu erwarten, dass die Kundereaktionen auf Preisveränderungen weniger stark ausfallen als beispielsweise bei Eigenmarken von Handelsketten. Unsere Praxiserfahrung bestätigt diese Annahme nur bedingt. Zwar haben Markenprodukte in der Regel höhere Preise als andere Produkte, doch insbesondere für Retailer leitet sich dadurch noch keine erhöhte Preisgestaltungsfreiheit ab. Markenprodukte werden von Kunden aktiver und bewusster recherchiert. In Märkten mit hoher Markttransparenz sind daher für Markenprodukte erhebliche Preisveränderungsreaktionen zu beobachten.

Produktlebenszyklus

Die wissenschaftliche Literatur kommt bei der Frage wie sich der Produktlebenszyklus auf Preiselastizität auswirkt zu ambivalente Aussagen. Die Annahmen bezüglich der Wirkungsweise von Produktlebenszyklen sind vielfältige. Ein neues Produkt mag relevante Vorteile mit sich bringen, so dass Kunden erst dann ein Preisbewusstsein entwickeln, wenn es entsprechende Konkurrenzprodukte gibt. Zur Zeit der Produkteinführung ist also eine geringe Preiselastizität vorzufinden, die mit der Zeit steigt. Andererseits lassen sich ebenso Produktkategorien finden die eine starke Produktdifferenzierung erfahren haben. Die Folge sind eine gesteigerte Kundenbindung und damit fast zwingend eine geringere Preiselastizität.

Insbesondere für Handelsunternehmen mit einem diversen Produktportfolio kann der Aspekt Produktlebenszyklus ein schwer zu überblickender Aspekt bei der Elastizitäten-Bestimmung sein. Dies bedeutet aber nicht, dass der Produktlebenszyklus unwichtig ist. Es bedeutet aus unserer Sicht nur, dass Produktlebenszyklen auf Grund ihrer vielfältigen potentiellen Wirkungsdynamiken ein analytisch anspruchsvoll zu erfassendes Konstrukt sind.

Welche Faktoren sollte man berücksichtigen?

Eine vollständige Liste aller möglichen Faktoren, die relevant sein können kenne ich nicht. Es kann sie auf Grund der Komplexität der Aufgabe und der vielfältigen Märkte auch nicht geben. Es gibt aber dennoch ein paar wichtige Orientierungspunkte, die hilfreich sein können. Abschließend daher ein paar Richtlinien:

  • Zielsetzung der Analyse: Wichtig ist es, im Voraus Klarheit über die Zielsetzungen zu schaffen mit der Elastizität bestimmt werden sollen. Geht es darum Elastizitäten für einzelne Produkt zu bestimmen oder für eine Marke? Wird eine Basis-Elastizität für ein Produkt gesucht oder geht es um Elastizitäten in speziellen Verkaufssituation wie etwa im Rahmen von Werbemaßnahme? Je nach Wunsch leiten sich unterschiedliche Minimalbedarfe bezüglich der zu berücksichtigenden Faktoren ab.
  • Datenverfügbarkeit: Ein offensichtliches, manchmal etwas ernüchterndes, aber sehr wichtiges Auswahlkriterium ist die Datenverfügbarkeit. Es ist ein hilfreicher Schritt sich am Anfang einen zumindest oberflächlichen Überblick über die verfügbaren Daten zu verschaffen. Häufig grenzt sich allein dadurch schon die Zahl der verwertbaren Variablen ein. Gleichzeitig kann dieser Schritt eine Quelle für viele neue und relevante Features sein. Dieser Punkt muss keinesfalls ernüchternd sein, sondern kann Anstoßpunkt für viele kreative Ideen werden.
  • Geschäftsfeld: In welchem Geschäftsfeld bewegt sich der Kunde und welche Charaktermerkmale machen seine Produkte aus? Handelt es sich um Business-to-Business oder Business-To-Consumer Transaktionen? Handelt es sich um kurzlebige Verbrauchsgüter oder langlebige Gebrauchsgüter? Handelt es sich bei dem Verbrauschgut um ein leicht lagerbares Gut oder eines das schnell verfällt? Der Austausch mit dem jeweiligen Projektpartner ist hier immer einer der ersten Arbeitsschritte. Hier liegt die Expertise.

Daniel Lüttgau Daniel Lüttgau

Preismanagement ist in den vergangenen Jahren zunehmend in den Fokus von Geschäftsführungen gerückt(1). Verbunden ist diese Entwicklung mit der Hoffnung, mit gezielter Preisgestaltung einen zentralen, aber vernachlässigten Profittreiber identifiziert zu haben. Tatsächlich bestätigen Experten, dass Preismanagement in der Vergangenheit häufig unter unzureichender Aufmerksamkeit gelitten hat (2,4). Unterentwickelte Preissetzungsexpertise und ausbaufähige Preisstrategien sind die Folge.

Die Bedeutung vom richtigen Preismanagement

Preise haben einen stärkeren Einfluss auf den Absatz als die meisten anderen Faktoren. Glaubt man entsprechenden Studien, haben Preissetzungsmaßnahmen eine erheblich stärkere Wirkungskraft als etwaige Steigerungen des Werbebudgets oder als Investitionen ins Vertriebspersonal(3). Preismanagement kann eine solche Wirkungskraft deshalb entfalten, weil Preisänderungen einen direkten und beinahe sofortigen Einfluss auf Umsatz, Absatz und Gewinn haben – dies ohne dabei zwingenderweise Veränderungen der Prozesse und Strukturen eines Unternehmens zu erfordern.

Unstrittig ist, dass Preismanagement das wohl sensibelste Instrument im Marketing-Werkzeugkasten eines Unternehmens ist. Anders als es durch eine neue Werbekampagne, Maßnahmen zur Kosteneinsparung oder gar innovative Veränderungen am Produkt möglich ist, erlauben z.B. Preissetzungsmaßnahmen eine beinahe unmittelbare Reaktion auf veränderte Marktsituationen. Und – auch das zeigen Studien – beim Kaufverhalten des Kunden stellt sich die Wirkung einer Preisveränderung schneller ein als es bei Werbemaßnahmen oder Produktneueinführungen der Fall ist (4). Darin liegen Risiko und Chance gleichermaßen.

Multi-Channel-Marketing und Vertrieb haben die Bedeutung des Preisemanagements in den vergangenen Jahren noch einmal potenziert. Kunden, Produzenten und Retailer befinden sich in einem merkwürdigen Limbo: Zum einen bietet das Internet Kunden nie zuvor dagewesene Möglichkeiten zum Preisvergleich und damit verbunden eine hohe Preistransparenz. Auf der anderen Seite bietet es Produzenten und Retailern durch differenzierte Marktinformationen und dynamische Preissetzungsstrategien bisher ungeahnte Möglichkeiten der Preisdifferenzierung. Die Vielschichtigkeit des Themas, die Fülle an ungenutzten Daten und Informationen und die dadurch wachsende Bedeutung von professionellem Preismanagements sind es, die so viele Kunden motivieren, an uns heranzutreten. Gemeinsam mit Ihnen entwickeln wir Analytics-Ansätze und bestimmen Metriken, mit denen Sie ein informationsgesteuertes Preismanagement entwickeln können.

Preiselastizität der Nachfrage

Regelmäßig fällt dabei der Fokus auf das Thema Preiselastizität der Nachfrage. Dieses Interesse an Preiselastizität hat, wie die Abb. 1(5) zeigt, seinen guten Grund: Preis und Marksituation bedingen zusammen mit den jeweiligen Produktmerkmalen das Verkaufsvolumen und damit alle anderen wesentlichen Geschäftskennzahlen. Dabei beschreibt Preiselastizität die praktikabelste und aussagekräftigste Metrik, um die im Preismanagement entscheidende Frage zu beantworten: Wie reagieren Kunden auf eine Preisehöhung/Preissenkung um x Prozent? Damit ist die entscheidende Komponente, die es beim Preismanagement zu verstehen gilt, der Kunde.

Das Maß der Preiselastizität reduziert die Frage bzgl. der Kundenreaktion auf eine einfach interpretierbare Kennzahl. Konkret beschreibt Preiselastizität der Nachfrage die relative Veränderung des Absatzes in Folge einer relativen Veränderung des Preises. Zum Beispiel: Ein Unternehmen erhöht seinen Preis um 10%. Sinkt der Absatz in der Folge ebenfalls um 10%, spricht man von einer Preiselastizität von -1. Sinkt der Absatz um 20%, so liegt die Elastizität bei -2. Dies ist intuitive und klar. Auf der Basis dieser Kennzahl ist es möglich ein differenziertes Preismanagement aufzubauen. Preiselastizität erlaubt es Entscheidungsträgern, Produkte miteinander zu vergleichen. In Kombination mit belastbaren Kosteninformationen bildet Preiselastizität die Grundlage für profit-optimale Preisbestimmung. Diese herausragende Stellung verdankt Preiselastizität u. a. ihrer „Dimensionsfreiheit“ (5). Preiselastizitätskennzahlen können über Marken, Produktgruppen, Kunden und Märkte hinweg verglichen werden. Dies legt die Grundlage für eine detaillierte Marktsegmentierung.

Wir haben in den vergangenen Jahren vielfältige Erfahrung mit dem Bestimmen von Preiselastizitäten anhand von Marktdaten gesammelt. Im Rahmen dieser Projekte galt es, das Informationspotential der Daten unserer Kunden so zu nutzen, dass es als Grundlage für die Verbesserung der Preisstrategie diente. Bei der Aufarbeitung der Daten rücken wir zwei Fragen in den Mittelpunkt:

  • Welche Faktoren beeinflussen auf welche Weise Preiselastizität?
  • Wie können wir Preiselastizität so bestimmen, dass sie um störende Einflussfaktoren und potentielle Messfehler bereinigt ist?

Diskussionsanstoß

Die Lösung ist keinesfalls trivial. Es wurden in der Empirie viele Fallstricke und Besonderheiten identifiziert, die, wenn nicht angemessen berücksichtigt, große Ungenauigkeiten bei der Bestimmung von Preiselastizität und daraus resultierende Fehleinschätzungen verursachen. Auch wenn man zu dem Thema eine umfassende, wenn auch kontroverse Literatur, vorfindet, so ist sie für die Lösung vieler Fragen unabdingbar und hilft beim Entdecken des richtigen Vorgehens. Doch die Praxis zeigt, dass die theoretischen Erkenntnisse die konkreten Bedürfnisse des Kunden nicht ausreichend und spezifisch genug erfüllen können. Die Daten, mit denen wir arbeiten, sind kundenspezifisch und jeder Auftrag stellt neue, individuelle Herausforderungen, für die es in der Wissenschaft keine fertigen Lösungen gibt.

In den kommenden Monaten soll es daher an dieser Stelle um die verschiedenen Aspekte und Herausforderungen gehen, die mit der Bestimmung und Anwendung der Preiselastizität zur Steuerung der Nachfrage einhergehen. Wir werden verschiedene Methoden und ihre Vor- und Nachteile diskutieren. Wie werden besprechen, wie man welche Einflussfaktoren berücksichtigen kann und welchen Einfluss sie haben. Und wir werden diskutieren, wie man die Ergebnisse nutzen kann, um daraus Business-Tools zu entwickeln, die ein besseres Preismanagement ermöglichen. An dieser Stelle wird es um die oben beschriebenen grundsätzlichen Ansätze und Konzepte gehen. Vielleicht werden auch Sie dazu motiviert, mehr aus Ihren Daten herauszuholen.

Referenzen

  1. Simon-Kucher & Partner (2016). Global Pricing Study 2016. Bonn.
  2. Rekettye, G. (2011). The increasing importance of pricing. In: Hetsi, E., Kürtösi, Zs. (eds), The diversity of research at the Szeged Institute of Business Studies. Szeged: JATEPress, 13-22
  3. Albers, S., Mantrala, M.K., Sridar, S. (2010). Personal Selling Elasticites: A Meta Analysis. Journal of Marketing Research, 47(5), 840-853.
  4. Simon, H., Fassnacht M. (2016). Preismanagement: Strategie, Analyse, Entscheidung, Umsetzung. (Auf. 4). Wiesbaden: Springer Gabler
  5. Friedel. E. (2014). Price Elasticity: Research on Magnitude and Determinants. Frankfurt am Main: Peter Lang

Daniel Lüttgau Daniel Lüttgau Daniel Lüttgau

Eine Hypothese ist eine empirisch überprüfbare Annahme über die Wirkungsbeziehung von zwei oder mehr Faktoren der realen und erfahrbaren Welt. Am Anfang eines jeden Forschungsprojektes stehen, außer einer klaren Fragestellung, die das Forschungsvorhaben leitet, stets auch eine oder mehrere Hypothesen. Erst dadurch kann eine systematische Forschungsarbeit gewährleistet werden.

Übersicht zu Hypothesen

Im Verlauf des Forschungsprojektes gilt es, die Richtigkeit der Hypothesen zu überprüfen. Die Hypothesen müssen also so formuliert sein, dass sie durch eine methodische Sammlung von geeigneten Daten und durch die anschließende systematische Auswertung der Daten auch tatsächlich falsifizierbar sind. Das heißt, die vermuteten Wirkungszusammenhänge der Hypothese sollen sich am Ende als reale Wirkungszusammenhänge erweisen und als plausible Erklärung für beobachtete Phänomene dienen.

Es ist also von großer Bedeutung, richtige Hypothesen zu erstellen und dieser wichtigen und komplexen „Vorarbeit“ der Forschung große Aufmerksamkeit und genügend Zeit zu widmen. Hypothesenbildung ist alles andere als eine lästige oder anspruchslose Pflichterfüllung. Gute und qualitativ hochwertige Hypothesenbildung ist eine echte Herausforderung und stellt eine wichtige Voraussetzung für am Ende wirksam nutzbare Ergebnisse dar.

In unseren Workshops und Projektberatungen stellen wir immer wieder fest, dass vielversprechende Studien und Forschungsprojekte bereits in diesem frühen Stadium der Hypothesenbildung ins Schleudern geraten. Auch wenn es uns vielfach durch Improvisationsgeschick und Erfahrung gelingt, Studienvorhaben unserer Kunden trotz mangelhafter Hypothesenbildung vor dem Entgleisen zu bewahren, so bleibt der gelegentliche „Totalschaden“ leider nicht aus.

Falsche Hypothesen können gravierende Folgefehler verursachen. Unbedachte Formulierungen können Hypothesen zu nicht überprüfbaren Theoriesackgassen werden lassen. Aufwendig gesammelte Daten können nichtig werden, weil bei der Hypothesenerstellung unbedacht vorgegangen wurde. Spannende und vielversprechende Forschungsprojekte dürfen nicht an ihren ungenauen oder falschen Hypothesen scheitern. Dies lässt sich recht leicht vermeiden!

In einer kleinen 5-schrittigen Anleitung wollen wir dir deshalb helfen, die größten Hürden bei der eigenständigen Hypothesenbildung zu nehmen. Ziel dieses Guides ist es, dich mit zentralen und realistischen Standards vertraut zu machen, dir pragmatische Lösungswege anzubieten, und dir ein grundlegendes Handwerkszeug für die effiziente Hypothesenbildung zur Verfügung zu stellen:

Schritt 1 – Bestimme die relevanten Variablen frühzeitig

Kläre, für welche Faktoren du dich interessierst. Überlegen dir sorgfältig, wie diese Faktoren am besten mit Daten dargestellt werden können. Lege für die zukünftige statistische Auswertung fest, welcher Faktor durch welche Variable im Datensatz repräsentiert werden soll. Es werden nur diese Faktoren in der statistischen Analyse berücksichtigt. Je besser die Variablen das zu erforschende Phänomen abbilden, desto aussagekräftigere Ergebnisse lassen sich durch die nachfolgende, statistische Analyse erzielen.

Tipp: Lass dich von der Arbeit anderer inspirieren und entdecke, wie deine Faktoren in früheren Studien gemessen wurden. Vielfach lassen sich früher erfasste Daten auch für andere (deine) Forschungsfragen verwenden. Dies spielt insbesondere dann eine Rolle, wenn du mit Skalen und Konstrukten arbeitest. Diese werden in der Regel sehr aufwändig entwickelt, getestet und validiert. Ein Prozess, den du im Rahmen deiner Arbeit wahrscheinlich nur schwer nachbilden kannst.

Schritt 2 – Formuliere eine allgemeine Hypothese

Eine Hypothese drückt stets eine vermutete Wirkungsbeziehung zwischen i.d.R. zwei ausgewählten Variablen dar. Dabei handelt es bei einer Variablen um eine unabhängige und bei der anderen um eine abhängige Variable. Zur Erinnerung: Die unabhängige Variable ist die Variable, von der angenommen wird, dass sie Auswirkungen auf die abhängige Variable hat.

Es ist für diesen Schritt nicht wichtig, besonders präzise oder detaillierte Formulierungen für die Variable zu finden. Wichtig ist aber, dass klar definiert ist, welche der beiden Variablen die abhängige und welche die unabhängige Variable ist!

Zwei Aspekte sind für die Hypothesenbildungen wichtig:

  • Pro Hypothese darf es nur eine abhängige Variable geben. Solltest du mehr abhängige Variable haben, gilt es nachzubessern. In den häufigsten Fällen kannst du das Problem dadurch lösen, dass du für jede der abhängigen Variablen eine eigene Hypothese formulierst.
  • Jede Hypothese sollte auch nur eine unabhängige Variable enthalten. Es gibt zwar Fälle, in denen auch zwei oder mehr Variablen sinnvoll sind, aber dies ist nur dann sinnvoll, wenn du ausdrücklich nach bestimmten Wirkungszusammenhängen zwischen mehreren unabhängigen Variablen suchen. Überlege dir gut, ob dies auf deinen Fall wirklich zutrifft. Viel öfter wird es fälschlich nur als bequemer angesehen, mehrere Hypothesen in einer zu bündeln. Tatsächlich führt dies aber zur Ergebnisunklarheit.

Schritt 3 – Bestimme die Wirkungsrichtung deiner Hypothese

Es ist üblich zwischen ungerichteten Hypothesen und gerichteten Hypothesen zu unterscheiden. Die allgemeinen Hypothesen, die du in Schritt 2 entwickelt hast, sind ungerichtete Hypothesen. Zur Erinnerung: Eine ungerichtete Hypothese besagt, dass eine Variable die andere Variable auf irgendeine Weise beeinflusst, sie besagt aber nicht, auf welche Weise dies geschieht. In diesem Schritt gilt es nun, die genaue Wirkungsrichtung deiner Hypothese zu bestimmen, d.h. deine Hypothese soll genau beschreiben, wie die unabhängige Variable die abhängige Variable beeinflusst.

Auch wenn es Forschungsprojekte gibt, in denen ungerichtete Hypothesen ausreichen, so sind gerichtete Hypothese fast immer die bessere Wahl. Falls deine Theorie und /oder die zugrundlegende Literatur eine Grundlage dafür bieten, nutze die Gelegenheit, denn gerichtete Hypothesen haben eine deutlich höhere Informationskraft als ungerichtete. Dein Forschungsprojekt gewinnt deshalb an Gewicht, wenn es dir gelingt, gerichtete Hypothesen aufzustellen.

Schritt 4 – Stelle die Testbarkeit deiner Hypothesen sicher

Die in deiner Hypothese dargestellte Wirkungsbeziehung muss in der realen Welt getestet werden, sie muss also beobachtbar und zumindest indirekt messbar sein. Falls dies nicht gewährleistet ist, muss die Hypothese unbedingt noch einmal überarbeitet werden.

Folgende beiden Indikatoren eignen sich gut, die Testbarkeit deiner Hypothesen zu überprüfen:

  • Lege pro Hypothese genau die Grundgesamtheit (der Personen oder Dinge) fest, über die du neue Erkenntnisse erlangen willst.
  • Stelle für jede deiner Hypothesen eine sogenannte Nullhypothese auf. Deine bisherigen Hypothesen beinhalteten immer genau die Annahme, die dich eigentlich interessiert. Die Nullhypothese hingegen steht für die Annahme, die du widerlegen willst.

Formuliere also die Annahme, die du wiederlegen möchtest. Gehe dabei genauso sorgfältig vor, wie bei deinen ursprünglichen Hypothesen. Wenn du die Grundgesamtheit und Nullhypothese genau benennen kannst, dann bist du auf einem guten Weg.

Schritt 5 – Formuliere und bezeichne deine Hypothesen professionell

Alle Formulierungen der Hypothesen werden zunächst noch einmal überarbeitet und weiter konkretisiert. Als Faustregel gilt dabei: Formuliere den Wirkungszusammenhang zwischen abhängiger und unabhängiger Variable so detailliert wie nötig und so einfach wie möglich. Abschließend nummerierst du deine Hypothesen systematisch durch. Jede Hypothese wird mit dem Buchstaben „H“, einer Zahl sowie einem Doppelpunkt gekennzeichnet (z.B. „H1:, H2:, H3:, …“).

Zusammenfassung

In diesem Guide haben wir dir einige wichtige Tipps zur Formulierung von Hypothesen gegeben. Diese sind als „Best-Practice“ zu verstehen und können natürlich in besonderen Situationen an dein Forschungsvorhaben angepasst werden. Falls du Hilfe bei der Erstellung deiner Hypothesen benötigst, steht dir unser Statistik Team gerne zur Verfügung. Daniel Lüttgau Daniel Lüttgau

Eine Hypothese ist eine empirisch überprüfbare Annahme über die Wirkungsbeziehung von zwei oder mehr Faktoren der realen und erfahrbaren Welt. Am Anfang eines jeden Forschungsprojektes stehen, außer einer klaren Fragestellung, die das Forschungsvorhaben leitet, stets auch eine oder mehrere Hypothesen. Erst dadurch kann eine systematische Forschungsarbeit gewährleistet werden.

Übersicht zu Hypothesen

Im Verlauf des Forschungsprojektes gilt es, die Richtigkeit der Hypothesen zu überprüfen. Die Hypothesen müssen also so formuliert sein, dass sie durch eine methodische Sammlung von geeigneten Daten und durch die anschließende systematische Auswertung der Daten auch tatsächlich falsifizierbar sind. Das heißt, die vermuteten Wirkungszusammenhänge der Hypothese sollen sich am Ende als reale Wirkungszusammenhänge erweisen und als plausible Erklärung für beobachtete Phänomene dienen.

Es ist also von großer Bedeutung, richtige Hypothesen zu erstellen und dieser wichtigen und komplexen „Vorarbeit“ der Forschung große Aufmerksamkeit und genügend Zeit zu widmen. Hypothesenbildung ist alles andere als eine lästige oder anspruchslose Pflichterfüllung. Gute und qualitativ hochwertige Hypothesenbildung ist eine echte Herausforderung und stellt eine wichtige Voraussetzung für am Ende wirksam nutzbare Ergebnisse dar.

In unseren Workshops und Projektberatungen stellen wir immer wieder fest, dass vielversprechende Studien und Forschungsprojekte bereits in diesem frühen Stadium der Hypothesenbildung ins Schleudern geraten. Auch wenn es uns vielfach durch Improvisationsgeschick und Erfahrung gelingt, Studienvorhaben unserer Kunden trotz mangelhafter Hypothesenbildung vor dem Entgleisen zu bewahren, so bleibt der gelegentliche „Totalschaden“ leider nicht aus.

Falsche Hypothesen können gravierende Folgefehler verursachen. Unbedachte Formulierungen können Hypothesen zu nicht überprüfbaren Theoriesackgassen werden lassen. Aufwendig gesammelte Daten können nichtig werden, weil bei der Hypothesenerstellung unbedacht vorgegangen wurde. Spannende und vielversprechende Forschungsprojekte dürfen nicht an ihren ungenauen oder falschen Hypothesen scheitern. Dies lässt sich recht leicht vermeiden!

In einer kleinen 5-schrittigen Anleitung wollen wir dir deshalb helfen, die größten Hürden bei der eigenständigen Hypothesenbildung zu nehmen. Ziel dieses Guides ist es, dich mit zentralen und realistischen Standards vertraut zu machen, dir pragmatische Lösungswege anzubieten, und dir ein grundlegendes Handwerkszeug für die effiziente Hypothesenbildung zur Verfügung zu stellen:

Schritt 1 – Bestimme die relevanten Variablen frühzeitig

Kläre, für welche Faktoren du dich interessierst. Überlegen dir sorgfältig, wie diese Faktoren am besten mit Daten dargestellt werden können. Lege für die zukünftige statistische Auswertung fest, welcher Faktor durch welche Variable im Datensatz repräsentiert werden soll. Es werden nur diese Faktoren in der statistischen Analyse berücksichtigt. Je besser die Variablen das zu erforschende Phänomen abbilden, desto aussagekräftigere Ergebnisse lassen sich durch die nachfolgende, statistische Analyse erzielen.

Tipp: Lass dich von der Arbeit anderer inspirieren und entdecke, wie deine Faktoren in früheren Studien gemessen wurden. Vielfach lassen sich früher erfasste Daten auch für andere (deine) Forschungsfragen verwenden. Dies spielt insbesondere dann eine Rolle, wenn du mit Skalen und Konstrukten arbeitest. Diese werden in der Regel sehr aufwändig entwickelt, getestet und validiert. Ein Prozess, den du im Rahmen deiner Arbeit wahrscheinlich nur schwer nachbilden kannst.

Schritt 2 – Formuliere eine allgemeine Hypothese

Eine Hypothese drückt stets eine vermutete Wirkungsbeziehung zwischen i.d.R. zwei ausgewählten Variablen dar. Dabei handelt es bei einer Variablen um eine unabhängige und bei der anderen um eine abhängige Variable. Zur Erinnerung: Die unabhängige Variable ist die Variable, von der angenommen wird, dass sie Auswirkungen auf die abhängige Variable hat.

Es ist für diesen Schritt nicht wichtig, besonders präzise oder detaillierte Formulierungen für die Variable zu finden. Wichtig ist aber, dass klar definiert ist, welche der beiden Variablen die abhängige und welche die unabhängige Variable ist!

Zwei Aspekte sind für die Hypothesenbildungen wichtig:

Schritt 3 – Bestimme die Wirkungsrichtung deiner Hypothese

Es ist üblich zwischen ungerichteten Hypothesen und gerichteten Hypothesen zu unterscheiden. Die allgemeinen Hypothesen, die du in Schritt 2 entwickelt hast, sind ungerichtete Hypothesen. Zur Erinnerung: Eine ungerichtete Hypothese besagt, dass eine Variable die andere Variable auf irgendeine Weise beeinflusst, sie besagt aber nicht, auf welche Weise dies geschieht. In diesem Schritt gilt es nun, die genaue Wirkungsrichtung deiner Hypothese zu bestimmen, d.h. deine Hypothese soll genau beschreiben, wie die unabhängige Variable die abhängige Variable beeinflusst.

Auch wenn es Forschungsprojekte gibt, in denen ungerichtete Hypothesen ausreichen, so sind gerichtete Hypothese fast immer die bessere Wahl. Falls deine Theorie und /oder die zugrundlegende Literatur eine Grundlage dafür bieten, nutze die Gelegenheit, denn gerichtete Hypothesen haben eine deutlich höhere Informationskraft als ungerichtete. Dein Forschungsprojekt gewinnt deshalb an Gewicht, wenn es dir gelingt, gerichtete Hypothesen aufzustellen.

Schritt 4 – Stelle die Testbarkeit deiner Hypothesen sicher

Die in deiner Hypothese dargestellte Wirkungsbeziehung muss in der realen Welt getestet werden, sie muss also beobachtbar und zumindest indirekt messbar sein. Falls dies nicht gewährleistet ist, muss die Hypothese unbedingt noch einmal überarbeitet werden.

Folgende beiden Indikatoren eignen sich gut, die Testbarkeit deiner Hypothesen zu überprüfen:

Formuliere also die Annahme, die du wiederlegen möchtest. Gehe dabei genauso sorgfältig vor, wie bei deinen ursprünglichen Hypothesen. Wenn du die Grundgesamtheit und Nullhypothese genau benennen kannst, dann bist du auf einem guten Weg.

Schritt 5 – Formuliere und bezeichne deine Hypothesen professionell

Alle Formulierungen der Hypothesen werden zunächst noch einmal überarbeitet und weiter konkretisiert. Als Faustregel gilt dabei: Formuliere den Wirkungszusammenhang zwischen abhängiger und unabhängiger Variable so detailliert wie nötig und so einfach wie möglich. Abschließend nummerierst du deine Hypothesen systematisch durch. Jede Hypothese wird mit dem Buchstaben „H“, einer Zahl sowie einem Doppelpunkt gekennzeichnet (z.B. „H1:, H2:, H3:, …“).

Zusammenfassung

In diesem Guide haben wir dir einige wichtige Tipps zur Formulierung von Hypothesen gegeben. Diese sind als „Best-Practice“ zu verstehen und können natürlich in besonderen Situationen an dein Forschungsvorhaben angepasst werden. Falls du Hilfe bei der Erstellung deiner Hypothesen benötigst, steht dir unser Statistik Team gerne zur Verfügung. Daniel Lüttgau Daniel Lüttgau