Data Science, Machine Learning und KI
Kontakt

Einleitung

Jeder Data-Science- und KI-Experte wird Ihnen sagen: Reale Data Science und KI-Initiativen bringen verschiedene Herausforderungen mit sich, auf die weder praktische Programmierwettbewerbe noch theoretische Vorlesungen vorbereiten können. Und manchmal – erschreckend oft [1, 2] – führen diese Probleme in der Praxis dazu, dass vielversprechende KI-Projekte oder ganze KI-Initiativen scheitern. Seit geraumer Zeit wird eine rege Diskussion über die eher technischen Fallstricke und mögliche Lösungen geführt. Zu den bekannteren Problemen gehören z. B. isolierte Daten, schlechte Datenqualität, zu unerfahrene oder unterbesetzte DS & KI-Teams, unzureichende Infrastruktur für das Training und die Bereitstellung von Modellen. Ein weiteres Problem ist, dass zu viele Lösungen aufgrund organisatorischer Probleme nie in die Produktion überführt werden.

Erst in letzter Zeit hat sich der Fokus des Diskurses mehr auf strategische Fragen verlagert. Meiner Meinung nach wird diesen Aspekten jedoch immer noch nicht die Aufmerksamkeit zuteil, die sie verdienen.

Deshalb möchte ich in diesem Beitrag meine Meinung zu den wichtigsten (nicht-technischen) Gründen für das Scheitern von DS & KI-Initiativen darlegen. Darüber hinaus werde ich Ihnen verschiedene Ansätze zur Lösung dieser Probleme vorstellen. Ich bin Data & Strategy Consultant bei STATWORX und ich bin sicher, dass dieser Artikel eher subjektiv ist. Er spiegelt meine persönlichen Erfahrungen mit den Problemen und Lösungen wider, auf die ich gestoßen bin. 

Problem Nr. 1: Mangelnde Verknüpfung von Projektumfang und tatsächlichem Business-Problem Problem 1

Ein Problem, das viel häufiger auftritt, als man denken würde, ist die Fehlanpassung der entwickelten Data Science und KI-Lösungen an die tatsächlichen Geschäftsbedürfnisse. Das fertige Produkt erfüllt vielleicht genau die Aufgabe, die das DS- und KI-Team lösen wollte, aber die Anwender:innen suchen eventuell nach einer Lösung für eine ähnliche, aber deutlich andere Aufgabe.

Zu wenig Austausch durch indirekte Kommunikationskanäle oder das Fehlen einer gemeinsamen Sprache und eines gemeinsamen Referenzrahmens führt oft zu grundlegenden Missverständnissen. Das Problem ist, dass ironischerweise nur eine extrem detaillierte, effektive Kommunikation solche subtilen Probleme aufdecken kann.

Die Einbeziehung zu weniger oder selektiver Perspektiven kann zu einem bösen Erwachen führen

In anderen Fällen unterscheiden sich einzelne Teilprozesse oder die Arbeitsweisen einzelner Nutzenden sehr stark. Oft sind sie so unterschiedlich, dass eine Lösung, die für einen der Anwender:innen/Prozesse von großem Nutzen ist, für alle anderen kaum Vorteile bringt (die Entwicklung von Lösungsvarianten ist zwar manchmal eine Option, aber bei weitem nicht so kosteneffizient).

Wenn Sie Glück haben, stellen Sie dies bereits zu Beginn eines Projekts bei der Erhebung der Anforderungen fest. Wenn man Pech hat, kommt das böse Erwachen erst beim breiteren Nutzertest oder gar bei der Einführung, wenn sich herausstellt, dass die Nutzer:innen oder Expert:innen, die die bisherige Entwicklung beeinflusst haben, keinen allgemeingültigen Input geliefert haben und das entwickelte Werkzeug daher nicht allgemein einsetzbar ist.

Wie Sie diesem Problem entgegenwirken können:

  • Führen Sie ein strukturiertes und gründliches Requirements Engineering durch. Nehmen Sie sich die Zeit, mit so vielen Expert:innen und Nutzer:innen wie möglich zu sprechen, und versuchen Sie, alle impliziten Annahmen so explizit wie möglich zu machen. Obwohl das Requirements Engineering aus dem Wasserfall-Paradigma stammt, kann es leicht für die agile Entwicklung angepasst werden. Die ermittelten Anforderungen dürfen einfach nicht als endgültige Produktmerkmale verstanden werden, sondern als Elemente für Ihr anfängliches Backlog, die ständig (neu) bewertet und (neu) priorisiert werden müssen.
  • Definieren Sie unbedingt Erfolgsmessungen. Tun Sie dies vor Projektbeginn, am besten in Form von objektiv quantifizierbaren KPIs und Benchmarks. Dies trägt wesentlich dazu bei, das Geschäftsproblem bzw. den Geschäftswert, der der angestrebten Lösung zugrunde liegt, zu ermitteln.
  • Erstellen Sie, wann immer möglich und so schnell wie möglich, Prototypen, Mock-ups oder sogar Storyboards. Präsentieren Sie diese Lösungsentwürfe so vielen Testnutzern wie möglich. Diese Methoden erleichtern das Einholen von offenem und präzisem Nutzerfeedback, das in die weitere Entwicklung einfließt. Achten Sie darauf, dass Sie eine für die Gesamtheit der Nutzer repräsentative Stichprobe einbeziehen.

Problem Nr. 2: Effizienz- und Ressourcenverluste durch nicht strukturierte Data Science- und KI-Maßnahmen Problem 2

Dezentralisierte Data Science- & KI-Teams entwickeln ihre Anwendungsfälle oft mit wenig bis gar keinem Austausch oder Abgleich zwischen den aktuellen Anwendungsfällen und Backlogs der Teams. Dies kann dazu führen, dass verschiedene Teams versehentlich und unbemerkt (Teile) der gleichen (oder sehr ähnlichen) Lösung entwickeln.

In den meisten Fällen wird, wenn eine solche Situation entdeckt wird, eine der redundanten DS & KI-Lösungen eingestellt oder es werden keine zukünftigen Mittel für die weitere Entwicklung oder Wartung bereitgestellt. So oder so, die redundante Entwicklung von Anwendungsfällen führt immer zu einer direkten Verschwendung von Zeit und anderen Ressourcen ohne oder mit nur minimalem Zusatznutzen.

Problematisch ist auch die fehlende Abstimmung des Use Case Portfolios eines Unternehmens auf die allgemeine Geschäfts- oder KI-Strategie. Dies kann hohe Opportunitätskosten verursachen: Anwendungsfälle, die nicht zur allgemeinen KI-Vision beitragen, können unnötigerweise wertvolle Ressourcen blockieren. Außerdem werden potenzielle Synergien zwischen strategisch wichtigeren Anwendungsfällen (Use Cases) möglicherweise nicht voll ausgeschöpft. Und schließlich könnte der Aufbau von Kompetenzen in Bereichen erfolgen, die von geringer oder gar keiner strategischen Bedeutung sind.

Wie Sie diesem Problem entgegenwirken können:

  • Kommunikation ist der Schlüssel. Deshalb sollte es immer eine Reihe von Möglichkeiten für die Data-Science-Expert:innen innerhalb eines Unternehmens geben, sich zu vernetzen und ihre Erfahrungen und Best Practices auszutauschen – insbesondere bei dezentralen DS & KI-Teams. Damit dies funktioniert, ist es wichtig, eine Arbeitsatmosphäre der Zusammenarbeit zu schaffen. Der freie Austausch von Erfolgen und Misserfolgen und damit die interne Verbreitung von Kompetenzen kann nur ohne Konkurrenzdenken gelingen.
  • Eine weitere Möglichkeit, das Problem zu entschärfen, ist die Einrichtung eines zentralen Ausschusses, der mit der Verwaltung des DS und KI Use Case Portfolios der Organisation betraut ist. Diesem Ausschuss sollten Vertreter:innen aller (dezentralen) Data Science und KI-Abteilungen sowie der Geschäftsleitung angehören. Gemeinsam überwacht der Ausschuss die Abstimmung von Use Cases und der KI-Strategie, um Redundanzen zu vermeiden und Synergien voll auszuschöpfen.

Problem Nr. 3: Unrealistisch hohe Erwartungen an den Erfolg von Data Science und KI Problem 3

Es mag paradox klingen, aber ein zu großer Optimismus in Bezug auf die Möglichkeiten und Fähigkeiten von Data Science und KI kann dem Erfolg abträglich sein. Denn zu optimistische Erwartungen führen oft dazu, dass die Anforderungen unterschätzt werden, wie z. B. die für die Entwicklung benötigte Zeit oder der Umfang und die Qualität der benötigten Datenbasis.

Gleichzeitig sind die Erwartungen in Bezug auf die Modellgenauigkeit oft zu hoch, ohne dass man die Grenzen des Modells und die grundlegenden Mechanismen von Machine Learning kennt. Diese Unerfahrenheit kann dazu führen, dass viele wichtige Tatsachen nicht erkannt werden, einschließlich, aber nicht beschränkt auf die folgenden Punkte: die unvermeidliche Extrapolation historischer Muster auf die Zukunft; die Tatsache, dass externe Paradigmenwechsel oder Schocks die Generalisierbarkeit und Leistung von Modellen gefährden; die Komplexität der Harmonisierung von Vorhersagen mathematisch nicht verwandter Modelle; die geringe Interpretierbarkeit naiver Modelle oder die Dynamik der Modellspezifikationen aufgrund von Umschulungen.

DS & KI sind einfach keine Wunderwaffe, und zu hohe Erwartungen können dazu führen, dass die Begeisterung in tiefe Ablehnung umschlägt. Die anfänglichen Erwartungen werden fast zwangsläufig nicht erfüllt und weichen daher oft einer tiefgreifenden und undifferenzierten Ablehnung von DS & KI. Dies kann in der Folge dazu führen, dass weniger auffällige, aber nützliche Anwendungsfälle keine Unterstützung mehr finden.

Wie Sie diesem Problem entgegenwirken können:

  • Versuchen Sie in Ihrer Kommunikation mit Stakeholdern stets realistische Perspektiven zu vermitteln. Achten Sie darauf, eindeutige Botschaften und objektive KPIs zu verwenden, um Erwartungen zu steuern und Bedenken so offen wie möglich anzusprechen.
  • Die Weiterbildung der Stakeholder und des Managements in den Grundlagen von Machine Learning und KI versetzt sie in die Lage, realistischere Einschätzungen und damit sinnvollere Entscheidungen zu treffen. Technisch fundiertes Wissen ist oft nicht notwendig. Konzeptuelles Fachwissen auf einem relativ hohen Abstraktionsniveau ist ausreichend (und glücklicherweise viel leichter zu erlangen).
  • Schließlich sollte, wann immer möglich, ein PoC vor einem vollwertigen Projekt durchgeführt werden. Dies ermöglicht es, empirische Hinweise auf die Durchführbarkeit des Use Cases zu sammeln und hilft bei der realistischen Einschätzung der erwarteten Leistung, die anhand relevanter (vordefinierter!) KPIs gemessen wird. Wichtig ist es auch, die Ergebnisse solcher Tests ernst zu nehmen. Bei einer negativen Prognose sollte nie einfach davon ausgegangen werden, dass sich mit mehr Zeit und Aufwand alle Probleme des PoC in Luft auflösen werden.

Problem Nr. 4: Ressentiments und grundsätzliche Ablehnung von Data Science und KI Problem 4

Eine unsichtbare, aber nicht zu unterschätzende Hürde liegt in den Köpfen der Menschen. Dies gilt sowohl für die Belegschaft als auch für das Management. Oft werden vielversprechende Data Science und KI-Initiativen aufgrund von tief verwurzelten, aber undifferenzierten Vorbehalten ausgebremst. Das richtige Mindset ist entscheidend.

Obwohl DS und KI in aller Munde sind, fehlt es in vielen Unternehmen noch an echtem Management-Engagement. Häufig werden zwar Lippenbekenntnisse zu DS & KI abgegeben und erhebliche Mittel investiert, aber die Vorbehalte gegenüber KI bleiben bestehen.

Begründet wird dies oft mit den inhärenten Verzerrungen und Unsicherheiten von KI-Modellen und ihrer geringen direkten Interpretierbarkeit. Hinzu kommt manchmal eine generelle Abneigung, Erkenntnisse zu akzeptieren, die nicht mit der eigenen Intuition übereinstimmen. Die Tatsache, dass die menschliche Intuition oft viel stärkeren – und im Gegensatz zu KI-Modellen nicht quantifizierbaren – Verzerrungen unterliegt, wird in der Regel ignoriert.

Data Science & KI-Initiativen brauchen die Akzeptanz und Unterstützung der Belegschaft

Dies führt dazu, dass (Entscheidungs-)Prozesse und Organisationsstrukturen (z.B. Rollen, Verantwortlichkeiten) nicht so angepasst werden, dass DS & KI-Lösungen ihren (vollen) Nutzen entfalten können. Dies wäre aber notwendig, denn Data Science & KI ist nicht einfach eine weitere Softwarelösung, die sich nahtlos in bestehende Strukturen integrieren lässt.

DS & KI ist eine disruptive Technologie, die unweigerlich ganze Branchen und Organisationen umgestalten wird. Unternehmen, die sich diesem Wandel verweigern, werden auf lange Sicht wahrscheinlich genau an diesem Paradigmenwechsel scheitern. Die Ablehnung des Wandels beginnt bei scheinbaren Kleinigkeiten, wie der Umstellung des Projektmanagements von der Wasserfallmethode auf eine agile, iterative Entwicklung. Ungeachtet der allgemein positiven Aufnahme bestimmter Veränderungsmaßnahmen wird manchmal eine völlig irrationale Ablehnung der Reform bestehender (noch) funktionierender Prozesse festgestellt. Dabei wäre genau das notwendig, um – zugegebenermaßen erst nach einer Phase der Neujustierung – langfristig wettbewerbsfähig zu sein.

Während Vision, Strategie und Strukturen von oben nach unten verändert werden müssen, kann das operative Tagesgeschäft nur von unten nach oben, durch die Mitarbeitenden, revolutioniert werden. Das Engagement des Managements und das beste Werkzeug der Welt sind nutzlos, wenn die Endnutzer:innen nicht in der Lage oder willens sind, es anzunehmen. Die allgemeine Unsicherheit über die langfristige KI-Roadmap und die Angst, durch Maschinen ersetzt zu werden, schüren Ängste, die dazu führen, dass DS & KI-Lösungen nicht in den Arbeitsalltag integriert werden. Dies ist natürlich mehr als problematisch, da nur die (richtige) Anwendung von KI-Lösungen einen Mehrwert schafft.

Wie Sie diesem Problem entgegenwirken können:

  • Es überrascht nicht, dass ein solides Change Management der beste Ansatz ist, um die KI-feindliche Denkweise zu entschärfen. Dies sollte nicht nur ein nachträglicher Gedanke, sondern ein integraler Bestandteil jeder DS & KI-Initiative und es sollten Verantwortlichkeiten für diese Aufgabe zugewiesen werden. Eine frühzeitige, umfassende, detaillierte und klare Kommunikation ist unerlässlich. Welche Schritte werden voraussichtlich wann und wie genau umgesetzt? Denken Sie daran, dass es schwer ist, einmal verlorenes Vertrauen wiederzugewinnen. Daher sollten alle Unklarheiten in der Planung angesprochen werden. Entscheidend ist es, bei allen Beteiligten ein Grundverständnis für die Sache zu schaffen und die Notwendigkeit der Veränderung zu verdeutlichen (z.B. weil sonst die Wettbewerbsfähigkeit gefährdet ist, Erfolgsgeschichten oder Misserfolge der Konkurrenz). Darüber hinaus ist der Dialog mit den Betroffenen von großer Bedeutung. Feedback sollte frühzeitig eingeholt und nach Möglichkeit umgesetzt werden. Bedenken sollten immer gehört und respektiert werden, auch wenn sie nicht berücksichtigt werden können. Falsche Versprechungen sind jedoch strikt zu vermeiden; stattdessen sollte man versuchen, die Vorteile von DS & KI in den Vordergrund zu stellen.
  • Neben der Einsicht in die Notwendigkeit von Veränderungen ist auch die grundsätzliche Fähigkeit zur Veränderung wichtig. Die Angst vor dem Unbekannten oder Unverständlichen ist uns Menschen inhärent. Daher kann Bildung – nur auf dem für die jeweilige Rolle notwendigen Abstraktions- und Tiefenniveau – einen großen Unterschied machen. Entsprechende Schulungsmaßnahmen sind keine einmalige Angelegenheit; der Aufbau von aktuellem Wissen und die Ausbildung im Bereich Data Science & KI müssen langfristig sichergestellt werden. Die allgemeine Datenkompetenz der Belegschaft muss ebenso sichergestellt werden, wie die Auf- oder Umschulung von technischen Expert:innen. Die Mitarbeitenden müssen eine realistische Chance erhalten, neue und attraktivere Beschäftigungsmöglichkeiten zu erhalten, indem sie sich weiterbilden und sich mit DS & KI beschäftigen. Das wahrscheinlichste Ergebnis sollte niemals sein, dass sie durch DS & KI ihren alten Arbeitsplatz (teilweise) verlieren, sondern muss als Chance und nicht als Gefahr wahrgenommen werden; Data Science & KI müssen Perspektiven schaffen und dürfen sie nicht verderben.
  • Übernehmen oder adaptieren Sie die Best Practices von DS & KI-Führungskräften in Bezug auf die Definition von Rollen- und Kompetenzprofilen, die Anpassung von Organisationsstrukturen und Wertschöpfungsprozessen. Bewährte Ansätze können als Blaupause für die Reformierung Ihrer Organisation dienen und so sicherstellen, dass Sie auch in Zukunft wettbewerbsfähig bleiben.

Schlussbemerkungen

Wie Sie vielleicht bemerkt haben, bietet dieser Blogbeitrag keine einfachen Lösungen. Das liegt daran, dass die Probleme, um die es hier geht, komplex und mehrdimensional sind. Dieser Artikel hat high-level Ansätze zur Entschärfung der angesprochenen Probleme geliefert, aber es muss betont werden, dass diese Probleme einen ganzheitlichen Lösungsansatz erfordern. Dies erfordert eine klare KI-Vision und eine daraus abgeleitete solide KI-Strategie, nach der die Vielzahl der notwendigen Maßnahmen koordiniert und gesteuert werden kann.

Deshalb muss ich betonen, dass wir das Stadium, in dem experimentelle und unstrukturierte Data Science und KI-Initiativen erfolgreich sein können, längst verlassen haben. DS & KI darf nicht als technisches Thema behandelt werden, das ausschließlich in Fachabteilungen stattfindet. Es ist an der Zeit, KI als strategisches Thema anzugehen. Wie bei der digitalen Revolution werden nur Organisationen, in denen KI das Tagesgeschäft und die allgemeine Geschäftsstrategie vollständig durchdringt und reformiert, langfristig erfolgreich sein. Wie oben beschrieben, birgt dies zweifelsohne viele Fallstricke, stellt aber auch eine unglaubliche Chance dar.

Wenn Sie bereit sind, diese Veränderungen zu integrieren, aber nicht wissen, wo Sie anfangen sollen, helfen wir von STATWORX Ihnen gerne. Besuchen Sie unsere Website und erfahren Sie mehr über unser Angebot im Bereich AI Strategy!

Quellen

[1] https://www.forbes.com/sites/forbestechcouncil/2020/10/14/why-do-most-ai-projects-fail/?sh=2f77da018aa3 [2] https://blogs.gartner.com/andrew_white/2019/01/03/our-top-data-and-analytics-predicts-for-2019/

Lea Waniek

Lea Waniek

Im vorherigen Beitrag zur logistischen Regression wurde aufgezeigt, dass die absoluten Koeffizienten innerhalb logistischer Regressionsmodelle aufgrund ihrer Bezugseinheiten kaum verständlich zu interpretieren sind. Eine weitere Schwierigkeit bei der Interpretation logistischer Regressionsgewichte wurde bisher noch nicht explizit thematisiert: Der Effekt einer Erhöhung einer unabhängigen Variable um eine Einheit auf die Ausprägung der AV, der sogenannte marginale Effekt, ist in der logistischen Regression immer auch durch die genauen Ausprägung der betrachteten unabhängigen Variable, sowie aller anderen unabhängigen Variablen bedingt.

Schätzung auf Umwegen

Dies ist darauf zurückzuführen, dass die Auftrittswahrscheinlichkeit einer betrachteten Ausprägung einer kategorialen abhängigen Variable in der logistischen Regression in nichtlinearer Weise, sozusagen über einen Zwischenschritt, geschätzt wird: Im Prinzip wird in einem ersten Schritt über ein gewöhnliches lineares Modell die Ausprägung einer nicht beobachtbaren Variable, einer sogenannten latenten Variable, modelliert. Diese spiegelt die „Neigung “ für das Auftreten der betrachteten Kategorie der abhängigen Variable wieder. (Das Auftreten der interessierenden Kategorie der abhängigen Variable wird gängiger Weise als y = 1 notiert.)

y_{l} =beta_{ 0 }+beta_{ 1 }x_{ 1 } + ... + beta_{ n }x_{ n }

Das logistische Regressionsmodell trifft nun die Annahme, dass die beobachtbare kategoriale Variable die jeweilige Ausprägung von Interesse annimmt, wenn die latente Variable den arbiträr gewählten Schwellenwert von 0 überschreitet. Die modellierten Ausprägungen der latenten Variable und die assoziierten Regressionsgewichte der unabhängigen Variablen aus dem linearen Modell müssen transformiert werden, um die Auftrittswahrscheinlichkeit der interessierenden Ausprägung der abhängigen Variable zu bestimmen. Für diese Transformation muss die Verteilung der Schätz-Fehler bekannt sein. Innerhalb des logistischen Regressionsmodells wird angenommen, dass die Fehler einer logistischen Verteilung folgen. Da nicht nur die funktionale Form, sondern die genaue Verteilung der Fehler bekannt sein muss, werden die nicht schätzbare Varianz der Fehler-Verteilung sowie ihr bedingter Erwartungswert auf die Werte  sigma^{ 2 } =pi^{ 2 } / 3 und  E(epsilon|x) = 0 fixiert. Es ergibt sich die Grundgleichung des logistischen Modells:

 P(y = 1| x) = frac{ e^{beta_{ 0 }+beta_{ 1 }x_{1} + ... + beta_{ n }x_{ n }} }{ 1 + e^{beta_{ 0 }+beta_{ 1 }x_{ 1 } + ... + beta_{ n }x_{ n }} } = frac{e^ { x'beta } }{ 1 + e^{x'beta} } = frac{ e^{Logit} }{ 1 + e^{Logit} }

Aus dieser Schätzmethode und Transformation folgt/resultiert, dass logistische Regressionskoeffizienten den linearen Zusammenhang zwischen den unabhängigen Variablen und der latenten Variable, beziehungsweise den Logits, beziehungsweise logarithmierten Odds Ratios, für die betrachtete Merkmalsausprägung der abhängigen Variablen wiedergeben. Die Beziehung von Logits, Odds Ratios und Regressionskoeffizienten zu Auftritts-Wahrscheinlichkeiten der Ausprägungen der abhängigen Variable ist jedoch nicht linear. Diese Nicht-Linearität ist in den Gleichungen des logistischen Regressionsmodells stets offensichtlich. Besonders bei der Betrachtung der entlogarithmierten logistischen Regressionskoeffizienten, den Odds Ratios, wird zudem auf den ersten Blick deutlich, dass eine multiplikative und keine additiv-lineare Verknüpfung der Regressionsgewichte besteht. Odds Ratios geben eine faktorielle Veränderung der Auftrittswahrscheinlichkeit an, deren absoluter Umfang natürlich von der „Basiswahrscheinlichkeit“ abhängt.

Basisgleichung des logistischen Modells:

 P(y = 1| x) = frac{e^ { x'beta } }{ 1 + e^{x'beta} } = frac{ e^{Logit} }{ 1 + e^{Logit} }

…aufgelöst nach dem Logit:

 Logit = lnfrac{ P }{ 1- P } = beta_{ 0 }+beta_{ 1 }x_{ 1 } + ... + beta_{ n }x_{ n }

… und zusätzlich entlogarithmiert:

 OR := e^{ Logit } = e^{ lnfrac{ P }{ 1- P } } = e^{ beta_{ 0 }+beta_{ 1 }x_{ 1 } + ... + beta_{ n }x_{ n } } = e^{beta_{ 0 }}times e^{beta_{ 1 }x_{ 1 }} times ... times e^{beta_{ n }x_{ n }}

Eine intuitive Veranschaulichung

Warum marginale Effekte von unabhängigen Variable jeweils von den genauen Ausprägungen aller unabhängigen Merkmale bedingt sind, lässt sich intuitiv wie folgt verstehen/erfassen: Eine Erhöhung der (latenten) Neigung für das Auftreten der betrachten Ausprägung der abhängigen Variable um einen gewissen Betrag, geht bei einer bereits sehr hohen/sehr niedrigen Neigung, weit unter/über dem Schwellenwert, mit einem vernachlässigbaren Effekt auf die vorhergesagte (Wahrscheinlichkeit der) tatsächlich beobachtete Ausprägung der abhängigen einher. Ist jedoch die (latente) Neigung nahe dem Schwellenwert, ist die Erhöhung der Neigung um einen gewissen Betrag sehr wahrscheinlich(er) ausschlaggebend/entscheidend für die vorhergesagte (Wahrscheinlichkeit der) Ausprägung der abhängigen Variable. Die bereits bestehende Neigung für das Auftreten der betrachten Kategorie ist wiederrum abhängig von den genauen Ausprägungen aller unabhängigen Merkmale.

Die Nicht-Linearität der marginalen Effekte unabhängiger Merkmale wird besonders in graphischen Darstellungen deutlich, wenn die Auftrittswahrscheinlichkeit über die Ausprägungen eines unabhängigen Merkmals abgetragen wird: Die Steigung der Kurve der Auftrittswahrscheinlichkeit ist nicht konstant.

Lösung AME und MEM?

Es gibt verschiedene Möglichkeiten bei der Interpretation logistischer Modelle mit dieser Nicht-Linearität umzugehen. So können (Veränderungen der) Auftrittswahrscheinlichkeiten für unterschiedliche Kombinationen der Ausprägungen sowohl der interessierenden unabhängigen Variable, als auch der verbleibenden unabhängigen Variablen berechnet oder geplottet und so kontrastiert werden. Sollen marginale Effekte aber in einer kompakten, zusammenfassenden Kennziffer zum Ausdruck gebracht werden, können auch AMEs oder MEMs berechnet werden. Der average marginal Effekt (AME) ist der durchschnittliche Effekt der Erhöhung der unabhängigen Variablen um eine Einheit, gemittelt über alle vorhandenen Beobachtungen. Der marginal effect at the mean (MEM) ist der Effekt der Erhöhung der unabhängigen Variable um eine Einheit evaluiert am Mittelwert aller unabhängigen Variablen. Allerding ist zu bedenken, dass die inhaltlich bedeutsame Nicht-Linearität der Effekte durch AMEs absolut nicht deutlich wird und wichtige Informationen bezüglich der Effekte der unabhängigen Variablen schlicht vernachlässigt werden. Nick Bornschein

Logistische Regressionsmodelle, sind mit gängiger Statistiksoftware meist genauso leicht zu schätzen wie lineare Regressionen. Doch die Interpretation solcher Modelle, also der Part der statistischen Analyse der nicht von der Software übernommen wird, birgt eine Tücke: die Bezugsgröße der Regressionskoeffizienten.

Ausgehend von den unabhängigen Merkmalen der Beobachtungen, modellieren logistische Regressionsmodelle die Wahrscheinlichkeit mit der eine bestimmte Ausprägung eines kategorialen abhängigen Merkmals auftritt. Zur Schätzung dieser Wahrscheinlichkeiten ist die Transformation der Regressionsgewichte der unabhängigen Variablen notwendig, so dass logistische Regressionskoeffizienten den Zusammenhang zwischen den Ausprägungen der unabhängigen Variablen und den Logits für die betrachtete Merkmalsausprägung der abhängigen Variablen spiegeln. Parallel zur linearen Regression kann geschlossen werden, dass eine Erhöhung einer gegebenen unabhängigen Variable um eine Einheit, mit der Veränderung des Logits für das Auftreten der betrachteten Merkmalsausprägung der abhängigen Variable um β Einheiten einhergeht. Zwar ist diese Interpretation formal korrekt, offenkundig jedoch wenig aufschlussreich.

Logits, Odds Ratios und Wahrscheinlichkeiten

Es drängt sich die Frage auf, was genau Logits sind. Die Antwort ist augenscheinlich recht einfach: Logits sind logarithmierte Odds Ratios. Wir halten fest: Logit = ln(Odds Ratio).

Aber natürlich stellt sich nun die Frage, was wiederrum Odds Ratios sind. Im Deutschen werden Odds Ratios als Chancenverhätnisse (oder auch Quotenverhältnisse) bezeichnet. Tatsächlich sind Odds Ratios nicht mehr als simple Verhältnisse von Chancen (beziehungsweise Quoten oder eben Odds). Im gegebenen Kontext bezeichnen Odds Ratios das Verhältnis der Chancen für das Auftreten der betrachteten Merkmalsausprägung der abhängigen Variable, zwischen zwei Gruppen welche sich in der Ausprägungen eines unabhängigen Merkmals unterscheiden. Wir halten fest: Odds Ratio = Chance für Merkmalsausprägung in Gruppe 1 : Chance für Merkmalsausprägung in Gruppe 2.

Natürlich wird damit die Frage aufgeworfen, was genau Chancen sind. Chancen sind das jeweilige Verhältnis der Wahrscheinlichkeit für das Auftreten einer Merkmalsausprägung relativ zu der Wahrscheinlichkeit für das Nicht-Auftreten der Merkmalsausprägung innerhalb einer, zum Beispiel durch ein unabhängiges Merkmal definierten, Gruppe. Wir halten fest: Chance für Merkmalsausprägung = Wahrscheinlichkeit von Merkmalsausprägung : Gegenwahrscheinlichkeit von Merkmalsausprägung.

Die Wahrscheinlichkeit für eine Merkmalsausprägung entspricht dabei dem Anteil von Beobachtungseinheiten einer Gruppe, welche die jeweilige Ausprägung aufweisen. Wir halten fest: Wahrscheinlichkeit von Merkmalsausprägung = Anteil der Gruppenmitglieder mit Merkmalsausprägung.

Ein Beispiel: Nerds, Normalos und Star Wars

Zur Veranschaulichung werden nachstehend Logit und Odds Ratio dafür ein Star-Wars-Fan zu sein, für eine Gruppe von 10 „Statistik-Nerds“ relativ zu einer Gruppe von 10 „Normalos“ berechnet.

Berechnung von Hand

7 der 10 Nerds sind Star Wars Fans 4 der 10 Normalos sind Star Wars Fans. Daraus folgt:

    \[P_{ Nerds }\left( Fan \right)=\frac{ 7 }{10 }=0,7\]

    \[Odds_{Nerds }\left( Fan \right)=\frac{ P_{ Nerds }\left( Fan \right) }{ P_{ Nerds }\left( kein Fan \right) }=\frac{ 0,7 }{ 1-0,7} = 2,\overline{3}\]

    \[P_{ Normalos }\left( Fan \right)=\frac{ 4 }{10 }=0,4\]

    \[Odds_{Normalos }\left( Fan \right)=\frac{ P_{Normalos }\left( Fan \right) }{ P_{ Normalos }\left( kein Fan \right) }=\frac{ 0,4 }{ 1-0,4} = 0,\overline{6}\]

    \[Odds Ratio_{ Nerds : Normalos }\left( Fan \right)=\frac{ Odds_{ Nerds }\left( Fan \right) }{ Odds_{ Normalos }\left( Fan \right) }=\frac{ 2,\overline{3} }{ 0,\overline{6} }=3,5\]

    \[\beta_{ Nerds:Normalos }=ln\left( Odds Ratio_{ Nerds:Normalos } \right)=1,25\]

 

Berechnung via logistischer Regression in R

Zu dem gleichen Ergebnis kommt man, wenn man in R eine logistische Regression für die gegebenen Daten schätzt und den standartmäßig ausgegebenen Logit-Koeffizienten exponenziert.

R Code und Ausgabe von glm

Die Gruppenzugehörigkeit wird über eine Dummy-Variablen mit der Ausprägung 1 für alle Nerds und der Ausprägung 0 für alle Normalos erfasst, daher entspricht hier die Erhöhung der UV um eine Einheit hier dem Wechsel der Gruppenzugehörigkeit.

(Logarithmierte) Verhältnisse von Verhältnissen

Die Berechnung von Odds Ratios ist zwar einfach, jedoch sind Odds Ratios zur Interpretation logistischer Modelle nur auf den ersten Blick geeigneter als die logistischen Regressionskoeffizienten. Es handelt sich bei Odds Ratios um Verhältnisse von Wahrscheinlichkeitsverhältnissen. Genau wie in ihrer logarithmierten Form als Logits, entziehen Odds Ratios sich daher wohl dem intuitiven Verständnis der allermeisten Menschen.

Formal korrekt kann ausgesagt werden, dass eine Erhöhung einer gegebenen unabhängigen Variable um eine Einheit, mit einer Veränderung der Odds für das Auftreten der betrachteten Merkmalsausprägung der abhängigen Variable um den Faktor eβ einhergeht. Jedoch lässt sich von Odds Ratios, genauso wenig wie von logistischen Regressionskoeffizienten, nicht direkt auf die Wahrscheinlichkeiten in Gruppen oder die Wahrscheinlichkeitsverhältnisse zwischen kontrastierten Gruppen schließen.

Daher sind bei der Interpretation logistischer Regressionsmodelle Aussagen wie „…die Erhöhung einer der unabhängigen Variable um eine Einheit ist verbunden mit einer um eβ / β veränderten Wahrscheinlichkeit…“, nicht zulässig. Wie fehlgeleitet solche Behauptungen sind, wird deutlich, wenn man sich vor Augen führt, dass ganz unterschiedliche Ausgangswahrscheinlichkeiten in gleichen Odds Ratios beziehungsweise Logits resultieren können. So kann beispielsweise das Odds Ratio aus dem vorangegangenen Beispiel auch durch ganz andere Wahrscheinlichkeiten in zwei kontrastierten Gruppen entstehen:

P1 P2 Verhältnis P1 / P2 Odds 1 Odds 2 Odds Ratio
\text{0,7} \text{0,4} \frac{0,7}{0,4}=1,75 \frac{0,7}{1-0,7}=2,\overline{3} \frac{0,4}{1-0,4}=0,\overline{6} \frac{2,\bar{3} }{0,\overline{6}}=3,5
\text{0,6} \text{0,3} \frac{0,6}{0,3}=2 \frac{0,6}{1-0,6}=1,5 \frac{0,3}{1-0,3}=0,\overline{428571} \frac{1,5}{0,\overline{428571}}=3,5

Löst man die Formel zur Berechnung des Odds Ratio nach der Eintrittswahrscheinlichkeit einer der Gruppen auf, erhält man die Funktionsgleichung der Kurve auf der alle Wahrscheinlichkeitskombinationen mit dem selben Odds Ratio liegen. Nachstehend ist diese Kurve für ein Odds Ratio von 3,5 abgebildet.Kombination von Wahrscheinlichkeiten mit einen OddRatio von 3.5

Fazit

Da selbst formal korrekte Interpretationen der absoluten Werten von Logits (β), genauso wie von Odds Ratios (eβ) uninformativ und potentiell irreführend sind, wird an dieser Stelle empfohlen lediglich die durch Logits und Odds Ratios implizierte Richtung von Zusammenhängen zu interpretieren. Eine Erhöhung einer unabhängigen Variable (um eine Einheit), geht bei Odds Ratios > 1 mit einer erhöhten, bei Odds Ratios 0 mit einer erhöhten, bei β < 0 mit einer verringerten Wahrscheinlichkeit für das Auftreten der betrachteten Ausprägung der abhängigen Variable einher geht.

Referenzen

Best, H., & Wolf, C. (2012). Modellvergleich und Ergebnisinterpretation in Logit-und Probit-Regressionen. KZfSS Kölner Zeitschrift für Soziologie und Sozialpsychologie, 64(2), 377-395.
Lea Waniek

Logistische Regressionsmodelle, sind mit gängiger Statistiksoftware meist genauso leicht zu schätzen wie lineare Regressionen. Doch die Interpretation solcher Modelle, also der Part der statistischen Analyse der nicht von der Software übernommen wird, birgt eine Tücke: die Bezugsgröße der Regressionskoeffizienten.

Ausgehend von den unabhängigen Merkmalen der Beobachtungen, modellieren logistische Regressionsmodelle die Wahrscheinlichkeit mit der eine bestimmte Ausprägung eines kategorialen abhängigen Merkmals auftritt. Zur Schätzung dieser Wahrscheinlichkeiten ist die Transformation der Regressionsgewichte der unabhängigen Variablen notwendig, so dass logistische Regressionskoeffizienten den Zusammenhang zwischen den Ausprägungen der unabhängigen Variablen und den Logits für die betrachtete Merkmalsausprägung der abhängigen Variablen spiegeln. Parallel zur linearen Regression kann geschlossen werden, dass eine Erhöhung einer gegebenen unabhängigen Variable um eine Einheit, mit der Veränderung des Logits für das Auftreten der betrachteten Merkmalsausprägung der abhängigen Variable um β Einheiten einhergeht. Zwar ist diese Interpretation formal korrekt, offenkundig jedoch wenig aufschlussreich.

Logits, Odds Ratios und Wahrscheinlichkeiten

Es drängt sich die Frage auf, was genau Logits sind. Die Antwort ist augenscheinlich recht einfach: Logits sind logarithmierte Odds Ratios. Wir halten fest: Logit = ln(Odds Ratio).

Aber natürlich stellt sich nun die Frage, was wiederrum Odds Ratios sind. Im Deutschen werden Odds Ratios als Chancenverhätnisse (oder auch Quotenverhältnisse) bezeichnet. Tatsächlich sind Odds Ratios nicht mehr als simple Verhältnisse von Chancen (beziehungsweise Quoten oder eben Odds). Im gegebenen Kontext bezeichnen Odds Ratios das Verhältnis der Chancen für das Auftreten der betrachteten Merkmalsausprägung der abhängigen Variable, zwischen zwei Gruppen welche sich in der Ausprägungen eines unabhängigen Merkmals unterscheiden. Wir halten fest: Odds Ratio = Chance für Merkmalsausprägung in Gruppe 1 : Chance für Merkmalsausprägung in Gruppe 2.

Natürlich wird damit die Frage aufgeworfen, was genau Chancen sind. Chancen sind das jeweilige Verhältnis der Wahrscheinlichkeit für das Auftreten einer Merkmalsausprägung relativ zu der Wahrscheinlichkeit für das Nicht-Auftreten der Merkmalsausprägung innerhalb einer, zum Beispiel durch ein unabhängiges Merkmal definierten, Gruppe. Wir halten fest: Chance für Merkmalsausprägung = Wahrscheinlichkeit von Merkmalsausprägung : Gegenwahrscheinlichkeit von Merkmalsausprägung.

Die Wahrscheinlichkeit für eine Merkmalsausprägung entspricht dabei dem Anteil von Beobachtungseinheiten einer Gruppe, welche die jeweilige Ausprägung aufweisen. Wir halten fest: Wahrscheinlichkeit von Merkmalsausprägung = Anteil der Gruppenmitglieder mit Merkmalsausprägung.

Ein Beispiel: Nerds, Normalos und Star Wars

Zur Veranschaulichung werden nachstehend Logit und Odds Ratio dafür ein Star-Wars-Fan zu sein, für eine Gruppe von 10 „Statistik-Nerds“ relativ zu einer Gruppe von 10 „Normalos“ berechnet.

Berechnung von Hand

7 der 10 Nerds sind Star Wars Fans 4 der 10 Normalos sind Star Wars Fans. Daraus folgt:

    \[P_{ Nerds }\left( Fan \right)=\frac{ 7 }{10 }=0,7\]

    \[Odds_{Nerds }\left( Fan \right)=\frac{ P_{ Nerds }\left( Fan \right) }{ P_{ Nerds }\left( kein Fan \right) }=\frac{ 0,7 }{ 1-0,7} = 2,\overline{3}\]

    \[P_{ Normalos }\left( Fan \right)=\frac{ 4 }{10 }=0,4\]

    \[Odds_{Normalos }\left( Fan \right)=\frac{ P_{Normalos }\left( Fan \right) }{ P_{ Normalos }\left( kein Fan \right) }=\frac{ 0,4 }{ 1-0,4} = 0,\overline{6}\]

    \[Odds Ratio_{ Nerds : Normalos }\left( Fan \right)=\frac{ Odds_{ Nerds }\left( Fan \right) }{ Odds_{ Normalos }\left( Fan \right) }=\frac{ 2,\overline{3} }{ 0,\overline{6} }=3,5\]

    \[\beta_{ Nerds:Normalos }=ln\left( Odds Ratio_{ Nerds:Normalos } \right)=1,25\]

 

Berechnung via logistischer Regression in R

Zu dem gleichen Ergebnis kommt man, wenn man in R eine logistische Regression für die gegebenen Daten schätzt und den standartmäßig ausgegebenen Logit-Koeffizienten exponenziert.

R Code und Ausgabe von glm

Die Gruppenzugehörigkeit wird über eine Dummy-Variablen mit der Ausprägung 1 für alle Nerds und der Ausprägung 0 für alle Normalos erfasst, daher entspricht hier die Erhöhung der UV um eine Einheit hier dem Wechsel der Gruppenzugehörigkeit.

(Logarithmierte) Verhältnisse von Verhältnissen

Die Berechnung von Odds Ratios ist zwar einfach, jedoch sind Odds Ratios zur Interpretation logistischer Modelle nur auf den ersten Blick geeigneter als die logistischen Regressionskoeffizienten. Es handelt sich bei Odds Ratios um Verhältnisse von Wahrscheinlichkeitsverhältnissen. Genau wie in ihrer logarithmierten Form als Logits, entziehen Odds Ratios sich daher wohl dem intuitiven Verständnis der allermeisten Menschen.

Formal korrekt kann ausgesagt werden, dass eine Erhöhung einer gegebenen unabhängigen Variable um eine Einheit, mit einer Veränderung der Odds für das Auftreten der betrachteten Merkmalsausprägung der abhängigen Variable um den Faktor eβ einhergeht. Jedoch lässt sich von Odds Ratios, genauso wenig wie von logistischen Regressionskoeffizienten, nicht direkt auf die Wahrscheinlichkeiten in Gruppen oder die Wahrscheinlichkeitsverhältnisse zwischen kontrastierten Gruppen schließen.

Daher sind bei der Interpretation logistischer Regressionsmodelle Aussagen wie „…die Erhöhung einer der unabhängigen Variable um eine Einheit ist verbunden mit einer um eβ / β veränderten Wahrscheinlichkeit…“, nicht zulässig. Wie fehlgeleitet solche Behauptungen sind, wird deutlich, wenn man sich vor Augen führt, dass ganz unterschiedliche Ausgangswahrscheinlichkeiten in gleichen Odds Ratios beziehungsweise Logits resultieren können. So kann beispielsweise das Odds Ratio aus dem vorangegangenen Beispiel auch durch ganz andere Wahrscheinlichkeiten in zwei kontrastierten Gruppen entstehen:

P1 P2 Verhältnis P1 / P2 Odds 1 Odds 2 Odds Ratio
\text{0,7} \text{0,4} \frac{0,7}{0,4}=1,75 \frac{0,7}{1-0,7}=2,\overline{3} \frac{0,4}{1-0,4}=0,\overline{6} \frac{2,\bar{3} }{0,\overline{6}}=3,5
\text{0,6} \text{0,3} \frac{0,6}{0,3}=2 \frac{0,6}{1-0,6}=1,5 \frac{0,3}{1-0,3}=0,\overline{428571} \frac{1,5}{0,\overline{428571}}=3,5

Löst man die Formel zur Berechnung des Odds Ratio nach der Eintrittswahrscheinlichkeit einer der Gruppen auf, erhält man die Funktionsgleichung der Kurve auf der alle Wahrscheinlichkeitskombinationen mit dem selben Odds Ratio liegen. Nachstehend ist diese Kurve für ein Odds Ratio von 3,5 abgebildet.Kombination von Wahrscheinlichkeiten mit einen OddRatio von 3.5

Fazit

Da selbst formal korrekte Interpretationen der absoluten Werten von Logits (β), genauso wie von Odds Ratios (eβ) uninformativ und potentiell irreführend sind, wird an dieser Stelle empfohlen lediglich die durch Logits und Odds Ratios implizierte Richtung von Zusammenhängen zu interpretieren. Eine Erhöhung einer unabhängigen Variable (um eine Einheit), geht bei Odds Ratios > 1 mit einer erhöhten, bei Odds Ratios 0 mit einer erhöhten, bei β < 0 mit einer verringerten Wahrscheinlichkeit für das Auftreten der betrachteten Ausprägung der abhängigen Variable einher geht.

Referenzen

Best, H., & Wolf, C. (2012). Modellvergleich und Ergebnisinterpretation in Logit-und Probit-Regressionen. KZfSS Kölner Zeitschrift für Soziologie und Sozialpsychologie, 64(2), 377-395.
Lea Waniek