de
                    array(2) {
  ["de"]=>
  array(13) {
    ["code"]=>
    string(2) "de"
    ["id"]=>
    string(1) "3"
    ["native_name"]=>
    string(7) "Deutsch"
    ["major"]=>
    string(1) "1"
    ["active"]=>
    string(1) "1"
    ["default_locale"]=>
    string(5) "de_DE"
    ["encode_url"]=>
    string(1) "0"
    ["tag"]=>
    string(2) "de"
    ["missing"]=>
    int(0)
    ["translated_name"]=>
    string(7) "Deutsch"
    ["url"]=>
    string(58) "https://www.statworx.com/content-hub/blog/tag/strategy-de/"
    ["country_flag_url"]=>
    string(87) "https://www.statworx.com/wp-content/plugins/sitepress-multilingual-cms/res/flags/de.png"
    ["language_code"]=>
    string(2) "de"
  }
  ["en"]=>
  array(13) {
    ["code"]=>
    string(2) "en"
    ["id"]=>
    string(1) "1"
    ["native_name"]=>
    string(7) "English"
    ["major"]=>
    string(1) "1"
    ["active"]=>
    int(0)
    ["default_locale"]=>
    string(5) "en_US"
    ["encode_url"]=>
    string(1) "0"
    ["tag"]=>
    string(2) "en"
    ["missing"]=>
    int(0)
    ["translated_name"]=>
    string(8) "Englisch"
    ["url"]=>
    string(61) "https://www.statworx.com/en/content-hub/blog/tag/strategy-en/"
    ["country_flag_url"]=>
    string(87) "https://www.statworx.com/wp-content/plugins/sitepress-multilingual-cms/res/flags/en.png"
    ["language_code"]=>
    string(2) "en"
  }
}
                    
Kontakt

Wir stehen am Beginn des Jahres 2024, einer Zeit grundlegender Veränderungen und spannender Fortschritte in der Welt der Künstlichen Intelligenz. Die nächsten Monate gelten als kritischer Meilenstein in der Evolution der KI, in denen sie sich von einer vielversprechenden Zukunftstechnologie zu einer festen Realität im Geschäftsleben und im Alltag von Millionen wandelt. Deshalb präsentieren wir gemeinsamen mit dem AI Hub Frankfurt, dem zentralen KI-Netzwerk der Rhein-Main-Region, unsere Trendprognose für 2024, den AI Trends Report 2024.

Der Report identifiziert zwölf dynamische KI-Trends, die sich in drei Schlüsselbereichen entfalten: Kultur und Entwicklung, Daten und Technologie sowie Transparenz und Kontrolle. Diese Trends zeichnen ein Bild der rasanten Veränderungen in der KI-Landschaft und beleuchten die Auswirkungen auf Unternehmen und Gesellschaft.
Unsere Analyse basiert auf umfangreichen Recherchen, branchenspezifischem Fachwissen und dem Input von Expert:innen. Wir beleuchten jeden Trend, um einen zukunftsweisenden Einblick in die KI zu bieten und Unternehmen bei der Vorbereitung auf künftige Herausforderungen und Chancen zu unterstützen. Wir betonen jedoch, dass Trendprognosen stets einen spekulativen Charakter haben und einige unserer Vorhersagen bewusst gewagt formuliert sind.

Direkt zum AI Trends Report 2024!

Was ist ein Trend?

Ein Trend unterscheidet sich sowohl von einem kurzlebigen Modephänomen als auch von einem medialen Hype. Er ist ein Wandelphänomen mit einem „Tipping Point“, an dem eine kleine Veränderung in einer Nische einen großen Umbruch im Mainstream bewirken kann. Trends initiieren neue Geschäftsmodelle, Konsumverhalten und Arbeitsformen und stellen somit eine grundlegende Veränderung des Status Quo dar. Für Unternehmen ist es entscheidend, vor dem Tipping Point die richtigen Kenntnisse und Ressourcen zu mobilisieren, um von einem Trend profitieren zu können.

12 KI-Trends, die 2024 prägen werden

Im AI Trends Report 2024 identifizieren wir wegweisende Entwicklungen im Bereich Künstlichen Intelligenz. Hier sind die Kurzversionen der zwölf Trends mit jeweils einem ausgewählten Zitat aus den Reihen unserer Expert:innen.

Teil 1: Kultur und Entwicklung

Von der 4-Tage-Woche über Omnimodalität bis AGI: 2024 verspricht große Fortschritt für die Arbeitswelt, für die Medienproduktion und für die Möglichkeiten von KI insgesamt.

These I: KI-Kompetenz im Unternehmen
Unternehmen, die KI-Expertise tief in ihrer Unternehmenskultur verankern und interdisziplinäre Teams mit Tech- und Branchenwissen aufbauen, sichern sich einen Wettbewerbsvorteil. Zentrale KI-Teams und eine starke Data Culture sind Schlüssel zum Erfolg.

„Eine Datenkultur kann man weder kaufen noch anordnen. Man muss die Köpfe, die Herzen und die Herde gewinnen. Wir möchten, dass unsere Mitarbeitenden bewusst Daten erstellen, nutzen und weitergeben. Wir geben ihnen Zugang zu Daten, Analysen und KI und vermitteln das Wissen und die Denkweise, um das Unternehmen auf Basis von Daten zu führen.“

Stefanie Babka, Global Head of Data Culture, Merck

 
These II :4-Tage-Arbeitswoche durch KI
Dank KI-Automatisierung in Standardsoftware und Unternehmensprozessen ist die 4-Tage-Arbeitswoche für einige deutsche Unternehmen Realität geworden. KI-Tools wie Microsofts Copilot steigern die Produktivität und ermöglichen Arbeitszeitverkürzungen, ohne das Wachstum zu beeinträchtigen.

„GenAI wird die Automatisierung in zahlreichen Bereichen weiter vorantreiben. Dies wird der neue Maßstab für Standardprozesse in allen Sektoren sein. Auch wenn sich dies positiv auf die Arbeitszeitverkürzung auswirken kann, müssen wir sicherstellen, dass GenAI verantwortungsvoll eingesetzt wird, insbesondere in sensiblen und kundenorientierten Bereichen.“

Dr. Jean Enno Charton, Director Digital Ethics & Bioethics, Merck

 

These III: AGI durch omnimodale Modelle
Die Entwicklung von omnimodalen KI-Modellen, die menschliche Sinne nachahmen, rückt die Vision einer allgemeinen künstlichen Intelligenz (AGI) näher. Diese Modelle verarbeiten vielfältige Inputs und erweitern menschliche Fähigkeiten.

„Multimodale Modelle, die auf mehr als nur Text trainiert wurden, haben gezeigt, dass sie besser in der Lage sind, Schlussfolgerungen zu ziehen und die Welt zu verstehen. Wir sind gespannt, was omnimodale Modelle leisten werden.“

Dr. Ingo Marquart, NLP Subject Matter Lead, statworx

 

These IV: KI-Revolution in der Medienproduktion
Generative AI (GenAI) transformiert die Medienlandschaft und ermöglicht neue Formen der Kreativität, bleibt jedoch noch hinter transformatorischer Kreativität zurück. KI-Tools werden für Kreative immer wichtiger, doch es gilt, die Einzigartigkeit gegenüber einem globalen Durchschnittsgeschmack zu wahren.

„Wer AI smart integriert ist im Wettbewerbsvorteil. In den Bereichen Ideation, Publishing und Visuals wird es Produktivitätssprünge geben. Es entsteht aber auch eine Menge „Low“- und Fake- Content (Postings, Messaging), daher wird Vertrauensaufbau für Brands noch wichtiger. Die Social-Media-Aufgaben verlagern sich hin zu Strategie, Management und Controlling.“

Nemo Tronnier, Founder & CEO, Social DNA

 

Teil 2: Daten und Technologie

2024 dreht sich alles um Datenqualität, Open-Source-Modelle und den Zugang zu Prozessoren. Die Betreiber von Standardsoftware wie Microsoft und SAP werden groß profitieren, weil sie die Schnittstelle zu den Endnutzer:innen besetzen.

These V: Herausforderer für NVIDIA
Neue Akteure und Technologien bereiten sich vor, den GPU-Markt aufzumischen und NVIDIAs Position herauszufordern. Startups und etablierte Konkurrenten wie AMD und Intel wollen von der Ressourcenknappheit und den langen Wartezeiten profitieren, die kleinere Player derzeit erleben, und setzen auf Innovation, um NVIDIAs Dominanz zu brechen.

„Entgegen der vorherrschenden Meinung gibt es nicht wirklich einen Mangel an KI-Beschleunigern, wenn man NVIDIA, Intel und AMD mitzählt. Das eigentliche Problem ist die Finanzierung durch die Kunden, da die Cloud-Anbieter gezwungen sind, verfügbare Kapazitäten mit langfristigen Verträgen anzubieten. Dies könnte sich in 18 bis 24 Monaten ändern, wenn die aktuellen Bereitstellungen ausreichend abgeschrieben sind. Bis dahin müssen die Kunden längere Verpflichtungen einplanen.“

Norman Behrend, Chief Customer Officer, Genesis Cloud

 

These VI: Datenqualität vor Datenquantität
In der KI-Entwicklung rückt die Qualität der Daten in den Fokus. Statt nur auf Masse zu setzen, wird die sorgfältige Auswahl und Aufbereitung von Trainingsdaten sowie die Innovation in der Modellarchitektur entscheidend. Kleinere Modelle mit hochwertigen Daten können größeren Modellen in der Performance überlegen sein.

„Daten sind nicht nur eine Komponente der KI- Landschaft; Daten von richtiger Qualität zu haben, ist essentiell. Das Lösen des „first-mile problem“, um die Datenqualität zu gewährleisten, und das Verständnis des „last-mile problem“, d.h. die Einbindung von Mitarbeitenden in Daten- und KI-Projekte, sind entscheidend für den Erfolg.“

Walid Mehanna, Chief Data & AI Officer, Merck

 

These VII: Das Jahr der KI-Integratoren
Integratoren wie Microsoft, Databricks und Salesforce werden zu den Gewinnern, da sie KI-Tools an Endnutzer:innen bringen. Die Fähigkeit zur nahtlosen Integration in bestehende Systeme wird für KI-Startups und -Anbieter entscheidend sein. Unternehmen, die spezialisierte Dienste oder wegweisende Innovationen bieten, sichern sich lukrative Nischen.

„2024 zeigen KI-Integratoren wie sie KI für Endnutzer zugänglich machen. Ihre Rolle ist entscheidend für die Demokratisierung von KI in der Geschäftswelt, wodurch Unternehmen jeder Größe von fortschrittlicher KI profitieren. Diese Entwicklung betont die Notwendigkeit benutzerfreundlicher und ethisch verantwortungsvoller KI-Lösungen.“

Marco Di Sazio, Head of Innovation, Bankhaus Metzler

 

These VIII: Die Open-Source-Revolution
Open-Source-KI-Modelle treten in Wettbewerb mit proprietären Modellen wie OpenAIs GPT und Googles Gemini. Mit einer Community, die Innovation und Wissensaustausch fördert, bieten Open-Source-Modelle mehr Flexibilität und Transparenz, was sie besonders wertvoll für Anwendungen macht, die klare Verantwortlichkeiten und Anpassungen erfordern.

„Insbesondere für KMUs sind KI-Lösungen unverzichtbar. Da eine ausreichende Datenmenge für ein eigenes Modell typischerweise fehlt, wird die Kollaboration entscheidend. Die Möglichkeit zur Anpassung ist jedoch essenziell, um das eigene Geschäftsmodell digital voranzubringen.“

Prof. Dr. Christian Klein, Gründer, UMYNO Solutions, Professor für Marketing & Digital Media, FOM Hochschule

 

Teil 3: Transparenz und Kontrolle

Die verstärkte Nutzung von KI-Entscheidungssystemen wird 2024 eine intensivierte Debatte über Algorithmen-Transparenz und Datenschutz entfachen – auf der Suche nach Verantwortlichkeit. Der AI Act wird dabei zum Standortvorteil für Europa.

These IX: KI-Transparenz als Wettbewerbsvorteil
Europäische KI-Startups mit Fokus auf Transparenz und Erklärbarkeit könnten zu den großen Gewinnern werden, da Branchen wie Pharma und Finance bereits hohe Anforderungen an die Nachvollziehbarkeit von KI-Entscheidungen stellen. Der AI Act fördert diese Entwicklung, indem er Transparenz und Anpassungsfähigkeit von KI-Systemen fordert und damit europäischen KI-Lösungen zu einem Vertrauensvorsprung verhilft.

„Transparenz wird ein Schlüsselthema im Bereich KI. Dies gilt für den Aufbau von KI-Modellen, den Datenfluss und die Nutzung der KI selbst. Es wird die Diskussionen über Compliance, Sicherheit und Vertrauen erheblich beeinflussen. Durch den AI Act könnten Transparenz und Sicherheit sogar zu Wettbewerbsvorteilen für europäische Unter- nehmen werden.“

Jakob Plesner, Rechtsanwalt, Gorrissen Federspiel

 

These X: AI Act als Qualitätssiegel
Der AI Act positioniert Europa als sicheren Hafen für Investitionen in KI, indem er ethische Standards setzt, die das Vertrauen in KI-Technologien stärken. Angesichts der Zunahme von Deepfakes und der damit verbundenen Risiken für die Gesellschaft wirkt der AI Act als Bollwerk gegen Missbrauch und fördert ein verantwortungsbewusstes Wachstum der KI-Branche.

„Unternehmen, die vor einem technologischen Wandel stehen, brauchen ein klares Regelwerk. Durch die Einführung eines Gütesiegels für menschenzentrierte KI verwandelt der AI Act Herausforderungen in Chancen. Der AI Act wird international zu einer Blaupause werden, die EU-Unternehmen einen Vorsprung bei verantwortungsvoller KI verschafft und Europa zu einem Ort für nachhaltige KI-Partnerschaften macht.“

Catharina Glugla, Head of Data, Cyber & Tech Germany, Allen & Overy LLP

 

These XI: KI-Agenten revolutionieren den Konsum
Persönliche Assistenz-Bots, die Einkäufe tätigen und Dienstleistungen auswählen, werden zu einem wesentlichen Bestandteil des Alltags. Die Beeinflussung ihrer Entscheidungen wird zum Schlüsselelement für Unternehmen, um auf dem Markt zu bestehen. Dies wird die Suchmaschinenoptimierung und Online-Marketing tiefgreifend verändern, da Bots zu den neuen Zielgruppen werden.

„Es wird mehrere Arten von KI-Agenten geben, die nach menschlichen Absichten handeln. Zum Beispiel persönliche Agenten, die eine Einzelperson vertreten, und Dienstleistungsagenten, die eine Organisation oder Institution vertreten. Das Zusammenspiel zwischen ihnen, wie persönlich-persönlich, persönlich-institutionell und institutionell-institutionell, stellt ein neues Paradigma für wirtschaftliche Aktivitäten und die Verteilung von Werten dar.“

Chi Wang, Principle Researcher, Microsoft Research

 

These XII: Alignment von KI-Modellen
Die Abstimmung (Alignment) von KI-Modellen auf universelle Werte und menschliche Intentionen wird entscheidend, um unethische Ergebnisse zu vermeiden und das Potenzial von Foundation-Modellen voll auszuschöpfen. Superalignment, bei dem KI-Modelle zusammenarbeiten, um komplexe Herausforderungen zu meistern, wird immer wichtiger, um die Entwicklung von KI verantwortungsvoll voranzutreiben.

„Alignment ist im Kern ein analytisches Problem, bei dem es darum geht, Transparenz und Kontrolle herzustellen, um Vertrauen der Nutzer:innen zu erlangen. Das sind die Schlüssel für ein effektives Deployment von KI-Lösungen in Unternehmen, für die kontinuierliche Evaluierung und für eine sichere Iteration auf der Grundlage der richtigen Metriken.“

Daniel Lüttgau, Head of AI Development, statworx

 

Schlussbemerkung

Der AI Trends Report 2024 ist mehr als eine unterhaltsame Bestandsaufnahme; er kann ein nützliches Werkzeug für Entscheidungsträger:innen und Innovator:innen sein. Unser Ziel ist es, unseren Leser:innen strategische Vorteile zu verschaffen, indem wir die Auswirkungen der Trends auf verschiedene Sektoren diskutieren und ihnen helfen, die Weichen für die Zukunft zu stellen.

Dieser Blogpost bietet nur einen kurzen Einblick in den umfassenden AI Trends Report 2024. Wir laden Sie ein, den vollständigen Report zu lesen, um tiefer in die Materie einzutauchen und von den detaillierten Analysen und Prognosen zu profitieren.

Zum AI Trends Report 2024! Tarik Ashry

Ticket sichern!      Zum AI Trends Report 2024

 

Gemeinsam mit Nadja Schäfer, Global Lead Data Culture & Data Literacy bei Roche, und David Schlepps, Head of AI Academy bei statworx, tauchen wir ein in die Welt der Data Culture. In unserem AI Trends Report 2024 erklärt Nadja Schäfer, dass es erfolgsentscheidend ist, Datenkultur in der Unternehmensstrategie zu verankern.

Deshalb widmen wir uns im Webinar nun den konkreten Maßnahmen zur Entwicklung einer starken Data Culture – angefangen bei der Einbettung in die Unternehmensstrategie.

 

Expert:innen:

  • Nadja Schäfer, Global Lead Data Culture & Data Literacy, Roche Diagnostics Information Solutions
  • David Schlepps, Head of AI Academy, statworx

 

Themen:

  • Was ist Data Culture und warum braucht jedes Unternehmen eine eigene?
  • Wie baut Roche seine Data Culture in die Unternehmensstrategie ein?
  • Mit welchen Enablement-Maßnahmen lässt sich eine Data Culture aufbauen?

 

Nutze die Gelegenheit, deine Fragen direkt an Nadja Schäfer und David Schlepps zu stellen und dich mit Gleichgesinnten auszutauschen. Jetzt anmelden!

Alle angemeldeten Teilnehmer:innen erhalten nach dem Event eine Aufzeichnung.

Ticket sichern!      Zum AI Trends Report 2024

Anfang Dezember erzielten die zentralen EU-Institutionen im sogenannten Trilog eine vorläufige Einigung über einen Gesetzesvorschlag zur Regulierung künstlicher Intelligenz. Nun wird der finale Gesetzestext mit allen Details ausgearbeitet. Sobald dieser erstellt und gesichtet wurde, kann das Gesetz offiziell verabschiedet werden. Wir haben den aktuellen Wissensstand zum AI-Act zusammengetragen.

Im Rahmen des ordentlichen Gesetzgebungsverfahrens der Europäischen Union ist ein Trilog eine informelle interinstitutionelle Verhandlung zwischen Vertretern des Europäischen Parlaments, des Rates der Europäischen Union und der Europäischen Kommission. Ziel eines Trilogs ist eine vorläufige Einigung über einen Legislativvorschlag, der sowohl für das Parlament als auch für den Rat, die Mitgesetzgeber, annehmbar ist. Die vorläufige Vereinbarung muss dann von jedem dieser Organe in förmlichen Verfahren angenommen werden.

Gesetzgebung mit globalem Impact

Eine Besonderheit des kommenden Gesetzes ist das so genannte Marktortprinzip: Demzufolge werden weltweit Unternehmen von dem AI-Act betroffen sein, die künstliche Intelligenz auf dem europäischen Markt anbieten, betreiben oder deren KI-generierter Output innerhalb der EU genutzt wird.

Als künstliche Intelligenz gelten dabei maschinenbasierte Systeme, die autonom Prognosen, Empfehlungen oder Entscheidungen treffen und damit die physische und virtuelle Umwelt beeinflussen können. Das betrifft beispielsweise KI-Lösungen, die den Recruiting-Prozess unterstützen, Predictive-Maintenance-Lösungen und Chatbots wie ChatGPT. Dabei unterscheiden sich die rechtlichen Auflagen, die unterschiedliche KI-Systeme erfüllen müssen, stark – abhängig von ihrer Einstufung in Risikoklassen.

Die Risikoklasse bestimmt die rechtlichen Auflagen

Der risikobasierte Ansatz der EU umfasst insgesamt vier Risikoklassen:

  • niedriges,
  • begrenztes,
  • hohes
  • und inakzeptables Risiko.

Diese Klassen spiegeln wider, inwiefern eine künstliche Intelligenz europäische Werte und Grundrechte gefährdet. Wie die Bezeichnung „inakzeptabel“ für eine Risikoklasse bereits andeutet, sind nicht alle KI-Systeme zulässig. KI-Systeme, die der Kategorie „inakzeptables Risiko“ angehören, werden vom AI-Act verboten. Für die übrigen drei Risikoklassen gilt: Je höher das Risiko, desto umfangreicher und strikter sind die rechtlichen Anforderungen an das KI-System. Welche KI-Systeme in welche Risikoklasse fallen und welche Auflagen damit verbunden sind, erläutern wir im Folgenden. Unsere Einschätzungen beziehen sich auf die Informationen aus der Unterlage „AI Mandates“ vom Juni 2023. Das Dokument stellt zum Zeitpunkt der Veröffentlichung das zuletzt veröffentliche, umfassende Dokument zum AI-Act dar.

Verbot für Social Scoring und biometrische Fernidentifikation

Einige KI-Systeme bergen ein erhebliches Potenzial zur Verletzung der Menschenrechte und Grundprinzipien, weshalb sie der Kategorie „inakzeptables Risiko” zugeordnet werden. Zu diesen gehören:

  • Echtzeit-basierte biometrische Fernidentifikationssysteme in öffentlich zugänglichen Räumen (Ausnahme: Strafverfolgungsbehörden dürfen diese zur Verfolgung schwerer Straftaten und mit richterlicher Genehmigung nutzen);
  • Biometrische Fernidentifikationssysteme im Nachhinein (Ausnahme: Strafverfolgungsbehörden dürfen diese zur Verfolgung schwerer Straftaten und ausschließlich mit richterlicher Genehmigung nutzen);
  • Biometrische Kategorisierungssysteme, die sensible Merkmale wie Geschlecht, ethnische Zugehörigkeit oder Religion verwenden;
  • Vorausschauende Polizeiarbeit auf Basis von sogenanntem „Profiling“ – also einer Profilerstellung unter Einbezug von Hautfarbe, vermuteten Religionszugehörigkeit und ähnlich sensiblen Merkmalen –, dem geografischen Standort oder vorhergehenden kriminellen Verhalten;
  • Systeme zur Emotionserkennung im Bereich der Strafverfolgung, Grenzkontrolle, am Arbeitsplatz und in Bildungseinrichtungen;
  • Beliebige Extraktion von biometrischen Daten aus sozialen Medien oder Videoüberwachungsaufnahmen zur Erstellung von Datenbanken zur Gesichtserkennung;
  • Social Scoring, das zu Benachteiligung in sozialen Kontexten führt;
  • KI, die die Schwachstellen einer bestimmten Personengruppe ausnutzt oder unbewusste Techniken einsetzt, die zu Verhaltensweisen führen können, die physischen oder psychischen Schaden verursachen.

Diese KI-Systeme sollen im Rahmen des AI-Acts auf dem europäischen Markt verboten werden. Unternehmen, deren KI-Systeme in diese Risikoklasse fallen könnten, sollten sich dringend mit den bevorstehenden Anforderungen auseinandersetzen und Handlungsoptionen ausloten. Denn ein zentrales Ergebnis des Trilogs ist, dass diese Systeme bereits sechs Monate nach der offiziellen Verabschiedung verboten sein werden.

Zahlreiche Auflagen für KI mit Risiko für Gesundheit, Sicherheit oder Grundrechte

In die Kategorie „hohes Risiko“ fallen alle KI-Systeme, die nicht explizit verboten sind, aber dennoch ein hohes Risiko für Gesundheit, Sicherheit oder Grundrechte darstellen. Folgende Anwendungs- und Einsatzgebiete werden dabei explizit genannt:

  • Biometrische und biometrisch-gestützte Systeme, die nicht in die Risikoklasse „inakzeptables Risiko“ fallen;
  • Management und Betrieb kritischer Infrastruktur;
  • allgemeine und berufliche Bildung;
  • Zugang und Anspruch auf grundlegende private und öffentliche Dienste und Leistungen;
  • Beschäftigung, Personalmanagement und Zugang zur Selbstständigkeit;
  • Strafverfolgung;
  • Migration, Asyl und Grenzkontrolle;
  • Rechtspflege und demokratische Prozesse

Für diese KI-Systeme sind umfassende rechtliche Auflagen vorgesehen, die vor der Inbetriebnahme umgesetzt und während des gesamten KI-Lebenszyklus beachtet werden müssen:

  • Assessment zur Abschätzung der Effekte auf Grund- und Menschenrechte
  • Qualitäts- und Risikomanagement
  • Data-Governance-Strukturen
  • Qualitätsanforderungen an Trainings-, Test- und Validierungsdaten
  • Technische Dokumentationen und Aufzeichnungspflicht
  • Erfüllung der Transparenz- und Bereitstellungspflichten
  • Menschliche Aufsicht, Robustheit, Sicherheit und Genauigkeit
  • Konformitäts-Deklaration inkl. CE-Kennzeichnungspflicht
  • Registrierung in einer EU-weiten Datenbank

KI-Systeme, die in einem der oben genannten Bereiche eingesetzt werden, aber keine Gefahr für Gesundheit, Sicherheit, Umwelt und Grundrechte darstellen, unterliegen nicht den rechtlichen Anforderungen. Dies gilt es jedoch nachzuweisen, indem die zuständige nationale Behörde über das KI-System informiert wird. Diese hat dann drei Monate Zeit, die Risiken des KI-Systems zu prüfen. Innerhalb dieser drei Monate kann die KI bereits in Betrieb genommen werden. Stuft die prüfende Behörde es jedoch als Hochrisiko-KI ein, können hohe Strafzahlungen anfallen.

Eine Sonderregelung gilt außerdem für KI-Produkte und KI-Sicherheitskomponenten von Produkten, deren Konformität auf Grundlage von EU-Rechtsvorschriften bereits durch Dritte geprüft wird. Dies ist beispielsweise bei KI in Spielzeugen der Fall. Um eine Überregulierung sowie zusätzliche Belastung zu vermeiden, werden diese vom AI-Act nicht direkt betroffen sein.

KI mit limitiertem Risiko muss Transparenzpflichten erfüllen

KI-Systeme, die direkt mit Menschen interagieren, fallen in die Risikoklasse „limitiertes Risiko“. Dazu zählen Emotionserkennungssysteme, biometrische Kategorisierungssysteme sowie KI-generierte oder veränderte Inhalte, die realen Personen, Gegenständen, Orten oder Ereignissen ähneln und fälschlicherweise für real gehalten werden könnte („Deepfakes“). Für diese Systeme sieht der Gesetzesentwurf die Verpflichtung vor, Verbraucher:innen über den Einsatz künstlicher Intelligenz zu informieren. Dadurch soll es Konsument:innen erleichtert werden, sich aktiv für oder gegen die Nutzung zu entscheiden. Außerdem wird ein Verhaltenskodex empfohlen.

Keine rechtlichen Auflagen für KI mit geringem Risiko

Viele KI-Systeme, wie beispielsweise Predictive-Maintenance oder Spamfilter, fallen in die Risikoklasse „geringes Risiko“. Unternehmen, die ausschließlich solche KI-Lösungen anbieten oder nutzen, werden kaum vom AI-Act betroffen sein. Denn bisher sind für solche Anwendungen keine rechtlichen Auflagen vorgesehen. Lediglich ein Verhaltenskodex wird empfohlen.

Generative KI wie ChatGPT wird gesondert geregelt

Generative KI-Modelle und Basismodelle mit vielfältigen Einsatzmöglichkeiten waren im ursprünglich eingereichten Entwurf für den AI-Act nicht berücksichtigt. Daher werden die Regulierungsmöglichkeiten solcher KI-Modelle seit dem Launch von ChatGPT durch OpenAI besonders intensiv diskutiert. Laut des Pressestatements des Europäischen Rats vom 9. Dezember sollen diese Modelle nun auf Basis ihres Risikos reguliert werden. Grundsätzlich müssen alle Modelle Transparenzanforderungen umsetzen. Basismodelle mit besonderem Risiko – so genannte „high-impact foundation models“ – werden darüber hinaus Auflagen erfüllen müssen. Wie genau das Risiko der KI-Modelle eingeschätzt wird, ist aktuell noch offen. Auf Grundlage des letzten Dokuments lassen sich folgende mögliche Auflagen für „high-impact foundation models“ abschätzen:

  • Qualitäts- und Risikomanagement
  • Data-Governance-Strukturen
  • Technische Dokumentationen
  • Erfüllung der Transparenz- und Informationspflichten
  • Sicherstellung der Performance, Interpretierbarkeit, Korrigierbarkeit, Sicherheit, Cybersecurity
  • Einhaltung von Umweltstandards
  • Zusammenarbeit mit nachgeschalteten Anbietern
  • Registrierung in einer EU-weiten Datenbank

Unternehmen können sich schon jetzt auf den AI-Act vorbereiten

Auch wenn der AI-Act noch nicht offiziell verabschiedet wurde und wir die Einzelheiten des Gesetzestextes noch nicht kennen, sollten sich Unternehmen jetzt auf die Übergangsphase vorbereiten. In dieser gilt es, KI-Systeme und damit verbundene Prozesse gesetzeskonform zu gestalten. Der erste Schritt dafür ist die Einschätzung der Risikoklasse jedes einzelnen KI-Systems. Falls Sie noch nicht sicher sind, in welche Risikoklassen Ihre KI-Systeme fallen, empfehlen wir unseren kostenfreien AI-Act Quick Check. Er unterstützt Sie dabei, die Risikoklasse einzuschätzen.

 

Mehr Informationen:

Quellen:

Read next …

Wie der AI-Act die KI-Branche verändern wird: Alles, was man jetzt darüber wissen muss
Die Black-Box entschlüsseln – 3 Explainable AI Methoden zur Vorbereitung auf den AI-Act

… and explore new

Wie Du Dein Data Science Projekt fit für die Cloud machst
Wie Du Deinen Code und Deine Abhängigkeiten in Python scannst

  Julia Rettig

Der Europäische Rat hat vergangenen Dezember ein Dossier veröffentlicht, welches den vorläufigen Standpunkt des Rates zum Gesetzesentwurf des so genannten „AI-Act“ darstellt. Dieses neue Gesetz soll künstliche Intelligenz regulieren und wird somit zum Gamechanger für die gesamte Tech-Branche. Im Folgenden haben wir die wichtigsten Informationen aus dem Dossier zusammengetragen, welches zum Zeitpunkt der Veröffentlichung den aktuellen Stand des geplanten AI-Act beschreibt.

Ein rechtlicher Rahmen für KI

Künstliche Intelligenz besitzt enormes Potential, unser aller Leben zu verbessern und zu erleichtern. Zum Beispiel unterstützen KI-Algorithmen schon heute die Krebsfrüherkennung oder übersetzen Gebärdensprache in Echtzeit und beseitigen dadurch Sprachbarrieren. Doch neben den positiven Effekten gibt es auch Risiken, wie die neusten Deepfakes von Papst Franziskus oder der Cambridge Analytica Skandal verdeutlichen.

Um Risiken künstlicher Intelligenz zu mindern, erarbeitet die Europäische Union derzeit einen Gesetzesentwurf zur Regulierung künstlicher Intelligenz. Mit diesem möchte die EU Verbraucher:innen schützen und den ethisch vertretbaren Einsatz von künstlicher Intelligenz sicherstellen. Der sogenannte „AI-Act“ befindet sich zwar noch im Gesetzgebungsprozess, wird jedoch voraussichtlich noch 2023 – vor Ende der aktuellen Legislaturperiode – verabschiedet. Unternehmen haben anschließend zwei Jahre Zeit, die rechtlich bindenden Auflagen umzusetzen. Verstöße dagegen werden mit Bußgeldern von bis zu 6% des weltweiten Jahresumsatzes bzw. maximal 30.000.000 € geahndet. Deshalb sollten Unternehmen sich schon jetzt mit den kommenden rechtlichen Anforderungen auseinandersetzen.

Gesetzgebung mit globaler Wirkung

Der geplante AI-Act basiert auf dem „Marktortprinzip“, wodurch nicht nur europäische Unternehmen von der Gesetzesänderung belangt werden. Somit sind alle Unternehmen vom betroffen, die KI-Systeme auf dem europäischen Markt anbieten oder auch zur internen Nutzung innerhalb der EU betreiben – bis auf wenige Ausnahmen. Private Nutzung von KI bleibt bisher von der Verordnung unangetastet.

Welche KI-Systeme sind betroffen?

Die Definition von KI entscheidet, welche Systeme vom AI-Act betroffen sein werden. Daher wird die KI-Definition des AI-Acts in Politik, Wirtschaft und Gesellschaft seit geraumer Zeit kontrovers diskutiert. Die initiale Definition war so breit gefasst, dass auch viele „normale“ Software-Systeme betroffen gewesen wären. Der aktuelle Vorschlag definiert KI als jedes System, das durch Machine Learning oder logik- und wissensbasierten Ansätzen entwickelt wurde. Ob diese Definition letztendlich auch verabschiedet wird, gilt es abzuwarten.

7 Prinzipien für vertrauenswürdige KI

Die „sieben Prinzipien für vertrauenswürdige KI“ stellen die wichtigste inhaltliche Grundlage des AI-Acts dar. Ein Gremium von Expert:innen aus Forschung, Digitalwirtschaft und Verbänden hat diese im Auftrag der Europäischen Kommission entwickelt. Sie umfassen nicht nur technische Aspekte, sondern auch soziale und ethische Faktoren, anhand derer die Vertrauenswürdigkeit eines KI-Systems eingeordnet werden kann entlang derer eine KI beurteilt werden kann:

  1. Menschliches Handeln & Aufsicht: Entscheidungsfindung soll unterstützt werden, ohne die menschliche Autonomie zu untergraben.
  2. Technische Robustheit & Sicherheit: Genauigkeit, Zuverlässigkeit und Sicherheit muss präventiv sichergestellt sein.
  3. Datenschutz & Data Governance: Umgang mit Daten muss rechtssicher und geschützt erfolgen.
  4. Transparenz: Interaktion mit KI muss deutlich kommuniziert werden, ebenso die Limitationen und Grenzen dieser.
  5. Vielfalt, Nicht-Diskriminierung & Fairness: Vermeidung unfairer Verzerrungen muss über den gesamten KI-Lebenszyklus sichergestellt werden.
  6. Ökologisches & gesellschaftliches Wohlergehen: KI-Lösungen sollten sich möglichst positiv auf die Umwelt auswirken.
  7. Rechenschaftspflicht: Verantwortlichkeiten für die Entwicklung, Nutzung und Instandhaltung von KI-Systemen müssen definiert sein.

Auf Basis dieser Grundsätze wurde der risikobasierte Ansatz des AI-Acts entwickelt, mit welchem KI-Systeme in eine von vier Risikoklassen eingeordnet werden können: niedriges, limitiertes, hohes und inakzeptables Risiko.

Vier Risikoklassen für vertrauenswürdige KI

Die Risikoklasse eines KI-Systems gibt an, wie stark ein KI-System die Prinzipien vertrauenswürdiger KI bedroht und welche rechtlichen Auflagen das System erfüllen muss – sofern das System grundlegend zulässig ist. Denn zukünftig sind auf dem europäischen Markt nicht alle KI-Systeme willkommen. Beispielsweise werden die meisten „Social Scoring“-Techniken als „inakzeptabel“ eingeschätzt und im Zuge des neuen Gesetzes verboten.

Für die anderen drei Risiko-Klassen gilt die Faustregel: Je höher das Risiko eines KI-Systems, desto höher die rechtlichen Anforderungen an dieses. Die meisten Anforderungen werden Unternehmen erfüllen müssen, welche Hochrisiko-Systeme anbieten oder betreiben. Als solche gelten z.B. KI, die für den Betrieb kritischer (digitaler) Infrastruktur genutzt oder in medizinischen Geräten eingesetzt wird. Um diese auf den Markt zu bringen, müssen Unternehmen hohe Qualitätsstandards bei den genutzten Daten beachten, ein Risikomanagement einrichten, eine CE-Kennzeichnung anbringen und vieles mehr.

KI-Systeme der Klasse „limitiertes Risiko“ unterliegen Informations- und Transparenzpflichten. Demnach müssen Unternehmen Nutzer:innen von Chatbots, Emotionserkennungssystemen oder Deepfakes über den Einsatz und Nutzung künstlicher Intelligenz informieren. Predictive Maintenance oder Spamfilter sind zwei Beispiele für KI-Systeme, welche in die niedrigste Risiko-Klasse „geringes Risiko“ fallen. Unternehmen, die ausschließlich solche KI-Lösungen anbieten oder nutzen, werden kaum von dem kommenden AI-Act betroffen sein. Für diese Anwendungen sind nämlich bisher keine rechtlichen Auflagen vorgesehen.

Was Unternehmen jetzt tun können

Auch wenn sich der AI-Act noch in der Gesetzgebung befindet, sollten Unternehmen bereits jetzt aktiv werden. Ein erster Schritt stellt die Abklärung der Betroffenheit durch den AI-Act dar. Um Sie dabei zu unterstützen, haben wir den AI-Act Quick Check entwickelt. Mit diesem kostenlosen Tool können Sie KI-Systeme kostenfrei und schnell einer Risiko-Klasse zugeordnet und Anforderungen an das System abgeleitet werden. Nicht zuletzt kann auf dieser Basis abgeschätzt werden, wie umfangreich die Realisierung des AI-Acts im eigenen Unternehmen wird und erste Maßnahmen ergriffen werden.

AI Act Tool     AI Act Fact Sheet

 

Profitieren auch Sie von unserer Expertise!

Selbstverständlich unterstützen wir Sie gerne bei der Evaluation und Lösungen unternehmens­spezifischen Herausforderungen rund um den AI-Act. Sprechen Sie uns dafür gerne an!

     

    Links & Quellen:

    Julia Rettig

    Eine Datenkultur ist ein Schlüsselfaktor für die effektive Datennutzung

    Mit der zunehmenden Digitalisierung ist die Fähigkeit, Daten effektiv zu nutzen, zu einem entscheidenden Erfolgsfaktor für Unternehmen geworden. Diese Denk- und Handlungsweise wird oft als Datenkultur bezeichnet und spielt eine entscheidende Rolle bei der Umwandlung eines Unternehmens in eine datengesteuerte Organisation. Durch die Förderung einer Datenkultur können Unternehmen von der Flexibilität einer faktenbasierten Entscheidungsfindung profitieren und das Potenzial ihrer Daten voll ausschöpfen. Eine solche Kultur ermöglicht schnellere und nachweislich bessere Entscheidungen und verankert datengetriebene Innovation im Unternehmen.

    Obwohl Notwendigkeit und Nutzen einer Datenkultur offensichtlich erscheinen, scheitern dennoch viele Unternehmen an der Herausforderung eine solche Kultur zu etablieren. Einer Studie von New Vantage Partners zur Folge, konnten bisher nur 20% der Unternehmen erfolgreich eine Datenkultur entwickeln. Weiter bezeichnen über 90% der befragten Unternehmen die Veränderung der Kultur als größte Hürde bei der Transformation zum datengetriebenen Unternehmen.

    Eine Datenkultur verändert die Arbeitsweise fundamental

    Die Ursachen für diese Herausforderung sind vielfältig und die erforderlichen Veränderungen durchdringen nahezu alle Aspekte des Arbeitsalltages. In einer effektiven Datenkultur nutzt jede:r Mitarbeiter:in bevorzugt Daten und Datenanalysen zur Entscheidungsfindung und räumt Daten und Fakten Priorität gegenüber dem individuellen „Bauchgefühl“ ein. Diese Denkweise fördert die stetige Suche nach Möglichkeiten der Datennutzung, um so Wettbewerbsvorteile zu identifizieren, neue Einnahmequellen zu erschließen, Prozesse zu optimieren und bessere Vorhersagen zu treffen. Indem sie sich eine Datenkultur zu eigen machen, können Unternehmen das volle Potenzial ihrer Daten ausschöpfen und Innovationen im gesamten Unternehmen vorantreiben. Das bedingt, dass Daten als wichtige Triebkraft für Entscheidungsfindung und Innovation erkannt werden. Dieses Idealbild stellt neue Anforderungen an das individuelle Verhalten der Mitarbeitenden. Darüber hinaus erfordert dies auch eine gezielte Unterstützung dieses Verhaltens durch geeignete Rahmenbedingungen wie eine technische Infrastruktur und organisatorische Abläufe.

    Drei Faktoren prägen die Datenkultur maßgeblich

    Um eine Datenkultur nachhaltig im Unternehmen zu verankern, sind vor allem drei Faktoren entscheidend:

    1. Können | Fähigkeiten
    2. Wollen | Einstellung
    3. Machen | Verhalten

    statworx nutzt diese drei Faktoren, um einerseits das abstrakte Konzept der Datenkultur greifbar zu machen und andererseits, um gezielt notwendige Veränderungen anzustoßen.

    Dabei ist es entscheidend, allen Faktoren gleichermaßen Aufmerksamkeit zu schenken und sie möglichst ganzheitlich zu beachten. Häufig beschränken sich Initiativen zur Kulturentwicklung auf den Aspekt der Einstellung und versuchen bestimmte Werte losgelöst von anderen Einflussfaktoren zu verankern. Diese Initiativen scheitern dann meist an der Realität der Unternehmen, die mit ihren Prozessen, gelebten Ritualen, Praktiken und Werten entgegenstehen und somit die Etablierung der Kultur (aktiv) verhindern.

    Zur Übersicht haben wir drei Faktoren der Datenkultur in einem Framework festgehalten.

    1. Können: Fähigkeiten bilden die Basis für effektive Datennutzung

    Fähigkeiten und Fertigkeiten bilden die Grundlage für den effektiven Umgang mit Daten. Diese umfassen zum einen die methodischen und fachlichen Fähigkeiten der Mitarbeitenden und zum anderen die Fähigkeit der Organisation, Daten nutzbar zu machen.

    Für die Nutzbarkeit der Daten ist dabei die Sicherstellung der Datenverfügbarkeit von besonderer Bedeutung. Der „FAIR“-Standard – Findable, Accessible, Interoperable, Reusable – gibt eine Richtung vor, welche Eigenschaften dabei wesentlich sind. Diese können zum Beispiel durch Technologien, Wissensmanagement und eine geeignete Governance unterstützt werden.

    Auf Ebene der Fähigkeiten der Mitarbeitenden liegt der Schwerpunkt auf Data Literacy (=Datenkompetenz) – der Fähigkeit, Daten zu verstehen und effektiv zu nutzen, um fundierte Entscheidungen zu treffen. Dazu gehört ein grundlegendes Verständnis von Datentypen und Strukturen, wie auch Erhebungs- und Analysemethoden. Data Literacy beinhaltet auch die Fähigkeit, die richtigen Fragen zu stellen, Daten richtig zu interpretieren und Muster und Trends zu erkennen. Bauen Sie relevante Kompetenzen, zum Beispiel durch Upskilling, gezielte Personalplanung und Einstellung von Datenexperten auf.

    2. Wollen: Eine Datenkultur kann nur in passendem Wertekontext gedeihen

    Der zweite Faktor – Wollen – befasst sich mit den Einstellungen und Absichten der Mitarbeitenden und der Organisation als Ganzes gegenüber der Nutzung von Daten. Dafür müssen sowohl die Überzeugungen und Werte von Individuen als auch der Gemeinschaft im Unternehmen adressiert werden. Für die Datenkultur sind dabei vier Aspekte von zentraler Bedeutung:

    • Zusammenarbeit & Gemeinschaft statt Konkurrenz
    • Transparenz & Teilen statt Informationsverschleierung & Datenhortung
    • Pilotprojekte & Experimente statt theoretischer Einschätzung
    • Offenheit & Lernbereitschaft statt Kleinlichkeit & starrer Denkweise
    • Daten als zentrale Entscheidungsgrundlage statt individueller Meinung & Bauchgefühl

    Fallbeispiel: Unternehmen ohne Datenkultur

    Auf individueller Ebene ist ein:e Mitarbeiter:in davon überzeugt, dass man sich mit exklusivem Wissen und Daten einen Vorteil verschaffen kann. Die Person hat innerhalb der Organisation außerdem gelernt, dass sich so strategische Vorteile oder Möglichkeiten zur eigenen Positionierung ergeben, und wurde in der Vergangenheit von Vorgesetzten für solches Verhalten belohnt. Die Person ist also davon überzeugt, dass es absolut sinnvoll und vorteilhaft ist, Daten für sich oder innerhalb des eigenen Teams zu behalten und nicht mit anderen Abteilungen zu teilen. Das Konkurrenzdenken und die Tendenz zur Geheimhaltung sind als Wert fest verankert.

    Generell schränkt ein Verhalten wie im Fallbeispiel beschrieben, die Transparenz im gesamten Unternehmen ein und bremst dadurch die Organisation aus. Wenn nicht alle dieselben Informationen haben, ist es schwierig, die bestmögliche Entscheidung für das gesamte Unternehmen zu treffen. Nur durch Offenheit und Kollaboration kann der wahre Wert der Daten im Unternehmen genutzt werden.  Ein datengetriebenes Unternehmen basiert auf einer Kultur der Zusammenarbeit, des Teilens und des Lernens. Wenn Menschen dazu ermutigt werden, ihre Ideen und Erkenntnisse auszutauschen, können bessere Entscheidungen getroffen werden.

    Auch mögliche Absichtserklärungen, wie Leitbilder und Manifeste ohne greifbare Maßnahmen, werden an der Einstellung der Mitarbeitenden nur wenig ändern. Die große Herausforderung besteht darin, die Werte nachhaltig zu verankern und für alle Mitarbeitenden zur leitenden Handlungsprämisse zu machen, die im Unternehmensalltag aktiv gelebt wird. Gelingt dies, ist die Organisation auf dem besten Weg das erforderliche Data Mindset zu schaffen, um eine effektive und erfolgreiche Datenkultur zum Leben zu erwecken. Bei der Etablierung und Sichtbarmachung dieser Werte kann zum Beispiel unser Transformations-Framework helfen.

    Wir empfehlen den Aufbau einer Datenkultur Schritt für Schritt zu beginnen, denn bereits kleine experimentelle Projekte schaffen Mehrwert, dienen als Positivbeispiel und schaffen Vertrauen. Die praktische Erprobung einer neuen Innovation, selbst nur in einem begrenzten Rahmen, bringt erfahrungsgemäß schneller und bessere Resultate als eine theoretische Einschätzung. Letztlich geht es darum, den Wert von Daten in den Vordergrund zu stellen.

    3. Machen: Verhalten schafft den Rahmen und ist gleichzeitig sichtbares Resultat der Datenkultur

    Die beiden zuvor genannten Faktoren zielen letztendlich darauf ab, dass Mitarbeitende und die Organisation als Gesamtkonstrukt ihr Verhalten anpassen. Nur aktiv gelebte Datenkultur kann erfolgreich sein. Das alltägliche Verhalten – das Machen – spielt demnach eine zentrale Rolle bei der Etablierung einer Datenkultur.

    Das Verhalten der Organisation lässt sich vor allem in zwei Dimensionen betrachten und gleichzeitig durch Veränderungen prägen.

    1. Aktivitäten und Rituale
    2. Strukturelemente der Organisation

    Aktivitäten und Rituale:

    Aktivitäten und Rituale beziehen sich auf die alltägliche Zusammenarbeit zwischen den Mitarbeitenden einer Organisation. Sie äußern sich in allen Formen der Zusammenarbeit, von den Abläufen in Meetings, über den Umgang mit Feedback und Risiken bis hin zur jährlichen Weihnachtsfeier. Dabei ist entscheidend, welchen Mustern das Miteinander folgt und welches Verhalten belohnt bzw. bestraft wird.

    Erfahrungsgemäß fällt die Transformation zu datengetriebenen Entscheidungen den Teams leichter, welche bereits mit agilen Methoden wie Scrum vertraut sind. Teams, welche wiederrum starken Hierarchien folgen und risikoavers agieren, bewältigen diese Herausforderung weniger leicht. Ein Grund dafür ist, dass agile Arbeitsweisen Zusammenarbeit verschiedener Rollen bekräftigen, und so das Fundament für ein produktives Arbeitsumfeld schaffen. In diesem Kontext ist die Rolle der Führung, insbesondere des Senior Leaderships, von entscheidender Bedeutung. Die Personen auf C-Level müssen zwingend von Beginn an das erwünschte Verhalten vorleben, Rituale und Aktivitäten einführen und gemeinsam als zentraler Treiber der Transformation agieren.

    Strukturelemente der Organisation:

    Während Aktivitäten und Rituale aus den Teams heraus entstehen und nicht immer vorgegeben werden, bildet die zweite Dimension eine stärkere Formalisierung ab. Sie bezieht sich auf die Strukturelemente einer Organisation. Diese bilden den formalen Rahmen für Entscheidungen und prägen dadurch auch das Verhalten, sowie die Entstehung und Verankerung von Werten und Einstellungen.

    Dabei wird zwischen internen und externen Strukturelementen unterschieden. Interne Strukturelemente sind vor allem innerhalb der Organisation sichtbar – zum Beispiel Rollen, Prozesse, Hierarchieebenen, oder Gremien. Durch die Anpassungen und Umstrukturierung von Rollen können erforderliche Skills im Unternehmen abgebildet werden. Weiter können Belohnungen und Beförderungen für Mitarbeitende einen Anreiz schaffen das Verhalten selbst anzunehmen und an Kolleg:innen weiterzugeben. Auch die Aufteilung der Arbeitsumgebung ist ein Teil der internen Struktur. Da die Arbeitsweise in datengetriebenen Unternehmen auf enger Zusammenarbeit beruht und Personen mit verschieden Fähigkeiten braucht. Daher bietet es sich an einen Raum für offenen Austausch zu schaffen, der Kommunikation und Kollaboration zulässt.

    Externe Strukturelemente spiegeln internes Verhalten nach außen. Demnach beeinflussen die internen Strukturelemente, die Wahrnehmung des Unternehmens von außen. Dies zeigt sich beispielsweise durch eine klare Kommunikation, den Aufbau der Webseite sowie durch Stellenausschreibungen und Marketingbotschaften.

    Unternehmen sollten ihr äußeres Verhalten so gestalten, dass es mit den Werten der Organisation übereinstimmt und somit eigene Strukturen unterstützt. Auf diese Weise kann eine harmonische Abstimmung zwischen der internen und der externen Positionierung der Firma erreicht werden.

    Erste, kleine Schritte können bereits große Veränderungen schaffen

    Unsere Erfahrung hat gezeigt, dass die aufeinander abgestimmte Gestaltung von Können, Wollen und Machen in eine nachhaltige Datenkultur resultiert. Nun ist klar, dass eine Datenkultur nicht von heute auf morgen geschaffen werden kann, aber es auch nicht mehr ohne geht. Es hat sich bewährt diese Herausforderung in kleine Schritte zu unterteilen. Mit ersten Pilotprojekten, wie beispielsweise der Etablierung der Datenkultur in nur einem Team und Initiativen für besonders engagierte Mitarbeitende, die den Wandel vorantreiben wollen, wird Vertrauen in den Kulturwandel geschaffen. Positive Einzelerlebnisse dienen als hilfreicher Katalysator für den Wandel der gesamten Organisation.

    Der Philosoph und Visionär R. Buckminster Fuller hat dazu gesagt „Man bewirkt niemals eine Veränderung, indem man das Bestehende bekämpft. Um etwas zu verändern, schafft man neue Dinge oder geht andere Wege, die das Alte überflüssig machen.“ Denn mit der Weiterentwicklung der Technologie müssen Unternehmen in der Lage sein, sich anzupassen, um das gesamte Potential auszuschöpfen. So können Entscheidungen schneller und genauer als je zuvor getroffen, Innovation vorangetrieben und Prozesse zunehmend optimiert werden. Die nachhaltige Etablierung einer Datenkultur wird Unternehmen einen Wettbewerbsvorteil auf dem Markt verschaffen. In der Zukunft wird die Datenkultur ein wesentlicher Bestandteil jeder erfolgreichen Geschäftsstrategie sein. Unternehmen, die dies nicht annehmen, bleiben zurück.

    Jedoch ist die Nutzung von Daten für viele Unternehmen ein großes Problem. Oft stehen die Datenqualität und die Zusammenstellung der Daten im Weg. Auch wenn in vielen Unternehmen bereits Datenlösungen vorhanden sind, werden sie nicht optimal genutzt. So bleiben viele Informationen ungenutzt und können nicht in die Entscheidungsfindung einfließen.

    Quellen:

    [1] https://hbr.org/2020/03/how-ceos-can-lead-a-data-driven-culture

    Bild: AdobeStock 569760113 Annsophie Huber

    In einer schnelllebigen und datengesteuerten Welt ist die Verwaltung von Informationen und Wissen essenziell. Insbesondere Unternehmen sind darauf angewiesen, Wissen intern so schnell, verständlich und knapp wie möglich zugänglich zu machen. Knowledge Management ist der Prozess der Schaffung, Extraktion und Nutzung von Wissen zur Verbesserung der Unternehmensleistung. Es umfasst Methoden, die Organisationen dabei helfen, Wissen zu identifizieren und zu extrahieren, zu verteilen und zu nutzen, um ihre Ziele besser zu erreichen. Dies kann jedoch eine komplexe und schwierige Aufgabe sein, insbesondere in großen Unternehmen.

    Natürliche Sprachverarbeitung (NLP) verspricht hier Abhilfe. Diese Technologie hat das Potenzial, die Knowledge-Strategie von Unternehmen zu revolutionieren. NLP ist ein Zweig der künstlichen Intelligenz, der sich mit der Interaktion zwischen Computern und menschlicher Sprache befasst. Durch den Einsatz von NLP können Unternehmen Erkenntnisse aus großen Mengen unstrukturierten Textmengen gewinnen und diese in verwertbares Wissen umwandeln.

    In diesem Blogbeitrag untersuchen wir anhand eines Fallbeispiels, wie NLP Knowledge Management verbessern kann und wie Unternehmen NLP nutzen können, um komplexe Prozesse schnell, sicher und automatisiert durchzuführen. Wir untersuchen die Vorteile des Einsatzes von NLP im Knowledge Management, welche verschiedenen NLP-Techniken dabei zum Einsatz kommen und wie Unternehmen NLP einsetzen können, um mithilfe von künstlicher Intelligenz ihre Ziele besser erreichen zu können.

    Fallbeispiel für effektives Knowledge Management

    Am Fallbeispiel des E-Mail-Verkehrs in einem Bauprojekt wollen wir die Anwendung und den Mehrwert natürlicher Sprachverarbeitung illustrieren. Dabei nutzen wir zwei E-Mails als konkrete Beispiele, die während des Bauprojekts ausgetauscht wurden: eine Auftragsbestätigung für bestellte Artikel und eine Beschwerde über deren Qualität.

    Für einen Neubau hat der Bauherr bei einer Vielzahl von Zulieferern Angebote für Produkte eingeholt, unter anderem auch für Wärmedämmungen. Schlussendlich wurden diese bei einem Zulieferer bestellt. In einer E-Mail klärt der Zulieferer den Bauherrn über die bestellten Artikel, deren Eigenschaften und Kosten auf und bestätigt gleichzeitig die Lieferung zu einem festgelegten Datum. Zu einem späteren Zeitpunkt stellt der Bauherr fest, dass die Qualität der gelieferten Produkte nicht den erhofften Standards entsprechen.  Diesen Umstand teilt der Bauherr dem Zulieferer in einer schriftlichen Beschwerde auch als E-Mail mit. Im Fließtext dieser E-Mails ist eine Fülle von Informationen erhalten, die sich mittels NLP-Methoden herausschälen, aufbereiten und zum besseren Verständnis weiterverarbeiten lassen. Durch die große Fülle an verschiedenen Angeboten und Interaktionen wird die manuelle Bearbeitung sehr aufwändig – programmatische Auswertung der Kommunikation verschafft hierbei Abhilfe.

    Im Folgenden stellen wir eine Knowledge Management Pipeline vor, die schrittweise diese beiden E-Mails auf ihre Inhalte prüft, und den Usern  durch Textverarbeitung den jeweils größtmöglichen Nutzen bietet. Jetzt einfach auf die interaktiven Felder klicken, um zu sehen, wie die Knowledge Management Pipeline funktioniert!

    Zusammenfassung (Task: Summarization)

    In einem ersten Schritt kann der Inhalt jedes Textes zusammengefasst und in wenigen Sätzen auf den Punkt gebracht werden. Dies reduziert den Fließtext auf Wichtiges (wie Informationen und Wissen), entfernt Unwichtiges (wie Floskeln und Wiederholungen) und verringert stark die Menge an zu lesendem Text.

    Besonders bei langen E-Mails ist der Mehrwert allein durch die Zusammenfassung enorm: Die Auflistung der wichtigen Inhalte als Stichpunkte spart Zeit, verhindert Missverständnisse und das Übersehen wichtiger Details.

    Allgemeine Zusammenfassungen sind bereits hilfreich, aber mithilfe der neusten Sprachmodelle kann NLP noch einiges mehr. Bei einer allgemeinen Zusammenfassung wird die Textlänge bei gleichbleibender Informationsdichte so weit wie möglich reduziert. Große Sprachmodelle können nicht nur eine allgemeine Zusammenfassung produzieren, sondern diesen Vorgang auch an spezifische Bedürfnisse der Mitarbeitenden anpassen. So können zum Beispiel Fakten hervorgehoben, oder technisches Jargon vereinfacht werden. Insbesondere lassen sich Zusammenfassungen für ein spezifisches Publikum, beispielweise eine bestimmte Abteilung im Unternehmen, durchführen.

    Für unterschiedliche Abteilungen und Rollen sind unterschiedliche Informationen relevant. Deshalb sind Zusammenfassungen besonders dann nützlich, wenn sie spezifisch auf die Interessen einer Abteilung oder Rolle zugeschnitten sind. So enthalten die beiden E-Mails aus unserem Fallbeispiel Informationen, die für die Rechts-, Operations- oder Finanzabteilung unterschiedlich relevant sind. Deshalb wird in einem nächsten Schritt für jede Abteilung je eine separate Zusammenfassung erstellt:

     

    Dadurch fällt es den Nutzer:innen noch leichter, die für sie relevanten Informationen zu erkennen und zu verstehen und gleichzeitig die richtigen Schlüsse für ihre Arbeit zu ziehen.

    Generative NLP-Modelle ermöglichen es nicht nur, Texte auf das Wesentliche herunterzubrechen, sondern auch Erklärungen zu Unklarheiten und Details zu liefern. Ein Beispiel dafür ist die Erklärung einer in der Auftragsbestätigung nur mit Akronym genannten Verordnung, deren Details der User möglicherweise nicht präsent sind. Dadurch entfällt eine lästige Onlinesuche nach einer passenden Erklärung.

     

     

    Knowledge Extraction (Task: NER, Sentiment Analysis, Classification)

    Als nächster Schritt sollen die E-Mails und ihre Inhalte systematisch kategorisiert werden. Dadurch lassen sich eingegangene E-Mails beispielsweise den korrekten Postfächern automatisch zuweisen, mit Metadaten versehen und strukturiert sammeln.

    So können E-Mails, die auf einem Kundendienstkonto eingehen, automatisch nach definierten Kategorien klassifiziert werden (Beschwerden, Anfragen, Anregungen, etc). Dadurch entfällt die händische Einteilung in Kategorien, was wiederum die Anfälligkeit für falsche Einteilungen vermindert und für robustere Abläufe sorgt.

    Innerhalb dieser Kategorien können die Inhalte von E-Mails erneut anhand semantischer Inhaltsanalyse unterteilt werden, um beispielsweise die Dringlichkeit einer Anfrage zu bestimmen. Dazu gleich noch mehr.

     

    Sind die E-Mails einmal korrekt klassifiziert, so können mittels „Named Entitiy Recognition (NER)“ Metadaten aus jedem Text extrahiert und angelegt werden.

    NER ermöglicht es, die Entitäten in Texten zu identifizieren und zu benennen. Entitäten können Personen, Orte, Organisationen, Daten oder andere benannte Objekte sein. In Bezug auf E-Mail-Eingänge und deren Inhalten kann NER hilfreich sein, um wichtige Informationen und Zusammenhänge innerhalb der Texte zu extrahieren. Durch die Identifizierung und Kategorisierung von Entitäten können die relevanten Informationen schnell gefunden und klassifiziert werden.

    Bei Beschwerden kann NER verwendet werden, um die Namen des Produkts, des Kunden und des Verkäufers zu identifizieren. Diese Informationen können dann verwendet werden, um das Problem zu lösen oder Änderungen an dem Produkt vorzunehmen, um künftige Beschwerden zu vermeiden.

    NER kann auch dazu beitragen, dass nach der Klassifizierung, in E-Mails automatisch die relevanten Fakten und Zusammenhänge hervorgehoben werden. Wenn beispielsweise eine Bestellung als E-Mail von einem Kunden eingeht, dann kann NER die relevanten Informationen extrahieren, die E-Mail damit als  Metadaten anreichern und automatisch an entsprechende Vertriebsmitarbeiter:innen weiterleiten.

    Similarity (Task: Semantic Similarity)

    Erfolgreiches Knowledge Management erfordert zunächst, relevante Daten, Fakten und Dokumente zu identifizieren und zielgerichtet zusammenzutragen. Bei unstrukturierten Textdaten wie E-Mails, die zudem in Informationssilos (also Postfächern) lagern, war dies bislang eine besonders schwierige Aufgabe.   eingegangener E-Mails und deren Überschneidungen noch besser zu erfassen, können Methoden zur semantischen Analyse von Texten eingesetzt werden. „Semantic Similarity Analysis“ ist eine Technologie, die verwendet wird, um die Bedeutung von Texten zu verstehen und die Ähnlichkeiten zwischen unterschiedlichen Texten zu messen.

    Im Kontext von Knowledge Management kann semantische Analyse dabei helfen, E-Mails zu gruppieren und diejenigen zu identifizieren, die sich auf dasselbe Thema beziehen oder ähnliche Anfragen enthalten. Auf diese Weise kann die Produktivität von Kundensupport-Teams gesteigert werden, indem sie sich auf die wichtigen Aufgaben konzentrieren können, anstatt viel Zeit damit zu verbringen, E-Mails manuell zu sortieren oder zu suchen.

    Darüber hinaus kann semantische Analyse dazu beitragen, Trends und Muster in den eingehenden E-Mails zu erkennen, die möglicherweise auf Probleme oder Optionen für Verbesserungen im Unternehmen hinweisen. Diese Erkenntnisse können dann genutzt werden, um proaktiv auf Kundenbedürfnisse einzugehen oder um Prozesse und Produkte zu verbessern.

    Answer Generation (Task: Text Generation)

    Zu guter Letzt sollen E-Mails auch beantwortet werden. Wer bereits mit Textvorschlägen in Mailprogrammen experimentiert hat weiß, dass diese Aufgabe wohl noch nicht bereit ist zur Automatisierung. Allerdings können generative Modelle dabei helfen, E-Mails schneller und präziser zu beantworten. Ein generatives Sprachmodell kann auf Basis der eingegangenen E-Mails schnell und zuverlässig Antwortvorlagen generieren, die dann von der bearbeitenden Person lediglich ergänzt, vervollständigt und überprüft werden müssen. Wichtig dabei ist die genaue Überprüfung jeder Antwort vor dem Versand, denn generative Modelle sind dafür bekannt, Resultate zu halluzinieren, also überzeugende Antworten zu generieren, die bei näherer Betrachtung inhaltlich aber Fehler aufweisen. Auch hier können KI-Systeme zumindest teilweise Abhilfe schaffen, indem sie Fakten und Aussagen dieser „Antwortmodelle“ mit einem „Kontrollmodell“ auf Richtigkeit prüfen.

     

     

    Fazit

    Natürliche Sprachverarbeitung (NLP) bietet Unternehmen zahlreiche Möglichkeiten, um ihre Knowledge Management-Strategien zu verbessern. NLP versetzt uns in die Lage, aus unstrukturiertem Text Informationen präzise zu extrahieren und die Verarbeitung und Bereitstellung von Wissen für Mitarbeitende zu optimieren.

    Durch die Anwendung von NLP-Methoden auf E-Mails, Dokumente und andere Textquellen können Unternehmen die Inhalte automatisch kategorisieren, zusammenfassen und auf die wichtigsten Informationen reduzieren. Dadurch können Mitarbeitende schnell und einfach auf wichtige Informationen zugreifen, ohne sich durch lange Seiten von Text kämpfen zu müssen. Dies spart Zeit, verringert die Fehleranfälligkeit und trägt dazu bei, bessere Geschäftsentscheidungen zu treffen.

    Im Rahmen eines Bauprojekts haben wir gezeigt, wie NLP in der Praxis eingesetzt werden kann, um E-Mails effizienter zu verarbeiten und die Verwaltung von Wissen zu verbessern. Die Anwendung von NLP-Techniken, wie der Zusammenfassung und der Spezifizierung von Informationen für bestimmte Abteilungen, kann Unternehmen dabei helfen, ihre Ziele besser zu erreichen und ihre Leistungen zu verbessern.

    Die Anwendung von NLP im Knowledge Management bietet große Vorteile für Unternehmen. Es kann dabei helfen, Prozesse zu automatisieren, die Zusammenarbeit zu verbessern, die Effizienz zu steigern und die Qualität von Entscheidungen zu optimieren. Unternehmen, die NLP in ihre Knowledge Management-Strategie integrieren, können wertvolle Erkenntnisse gewinnen, die es ihnen ermöglichen, sich in einem immer komplexer werdenden Geschäftsumfeld besser zurechtzufinden.

     

    Bildquelle: AdobeStock 459537717 Oliver Guggenbühl, Jonas Braun

    Einleitung

    Jeder Data-Science- und KI-Experte wird Ihnen sagen: Reale Data Science und KI-Initiativen bringen verschiedene Herausforderungen mit sich, auf die weder praktische Programmierwettbewerbe noch theoretische Vorlesungen vorbereiten können. Und manchmal – erschreckend oft [1, 2] – führen diese Probleme in der Praxis dazu, dass vielversprechende KI-Projekte oder ganze KI-Initiativen scheitern. Seit geraumer Zeit wird eine rege Diskussion über die eher technischen Fallstricke und mögliche Lösungen geführt. Zu den bekannteren Problemen gehören z. B. isolierte Daten, schlechte Datenqualität, zu unerfahrene oder unterbesetzte DS & KI-Teams, unzureichende Infrastruktur für das Training und die Bereitstellung von Modellen. Ein weiteres Problem ist, dass zu viele Lösungen aufgrund organisatorischer Probleme nie in die Produktion überführt werden.

    Erst in letzter Zeit hat sich der Fokus des Diskurses mehr auf strategische Fragen verlagert. Meiner Meinung nach wird diesen Aspekten jedoch immer noch nicht die Aufmerksamkeit zuteil, die sie verdienen.

    Deshalb möchte ich in diesem Beitrag meine Meinung zu den wichtigsten (nicht-technischen) Gründen für das Scheitern von DS & KI-Initiativen darlegen. Darüber hinaus werde ich Ihnen verschiedene Ansätze zur Lösung dieser Probleme vorstellen. Ich bin Data & Strategy Consultant bei STATWORX und ich bin sicher, dass dieser Artikel eher subjektiv ist. Er spiegelt meine persönlichen Erfahrungen mit den Problemen und Lösungen wider, auf die ich gestoßen bin. 

    Problem Nr. 1: Mangelnde Verknüpfung von Projektumfang und tatsächlichem Business-Problem Problem 1

    Ein Problem, das viel häufiger auftritt, als man denken würde, ist die Fehlanpassung der entwickelten Data Science und KI-Lösungen an die tatsächlichen Geschäftsbedürfnisse. Das fertige Produkt erfüllt vielleicht genau die Aufgabe, die das DS- und KI-Team lösen wollte, aber die Anwender:innen suchen eventuell nach einer Lösung für eine ähnliche, aber deutlich andere Aufgabe.

    Zu wenig Austausch durch indirekte Kommunikationskanäle oder das Fehlen einer gemeinsamen Sprache und eines gemeinsamen Referenzrahmens führt oft zu grundlegenden Missverständnissen. Das Problem ist, dass ironischerweise nur eine extrem detaillierte, effektive Kommunikation solche subtilen Probleme aufdecken kann.

    Die Einbeziehung zu weniger oder selektiver Perspektiven kann zu einem bösen Erwachen führen

    In anderen Fällen unterscheiden sich einzelne Teilprozesse oder die Arbeitsweisen einzelner Nutzenden sehr stark. Oft sind sie so unterschiedlich, dass eine Lösung, die für einen der Anwender:innen/Prozesse von großem Nutzen ist, für alle anderen kaum Vorteile bringt (die Entwicklung von Lösungsvarianten ist zwar manchmal eine Option, aber bei weitem nicht so kosteneffizient).

    Wenn Sie Glück haben, stellen Sie dies bereits zu Beginn eines Projekts bei der Erhebung der Anforderungen fest. Wenn man Pech hat, kommt das böse Erwachen erst beim breiteren Nutzertest oder gar bei der Einführung, wenn sich herausstellt, dass die Nutzer:innen oder Expert:innen, die die bisherige Entwicklung beeinflusst haben, keinen allgemeingültigen Input geliefert haben und das entwickelte Werkzeug daher nicht allgemein einsetzbar ist.

    Wie Sie diesem Problem entgegenwirken können:

    • Führen Sie ein strukturiertes und gründliches Requirements Engineering durch. Nehmen Sie sich die Zeit, mit so vielen Expert:innen und Nutzer:innen wie möglich zu sprechen, und versuchen Sie, alle impliziten Annahmen so explizit wie möglich zu machen. Obwohl das Requirements Engineering aus dem Wasserfall-Paradigma stammt, kann es leicht für die agile Entwicklung angepasst werden. Die ermittelten Anforderungen dürfen einfach nicht als endgültige Produktmerkmale verstanden werden, sondern als Elemente für Ihr anfängliches Backlog, die ständig (neu) bewertet und (neu) priorisiert werden müssen.
    • Definieren Sie unbedingt Erfolgsmessungen. Tun Sie dies vor Projektbeginn, am besten in Form von objektiv quantifizierbaren KPIs und Benchmarks. Dies trägt wesentlich dazu bei, das Geschäftsproblem bzw. den Geschäftswert, der der angestrebten Lösung zugrunde liegt, zu ermitteln.
    • Erstellen Sie, wann immer möglich und so schnell wie möglich, Prototypen, Mock-ups oder sogar Storyboards. Präsentieren Sie diese Lösungsentwürfe so vielen Testnutzern wie möglich. Diese Methoden erleichtern das Einholen von offenem und präzisem Nutzerfeedback, das in die weitere Entwicklung einfließt. Achten Sie darauf, dass Sie eine für die Gesamtheit der Nutzer repräsentative Stichprobe einbeziehen.

    Problem Nr. 2: Effizienz- und Ressourcenverluste durch nicht strukturierte Data Science- und KI-Maßnahmen Problem 2

    Dezentralisierte Data Science- & KI-Teams entwickeln ihre Anwendungsfälle oft mit wenig bis gar keinem Austausch oder Abgleich zwischen den aktuellen Anwendungsfällen und Backlogs der Teams. Dies kann dazu führen, dass verschiedene Teams versehentlich und unbemerkt (Teile) der gleichen (oder sehr ähnlichen) Lösung entwickeln.

    In den meisten Fällen wird, wenn eine solche Situation entdeckt wird, eine der redundanten DS & KI-Lösungen eingestellt oder es werden keine zukünftigen Mittel für die weitere Entwicklung oder Wartung bereitgestellt. So oder so, die redundante Entwicklung von Anwendungsfällen führt immer zu einer direkten Verschwendung von Zeit und anderen Ressourcen ohne oder mit nur minimalem Zusatznutzen.

    Problematisch ist auch die fehlende Abstimmung des Use Case Portfolios eines Unternehmens auf die allgemeine Geschäfts- oder KI-Strategie. Dies kann hohe Opportunitätskosten verursachen: Anwendungsfälle, die nicht zur allgemeinen KI-Vision beitragen, können unnötigerweise wertvolle Ressourcen blockieren. Außerdem werden potenzielle Synergien zwischen strategisch wichtigeren Anwendungsfällen (Use Cases) möglicherweise nicht voll ausgeschöpft. Und schließlich könnte der Aufbau von Kompetenzen in Bereichen erfolgen, die von geringer oder gar keiner strategischen Bedeutung sind.

    Wie Sie diesem Problem entgegenwirken können:

    • Kommunikation ist der Schlüssel. Deshalb sollte es immer eine Reihe von Möglichkeiten für die Data-Science-Expert:innen innerhalb eines Unternehmens geben, sich zu vernetzen und ihre Erfahrungen und Best Practices auszutauschen – insbesondere bei dezentralen DS & KI-Teams. Damit dies funktioniert, ist es wichtig, eine Arbeitsatmosphäre der Zusammenarbeit zu schaffen. Der freie Austausch von Erfolgen und Misserfolgen und damit die interne Verbreitung von Kompetenzen kann nur ohne Konkurrenzdenken gelingen.
    • Eine weitere Möglichkeit, das Problem zu entschärfen, ist die Einrichtung eines zentralen Ausschusses, der mit der Verwaltung des DS und KI Use Case Portfolios der Organisation betraut ist. Diesem Ausschuss sollten Vertreter:innen aller (dezentralen) Data Science und KI-Abteilungen sowie der Geschäftsleitung angehören. Gemeinsam überwacht der Ausschuss die Abstimmung von Use Cases und der KI-Strategie, um Redundanzen zu vermeiden und Synergien voll auszuschöpfen.

    Problem Nr. 3: Unrealistisch hohe Erwartungen an den Erfolg von Data Science und KI Problem 3

    Es mag paradox klingen, aber ein zu großer Optimismus in Bezug auf die Möglichkeiten und Fähigkeiten von Data Science und KI kann dem Erfolg abträglich sein. Denn zu optimistische Erwartungen führen oft dazu, dass die Anforderungen unterschätzt werden, wie z. B. die für die Entwicklung benötigte Zeit oder der Umfang und die Qualität der benötigten Datenbasis.

    Gleichzeitig sind die Erwartungen in Bezug auf die Modellgenauigkeit oft zu hoch, ohne dass man die Grenzen des Modells und die grundlegenden Mechanismen von Machine Learning kennt. Diese Unerfahrenheit kann dazu führen, dass viele wichtige Tatsachen nicht erkannt werden, einschließlich, aber nicht beschränkt auf die folgenden Punkte: die unvermeidliche Extrapolation historischer Muster auf die Zukunft; die Tatsache, dass externe Paradigmenwechsel oder Schocks die Generalisierbarkeit und Leistung von Modellen gefährden; die Komplexität der Harmonisierung von Vorhersagen mathematisch nicht verwandter Modelle; die geringe Interpretierbarkeit naiver Modelle oder die Dynamik der Modellspezifikationen aufgrund von Umschulungen.

    DS & KI sind einfach keine Wunderwaffe, und zu hohe Erwartungen können dazu führen, dass die Begeisterung in tiefe Ablehnung umschlägt. Die anfänglichen Erwartungen werden fast zwangsläufig nicht erfüllt und weichen daher oft einer tiefgreifenden und undifferenzierten Ablehnung von DS & KI. Dies kann in der Folge dazu führen, dass weniger auffällige, aber nützliche Anwendungsfälle keine Unterstützung mehr finden.

    Wie Sie diesem Problem entgegenwirken können:

    • Versuchen Sie in Ihrer Kommunikation mit Stakeholdern stets realistische Perspektiven zu vermitteln. Achten Sie darauf, eindeutige Botschaften und objektive KPIs zu verwenden, um Erwartungen zu steuern und Bedenken so offen wie möglich anzusprechen.
    • Die Weiterbildung der Stakeholder und des Managements in den Grundlagen von Machine Learning und KI versetzt sie in die Lage, realistischere Einschätzungen und damit sinnvollere Entscheidungen zu treffen. Technisch fundiertes Wissen ist oft nicht notwendig. Konzeptuelles Fachwissen auf einem relativ hohen Abstraktionsniveau ist ausreichend (und glücklicherweise viel leichter zu erlangen).
    • Schließlich sollte, wann immer möglich, ein PoC vor einem vollwertigen Projekt durchgeführt werden. Dies ermöglicht es, empirische Hinweise auf die Durchführbarkeit des Use Cases zu sammeln und hilft bei der realistischen Einschätzung der erwarteten Leistung, die anhand relevanter (vordefinierter!) KPIs gemessen wird. Wichtig ist es auch, die Ergebnisse solcher Tests ernst zu nehmen. Bei einer negativen Prognose sollte nie einfach davon ausgegangen werden, dass sich mit mehr Zeit und Aufwand alle Probleme des PoC in Luft auflösen werden.

    Problem Nr. 4: Ressentiments und grundsätzliche Ablehnung von Data Science und KI Problem 4

    Eine unsichtbare, aber nicht zu unterschätzende Hürde liegt in den Köpfen der Menschen. Dies gilt sowohl für die Belegschaft als auch für das Management. Oft werden vielversprechende Data Science und KI-Initiativen aufgrund von tief verwurzelten, aber undifferenzierten Vorbehalten ausgebremst. Das richtige Mindset ist entscheidend.

    Obwohl DS und KI in aller Munde sind, fehlt es in vielen Unternehmen noch an echtem Management-Engagement. Häufig werden zwar Lippenbekenntnisse zu DS & KI abgegeben und erhebliche Mittel investiert, aber die Vorbehalte gegenüber KI bleiben bestehen.

    Begründet wird dies oft mit den inhärenten Verzerrungen und Unsicherheiten von KI-Modellen und ihrer geringen direkten Interpretierbarkeit. Hinzu kommt manchmal eine generelle Abneigung, Erkenntnisse zu akzeptieren, die nicht mit der eigenen Intuition übereinstimmen. Die Tatsache, dass die menschliche Intuition oft viel stärkeren – und im Gegensatz zu KI-Modellen nicht quantifizierbaren – Verzerrungen unterliegt, wird in der Regel ignoriert.

    Data Science & KI-Initiativen brauchen die Akzeptanz und Unterstützung der Belegschaft

    Dies führt dazu, dass (Entscheidungs-)Prozesse und Organisationsstrukturen (z.B. Rollen, Verantwortlichkeiten) nicht so angepasst werden, dass DS & KI-Lösungen ihren (vollen) Nutzen entfalten können. Dies wäre aber notwendig, denn Data Science & KI ist nicht einfach eine weitere Softwarelösung, die sich nahtlos in bestehende Strukturen integrieren lässt.

    DS & KI ist eine disruptive Technologie, die unweigerlich ganze Branchen und Organisationen umgestalten wird. Unternehmen, die sich diesem Wandel verweigern, werden auf lange Sicht wahrscheinlich genau an diesem Paradigmenwechsel scheitern. Die Ablehnung des Wandels beginnt bei scheinbaren Kleinigkeiten, wie der Umstellung des Projektmanagements von der Wasserfallmethode auf eine agile, iterative Entwicklung. Ungeachtet der allgemein positiven Aufnahme bestimmter Veränderungsmaßnahmen wird manchmal eine völlig irrationale Ablehnung der Reform bestehender (noch) funktionierender Prozesse festgestellt. Dabei wäre genau das notwendig, um – zugegebenermaßen erst nach einer Phase der Neujustierung – langfristig wettbewerbsfähig zu sein.

    Während Vision, Strategie und Strukturen von oben nach unten verändert werden müssen, kann das operative Tagesgeschäft nur von unten nach oben, durch die Mitarbeitenden, revolutioniert werden. Das Engagement des Managements und das beste Werkzeug der Welt sind nutzlos, wenn die Endnutzer:innen nicht in der Lage oder willens sind, es anzunehmen. Die allgemeine Unsicherheit über die langfristige KI-Roadmap und die Angst, durch Maschinen ersetzt zu werden, schüren Ängste, die dazu führen, dass DS & KI-Lösungen nicht in den Arbeitsalltag integriert werden. Dies ist natürlich mehr als problematisch, da nur die (richtige) Anwendung von KI-Lösungen einen Mehrwert schafft.

    Wie Sie diesem Problem entgegenwirken können:

    • Es überrascht nicht, dass ein solides Change Management der beste Ansatz ist, um die KI-feindliche Denkweise zu entschärfen. Dies sollte nicht nur ein nachträglicher Gedanke, sondern ein integraler Bestandteil jeder DS & KI-Initiative und es sollten Verantwortlichkeiten für diese Aufgabe zugewiesen werden. Eine frühzeitige, umfassende, detaillierte und klare Kommunikation ist unerlässlich. Welche Schritte werden voraussichtlich wann und wie genau umgesetzt? Denken Sie daran, dass es schwer ist, einmal verlorenes Vertrauen wiederzugewinnen. Daher sollten alle Unklarheiten in der Planung angesprochen werden. Entscheidend ist es, bei allen Beteiligten ein Grundverständnis für die Sache zu schaffen und die Notwendigkeit der Veränderung zu verdeutlichen (z.B. weil sonst die Wettbewerbsfähigkeit gefährdet ist, Erfolgsgeschichten oder Misserfolge der Konkurrenz). Darüber hinaus ist der Dialog mit den Betroffenen von großer Bedeutung. Feedback sollte frühzeitig eingeholt und nach Möglichkeit umgesetzt werden. Bedenken sollten immer gehört und respektiert werden, auch wenn sie nicht berücksichtigt werden können. Falsche Versprechungen sind jedoch strikt zu vermeiden; stattdessen sollte man versuchen, die Vorteile von DS & KI in den Vordergrund zu stellen.
    • Neben der Einsicht in die Notwendigkeit von Veränderungen ist auch die grundsätzliche Fähigkeit zur Veränderung wichtig. Die Angst vor dem Unbekannten oder Unverständlichen ist uns Menschen inhärent. Daher kann Bildung – nur auf dem für die jeweilige Rolle notwendigen Abstraktions- und Tiefenniveau – einen großen Unterschied machen. Entsprechende Schulungsmaßnahmen sind keine einmalige Angelegenheit; der Aufbau von aktuellem Wissen und die Ausbildung im Bereich Data Science & KI müssen langfristig sichergestellt werden. Die allgemeine Datenkompetenz der Belegschaft muss ebenso sichergestellt werden, wie die Auf- oder Umschulung von technischen Expert:innen. Die Mitarbeitenden müssen eine realistische Chance erhalten, neue und attraktivere Beschäftigungsmöglichkeiten zu erhalten, indem sie sich weiterbilden und sich mit DS & KI beschäftigen. Das wahrscheinlichste Ergebnis sollte niemals sein, dass sie durch DS & KI ihren alten Arbeitsplatz (teilweise) verlieren, sondern muss als Chance und nicht als Gefahr wahrgenommen werden; Data Science & KI müssen Perspektiven schaffen und dürfen sie nicht verderben.
    • Übernehmen oder adaptieren Sie die Best Practices von DS & KI-Führungskräften in Bezug auf die Definition von Rollen- und Kompetenzprofilen, die Anpassung von Organisationsstrukturen und Wertschöpfungsprozessen. Bewährte Ansätze können als Blaupause für die Reformierung Ihrer Organisation dienen und so sicherstellen, dass Sie auch in Zukunft wettbewerbsfähig bleiben.

    Schlussbemerkungen

    Wie Sie vielleicht bemerkt haben, bietet dieser Blogbeitrag keine einfachen Lösungen. Das liegt daran, dass die Probleme, um die es hier geht, komplex und mehrdimensional sind. Dieser Artikel hat high-level Ansätze zur Entschärfung der angesprochenen Probleme geliefert, aber es muss betont werden, dass diese Probleme einen ganzheitlichen Lösungsansatz erfordern. Dies erfordert eine klare KI-Vision und eine daraus abgeleitete solide KI-Strategie, nach der die Vielzahl der notwendigen Maßnahmen koordiniert und gesteuert werden kann.

    Deshalb muss ich betonen, dass wir das Stadium, in dem experimentelle und unstrukturierte Data Science und KI-Initiativen erfolgreich sein können, längst verlassen haben. DS & KI darf nicht als technisches Thema behandelt werden, das ausschließlich in Fachabteilungen stattfindet. Es ist an der Zeit, KI als strategisches Thema anzugehen. Wie bei der digitalen Revolution werden nur Organisationen, in denen KI das Tagesgeschäft und die allgemeine Geschäftsstrategie vollständig durchdringt und reformiert, langfristig erfolgreich sein. Wie oben beschrieben, birgt dies zweifelsohne viele Fallstricke, stellt aber auch eine unglaubliche Chance dar.

    Wenn Sie bereit sind, diese Veränderungen zu integrieren, aber nicht wissen, wo Sie anfangen sollen, helfen wir von STATWORX Ihnen gerne. Besuchen Sie unsere Website und erfahren Sie mehr über unser Angebot im Bereich AI Strategy!

    Quellen

    [1] https://www.forbes.com/sites/forbestechcouncil/2020/10/14/why-do-most-ai-projects-fail/?sh=2f77da018aa3 [2] https://blogs.gartner.com/andrew_white/2019/01/03/our-top-data-and-analytics-predicts-for-2019/

    Lea Waniek

    Lea Waniek Lea Waniek

    Data Science ist in aller Munde, doch wie lässt es sich am besten im Unternehmen einsetzen? Was muss man bei der Planung eines AI Projektes beachten? Was sind die Risiken, und was sind die potenziellen Vorteile? Es sind genau diese Fragen, mit welchen sich die Studierenden der Dualen Hochschulen Baden-Württemberg im Rahmen der Gastvorlesung mit STATWORX auseinandergesetzt haben.

    Aspekte der Vorlesung

    Anfang Juni haben unser COO Fabian Müller und Data Science Consultant Paul Mora eine Vorlesung im Rahmen des Wirtschaftsingenieur-Studienganges der DHBW gehalten. Der Fokus der Vorlesung war es, den Studierenden bewusst zu machen welche Aspekte es bei der Planung und Evaluierung eines Data Science Projektes zu beachten gilt. Neben den finanziellen Risiken wurde hierbei auch explizit auf die ethischen Fragen der Nutzung von Künstlicher Intelligenz eingegangen.

    Fabian Müller, COO bei STATWORX, hält regelmäßig Vorträge an Hochschulen & Universitäten, um aktiv Aufklärung zum Thema künstliche Intelligenz zu betreiben.

    Eine unserer Missionen bei STATWORX ist es, unser Wissen mit der Gesellschaft zu teilen. Vorträge an Hochschulen und Universitäten sind dabei eine tolle Möglichkeit, die Generation von morgen für Vorteile und Risiken von KI zu sensibilisieren. 

    Hands-on Case Study

    Als benotete Hausaufgabe haben sich die Studierenden dann in Gruppen aufgeteilt und einen selbst erdachten Data Science Use Case im Rahmen eines Unternehmens bewertet. Eine besonders gute Bearbeitung der Aufgabe ist dem Team von Christian Paul, Mark Kekel, Sebastian Schmidt und Moritz Brüggemann gelungen. Wie im folgenden Abstract beschrieben, widmete sich das Team der Überlegung des Einsatzes von Data Science bei der Vorhersage von Kundenbestellungen.

    Consultant Paul Mora erklärt den Studierenden der DHBW den AI Project Canvas.

    Abstract: Anwendung künstlicher Intelligenz im Kontext eines fiktiven Unternehmens

    Die vorliegende Fallstudie gibt einen Überblick über die Möglichkeiten einer KI-gesteuerten Problemlösung anhand des fiktiven und aufstrebenden Unternehmens aus dem Bereich der Wintersportausrüster. Hierbei wurden vier unterschiedliche Use-Cases, die von der Nutzung einer KI profitieren, innerhalb einer Machbarkeits-Wirkungs-Matrix analysiert und das Konzept eines KI-gesteuerten After-Sales-Managements priorisiert.

    Bezüglich des After-Sales-Managements wurden bis dato keine innovativen Methoden zur Verkaufsförderung entwickelt. Lediglich die Versendung von Gutscheinen, vier Wochen nach Erhalt der Bestellung, findet bereits Anwendung. Dies stellt hierbei jedoch keine adäquate Lösung für eine langfristige Kundenbindung dar. Mithilfe konzentrierter Rabatt- oder Gutscheinaktionen sollen Kunden zukünftig zum richtigen Zeitpunkt zu einem erneuten Kauf der Produkte angeregt werden. Der richtige Zeitpunkt, also der Fälligkeitstag, an dem der Bedarf des Kunden auftritt, soll hierbei unter der Verwendung von KI fortlaufend ermittelt werden. Unter dem Einsatz der KI erhofft sich das Management den Customer Journey nachvollziehen und diesen zukünftig vorhersagen zu können. Die absatzsteigernde Maßnahme basiert dabei auf dem von Daniel Kahnemann und Vernon L. Smith entwickeltem Konzept der deskriptiven Entscheidungstheorie, welche empirisch darstellt, wie Entscheidungen in der Realität getroffen werden. Die deskriptive Entscheidungstheorie definiert dabei Anreize zur richtigen Zeit, um gegenwärtige Bedürfnisse/ Bedarfe zu stillen, als einen zentralen Aspekt in der Entscheidungsfindung eines Entscheidungsträgers.

    Das Data Sciences Model Canvas wurde hierbei als Werkzeug zur Strukturierung des Implementierungsprozesses der KI innerhalb des Unternehmens gewählt. Dabei soll das vorliegende Machine-Learning-Problem, unter dessen Verwendung zukünftige Bestelltermine der Kunden vorausgesagt werden sollen, mithilfe des sogenannten „Supervised Learnings“ bearbeitet werden. Übergreifend versucht der Algorithmus eine Hypothese zu finden, die möglichst zielsichere Annahmen trifft, wobei es sich unterkategorisiert um ein Regressionsproblem handelt. Richtig umgesetzt, werden Kunden bereits zum Zeitpunkt, an dem ihr Bedarf auftritt, mithilfe von konzentrierten Rabattaktionen zu einem Kauf angeregt. Dies ermöglicht unter anderem auch die Bindung hybrider Kunden, deren Nachfrageverhalten zwar wechselhaft ist, jedoch latent beeinflusst werden kann. Der Einsatz eines intelligenten After-Sales-Management-Systems ermöglicht somit eine langfristige Markt- und Kundenorientierung.

    Interesse geweckt?

    Den voll ausgearbeiteten Bericht sowie eine kurze und prägnante Management-Präsentation könnt Ihr euch nachfolgend herunterladen. Der Bericht zeigt, wie man Data Science effektiv innerhalb ein Unternehmen verwenden kann, um Kundenbeziehung zu stärken und Entscheidungen fundierter zu treffen. Des Weiteren präsentiert der Bericht drei weitere potentielle Einsatzmöglichkeiten von AI und wägt dessen Vorteile und Nachteile durch das AI Project Canvas ab.

    Paul Mora Paul Mora

    «Vertrauen schaffen durch menschenzentrierte KI»: Unter diesem Slogan hat die Europäische Kommission in der vergangenen Woche ihren Vorschlag zur Regulierung von künstlicher Intelligenz (KI-Regulierung) vorgestellt. Dieser historische Schritt positioniert Europa als ersten Kontinent, der KI und den Umgang mit personenbezogenen Daten einheitlich reguliert. Mithilfe dieser wegweisenden Regulierung soll Europa Standards zur Nutzung mit Daten und KI setzen – auch über die europäischen Grenzen hinaus. Dieser Schritt ist richtig. KI ist ein Katalysator der digitalen Transformation mit nachhaltigen Implikationen für Wirtschaft, Gesellschaft und Umwelt. Klare Spielregeln für den Einsatz dieser Technologie sind deshalb ein Muss. Damit kann sich Europa als progressiver Standort positionieren, der bereit ist für das digitale Zeitalter. In der aktuellen Form wirft der Vorschlag aber noch einige Fragen bei der praktischen Umsetzung auf. Abstriche bei der digitalen Wettbewerbsfähigkeit kann sich Europa im immer weiter klaffenden Wettbewerb mit Amerika und China nicht leisten.

    Transparenz bei Risiken von KI

    Zwei zentrale Vorschläge der KI-Regulierung zur Schaffung von Vertrauen

    Um Vertrauen in KI-Produkte zu schaffen, setzt der Vorschlag zur KI-Regulierung auf zwei zentrale Ansätze: Risiken künstlicher Intelligenz überwachen und gleichzeitig ein «Ökosystem an KI-Exzellenz» kultivieren. Konkret beinhaltet der Vorschlag ein Verbot für die Anwendung von KI zu manipulativen und diskriminierenden Zwecken oder zur Beurteilung von Verhalten durch ein «Social Scoring System». Anwendungsfälle, die nicht in diese Kategorie fallen, sollen trotzdem auf Gefahren untersucht und auf einer vagen Risikoskala platziert werden. An Hochrisikoanwendungen werden besondere Anforderungen gestellt, deren Einhaltung sowohl vor als auch nach der Inbetriebnahme geprüft werden soll.

    Dass anstelle einer Pauschalregulierung KI-Anwendungen auf Fallbasis beurteilt werden sollen, ist entscheidend. Noch letztes Jahr forderte die Europäische Kommission in einem Whitepaper die breite Einstufung aller Anwendungen in Geschäftsbereichen wie dem Gesundheitssektor oder der Transportindustrie. Diese flächendeckende Einstufung anhand definierter Branchen, unabhängig der eigentlichen Use Cases, wäre hinderlich und hätte für ganze Industrien auf dem Kontinent strukturelle Benachteiligungen bedeutet. Diese Fall-zu-Fall-Beurteilung erlaubt die agile und innovative Entwicklung von KI in allen Sektoren und unterstellt zudem alle Branchen den gleichen Standards zur Zulassung von risikoreichen Anwendungen.

    Klare Definition von Risiken einer KI-Anwendung fehlt

    Allerdings lässt der Vorschlag zur KI-Regulierung eine klare Definition von «hohen Risiken» vermissen. Da Entwickler selbst für die Beurteilung ihrer Anwendungen zuständig sind, ist eine klar definierte Skala zur Beurteilung von Risiken unabdingbar. Artikel 6 und 7 umschreiben zwar Risiken und geben Beispiele von «Hochrisikoanwendungen», ein Prozess zur Beurteilung von Risiken einer KI-Anwendung wird aber nicht definiert. Besonders Start-ups und kleinere Unternehmen, die unter KI-Entwicklern stark vertreten sind, sind auf klare Prozesse und Standards angewiesen, um gegenüber Großunternehmen mit entsprechenden Ressourcen nicht ins Hintertreffen zu geraten. Dazu sind praxisnahe Leitlinien zur Beurteilung von Risiken nötig.

    Wird ein Use Case als «Hochrisikoanwendung» eingestuft, dann müssen verschiedene Anforderungen hinsichtlich Data Governance und Risk Management erfüllt sein, bevor das Produkt auf den Markt gebracht werden kann. So müssen verwendete Trainingsdatensätze nachweislich auf Verzerrungen und einseitige Tendenzen geprüft werden. Auch sollen die Modellarchitektur und Trainingsparameter dokumentiert werden. Nach dem Deployment muss ein Maß an menschlicher Aufsicht über getroffene Entscheidungen des Modells sichergestellt werden.

    Verantwortlichkeit zu KI-Produkten ist ein hohes und wichtiges Ziel. Allerdings bleibt erneut die praktische Umsetzung dieser Anforderungen fraglich. Viele moderne KI-Systeme nutzen nicht länger den herkömmlichen Ansatz von Trainings- und Testdaten, sondern setzen bspw. durch Reinforcement Learning auf exploratives Training durch Feedback anstelle eines statischen, prüfbaren Datensatzes. Fortschritte in Explainable AI brechen zwar undurchschaubare Black-Box Modelle stetig weiter auf und ermöglichen immer mehr Rückschlüsse auf die Wichtigkeit von Variablen im Entscheidungsprozess eines Modelles, aber komplexe Modellarchitekturen und Trainingsprozesse vieler moderner neuronaler Netzwerke machen einzelne Entscheide eines solchen Modells für Menschen kaum sinnhaft rekonstruierbar.

    Auch werden Anforderungen an die Genauigkeit der Prognosen oder Klassifizierungen gestellt. Dies stellt Entwickler vor besondere Herausforderungen, denn kein KI-System hat eine perfekte Genauigkeit. Dieser Anspruch besteht auch nicht, oftmals werden Fehlklassifikationen so eingeplant, dass sie für den jeweiligen Use Case möglichst wenig ins Gewicht fallen. Deshalb ist es unabdinglich, dass die Anforderungen an die Genauigkeit von Prognosen und Klassifikationen von Fall zu Fall in Anbetracht der Anwendung festgelegt werden und auf Pauschalwerte verzichtet wird.

    KI-Exzellenz ermöglichen

    Europa gerät ins Hintertreffen

    Mit diesen Anforderungen will der Vorschlag zur KI-Regulierung durch Transparenz und Verantwortlichkeit Vertrauen in die Technologie wecken. Dies ist ein erster, richtiger Schritt in Richtung «KI-Exzellenz». Nebst Regulierung muss der KI-Standort Europa dazu aber auch für Entwickler und Investoren mehr Strahlkraft erhalten.

    Laut einer jüngst veröffentlichten Studie des Center for Data Innovation gerät Europa sowohl gegenüber den Vereinigten Staaten als auch China im Anspruch um die weltweite Führungsposition in Sachen KI bereits ins Hintertreffen. So hat China mittlerweile in der Anzahl veröffentlichter Studien und Publikationen zu künstlicher Intelligenz Europa den Rang abgelaufen und die weltweite Führung übernommen. Auch ziehen europäische KI-Unternehmen erheblich weniger Investitionen an als ihre amerikanischen Pendants. Europäische KI-Unternehmen investieren weniger Geld in Forschung und Entwicklung und werden auch seltener aufgekauft als ihre amerikanischen Kollegen.

    Ein Schritt in die richtige Richtung: Unterstützung von Forschung und Innovation

    Der Vorschlag der EU-Kommission erkennt an, dass für Exzellenz auf dem europäischen Markt mehr Unterstützung für KI-Entwicklung benötigt wird und verspricht Regulatory Sandboxes, also rechtliche Spielräume zur Entwicklung und Testung innovativer KI-Produkte, und die Kofinanzierung von Forschungs- und Teststätten für KI. Dadurch sollen insbesondere Start-ups und kleinere Unternehmen wettbewerbsfähiger werden und für mehr europäische Innovationen sorgen.

    Dies sind notwendige Schritte, um Europa auf den Weg zur KI-Exzellenz zu hieven, allerdings ist damit nicht genug getan. KI-Entwickler brauchen einfacheren Zugang zu Märkten außerhalb der EU, was auch das Vereinfachen von Datenströmen über Landesgrenzen bedeutet. Die Möglichkeiten zur Expansion in die USA und Zusammenarbeit mit Silicon Valley ist für die digitale Branche besonders wichtig, um der Vernetzung von digitalen Produkten und Services gerecht zu werden.

    Was in dem Vorschlag zur KI-Regulierung gänzlich fehlt ist die Aufklärung über KI und deren Potenzial und Risiken außerhalb von Fachkreisen. Mit der zunehmenden Durchdringung aller Alltagsbereiche durch künstliche Intelligenz wird dies immer wichtiger, denn um Vertrauen in neue Technologien stärken zu können, müssen diese zuerst verstanden werden. Die Aufklärung sowohl über das Potenzial als auch die Grenzen von KI ist ein essenzieller Schritt, um künstliche Intelligenz zu entmystifizieren und dadurch Vertrauen in die Technologie zu schaffen.

    Potenzial noch nicht ausgeschöpft

    Mit diesem Vorschlag erkennt die Europäische Kommission an, dass Künstliche Intelligenz wegweisend ist für die Zukunft des europäischen Marktes. Leitlinien für eine Technologie dieser Tragweite sind wichtig – genauso wie die Förderung von Innovation. Damit diese Strategien auch Früchte tragen, muss ihre praktische Umsetzung auch für Start-ups und KMU zweifelsfrei umsetzbar sein. Das Potenzial zur KI-Exzellenz ist in Europa reichlich vorhanden. Mit klaren Spielregeln und Anreizen kann dies auch realisiert werden.

    Oliver Guggenbühl Oliver Guggenbühl Oliver Guggenbühl

    Management Summary

    Im Kundenlebenszyklus gilt es, den Kunden zum richtigen Zeitpunkt mit dem richtigen Angebot zu kontaktieren. Dabei sollen aktive Kunden zu einem weiteren Einkauf motiviert oder inaktive Kunden reaktiviert werden. Der Retailer kann seinen Kunden hierzu vielfältige Angebot machen, bspw. durch individuelle Produktempfehlungen, kundenspezifische Rabattaktionen oder ereignisbasierte Marketingaktionen. Häufig ist das Ziel dabei, möglichst die Kunden auszuwählen, mit denen Umsatz bei möglichst geringen Kosten generiert werden kann.

    Zur Lösung dieser Herausforderung haben wir bei STATWORX hierzu für einen Kunden aus dem Einzelhandel einen ganzheitlichen Ansatz entwickelt. Auf Basis von Kundenstamm- und Transaktionsdaten haben wir verschiedene state-of-the-art Methoden des Machine Learnings und der künstlichen Intelligenz genutzt, um Kundengruppen individuell und automatisiert auf verschiedenen Kanälen ansprechen zu können. Unser Kunde hatte zwei zentrale Herausforderungen im Direktmarketing identifiziert, die durch die bisher verwendeten Methoden nicht zufriedenstellend gelöst werden konnten:

    1. Customer Churn & Retention: Wann und wie sollten inaktive Kunden gezielt angesprochen werden, um eine Abwanderung möglichst effizient zu verhindern? (Outbound Marketing)
    2. Next Basket Prediction: Welche Produkte sollten aktiven Kunden empfohlen werden, die sie zu einem Folgekauf anregen können? (Inbound Marketing)

    Für die Kundenreaktivierung wird zunächst die Kaufwahrscheinlichkeit aller Kunden für einen definierten Zeitraum in der Zukunft ermittelt. Diese Prognose dient dazu, Kunden, die eine sehr hohe Wahrscheinlichkeit für einen Kauf haben, für das weitere Prozedere auszuschließen. Denn diese Kunden müssen ohnehin nicht im Rahmen einer Kampagne reaktiviert werden. Genauso können Kunden ausgeschlossen werden, die eine sehr niedrige Kaufwahrscheinlichkeit aufweisen, da eine Reaktivierung dieser Kunden grundsätzlich wenig erfolgversprechend ist.

    Im Anschluss an diesen ersten Schritt wird ein zweites Machine Learning Modell angewendet, das für jeden Kunden individuell aus einer im Vorhinein definierten Auswahl an Rabattgutscheinen den jeweils optimalen Gutschein selektiert.

    Die Newsletter, inklusive der entsprechenden Rabattgutscheine, werden automatisiert an die Kunden versendet. Daraufhin wird die Aktivität der Kunden im Aktionszeitraum beobachtet und als Trainingsmenge in das zweite Modell eingespeist sowie die Kampagne anhand der Aktivierungs- und Reaktionsquoten evaluiert.

    Zur Empfehlung weiterer Produkte an aktive Kunden wird ein state-of-the-art Modell aus der aktuellen Forschung genutzt. Das Modell nutzt rekurrente neuronale Netze (RNN), um die gesamte Kaufhistorie des Kunden berücksichtigen zu können. Es erlernt nicht nur die dynamische Repräsentation der Kunden, sondern erfasst auch globale sequentielle Merkmale über alle Warenkörbe hinweg. Basierend auf diesem Modell können Newsletter mit kundenindividuellen Produktempfehlungen versendet werden.

    Mithilfe dieser beiden Ansätze können die Retail-Kunden in allen Phasen des Kundenlebenszyklus‘ optimal angesprochen, der manuelle Aufwand bei der Kundenauswahl und Versendung des Contents signifikant reduziert und der zur Aktion zugeordnete Umsatz gesteigert werden.

    Motivation

    Für jedes Retail-Unternehmen ist es ein wichtiges Ziel, Kosten zu reduzieren und Umsätze zu erhöhen, um schlussendlich den Gewinn zu maximieren. Dies fängt beim Einkauf an, geht weiter über eine margenoptimierte Preissetzung und endet mit einer gezielten Kundenansprache.

    Im Kundenlebenszyklus gilt es, den Kunden zum richtigen Zeitpunkt mit dem richtigen Angebot zu kontaktieren. Dabei sollen aktive Kunden zu einem weiteren Einkauf motiviert oder inaktive Kunden reaktiviert bzw. deren Abwanderung zu einem Konkurrenten verhindert werden. Der Retailer kann seinen Kunden hierzu vielfältige Angebot machen, bspw. durch individuelle Produktempfehlungen, kundenspezifische Rabattaktionen oder ereignisbasierte Newsletter.

    Ziel ist dabei, möglichst solche Kunden auszuwählen, mit denen Umsatz bei möglichst geringen Kosten generiert werden kann. Zu den Kosten zählen dabei nicht nur reine Werbekosten, sondern auch indirekte Kosten, die z.B. dann entstehen, wenn der Retailer aktive Kunden mit einem Rabattgutschein anspricht. Dies führt zu keiner Umsatzsteigerung, da diese Kunden auch ohne Rabattgutschein eingekauft hätten. Weiterhin entstehen bei dem Retailer Kosten, wenn Personen für Werbeaktionen selektiert werden, deren tatsächliche Kaufwahrscheinlichkeit gegen Null tendiert.

    „I know that half of marketing is wasted – my problem is that I just don’t know which half.”

    John Wanamaker

    Zur Lösung dieser Herausforderung benötigt der Retailer somit einen Ansatz, um die richtigen Kunden zum richtigen Zeitpunkt mit dem richtigen Content anzusprechen. STATWORX hat hierzu für einen Kunden aus dem Einzelhandel einen ganzheitlichen Ansatz entwickelt. Auf Basis von Kundenstamm- und Transaktionsdaten haben wir verschiedene state-of-the-art Methoden des Machine Learnings und der künstlichen Intelligenz nutzt, um Kundengruppen individuell und automatisiert auf verschiedenen Kanälen ansprechen zu können. Dadurch konnte das Unternehmen seinen manuellen Aufwand bei der Kundenauswahl und Versendung des Contents signifikant reduzieren und gleichzeitig den der Aktion zugeordneten Umsatz steigern.

    Challenge

    Aufgrund bisheriger Erfahrungen im Direktmarketing hatte unser Kunde zwei zentrale Herausforderungen identifiziert, die durch die bisherigen verwendeten Methoden nicht zufriedenstellend gelöst werden konnten:

    1. Customer Churn & Retention: Wann und wie sollten inaktive Kunden gezielt angesprochen werden, um eine Abwanderung möglichst effizient zu verhindern? Genauer gesagt, welche Kunden müssen zu einem gegebenen Zeitpunkt kontaktiert und welche Anreize sollte man ihnen für den nächsten Einkauf bieten? (Outbound Marketing)
    2. Next Basket Prediction: Welche Produkte sollten aktiven Kunden empfohlen werden, die sie zu einem Folgekauf anregen können? (Inbound Marketing)

    Um diese Fragestellungen modellgetrieben beantworten zu können, bedarf es einer umfangreichen Datenbasis. Für diese müssen alle relevanten Informationen aus den vorliegenden Datenquellen extrahiert, miteinander verknüpft und in geeigneter Form aggregiert werden. So soll eine umfassende zentrale Datenbank auf Kundenebene entstehen, die für die oben genannten Fragestellungen sowie auch weitere Problemstellungen verwendet werden kann. Zu dieser Datenbasis gehören in diesem Fall die Artikel- und Kundenstammdaten, historischen Transaktionsdaten, Kundenaktionsdaten, Standortdaten sowie Informationen aus externen Datenquellen.

    Für unseren Kunden war es außerdem von besonderer Relevanz, die sich aus den Fragestellungen ergebenden Schritte möglichst automatisiert ablaufen zu lassen und dementsprechend in die eigene IT-Infrastruktur zu integrieren. Somit müssen alle Schritte von der Datenextraktion & -aufbereitung hin zum Versand der individuellen Newsletter regelmäßig automatisiert ablaufen, bzw. ereignisbasiert angestoßen werden.

    Zusätzlich sollte auch die Wartbarkeit und eine manuelle Nutzung der Data Pipeline und der Modelle durch die interne Data Science Abteilung gewährleistet sein. Insbesondere das auf Kundenebene zu aggregierende Data Warehouse soll der Abteilung, über die beiden Problemstellungen hinaus, als Datengrundlage für Ad-hoc-Analysen oder für weitere eigene Modelle und Analysen dienen.

    Solution

    Die eingangs beschriebenen Fragestellungen unterscheiden sich vor allem in der Art ihrer Komplexität. Bei der Kundenreaktivierung liegt die Herausforderung vor allem in der Entwicklung der Data Pipeline und der Datenaufbereitung. Beim Produkt-Recommender stellt hingegen die Entwicklung der Methodik die größte Herausforderung dar.

    Im Bereich der Kundenreaktivierung wird der auf Kundenebene aggregierte Datensatz zunächst dazu verwendet, die Kaufwahrscheinlichkeit aller Kunden für einen definierten Zeitraum in der Zukunft zu ermitteln. Diese Prognose dient dazu, Kunden, die eine sehr hohe Wahrscheinlichkeit für einen Kauf haben, für das weitere Prozedere auszuschließen. Der Grund hierfür ist, dass diese Kunden ohnehin nicht im Rahmen einer Kampagne reaktiviert werden müssen. Genauso können Kunden ausgeschlossen werden, die eine sehr niedrige Kaufwahrscheinlichkeit aufweisen, da eine Reaktivierung dieser Kunden grundsätzlich wenig erfolgsversprechend ist.

    Im Anschluss an diesen ersten Schritt wird ein zweites Machine Learning Modell angewendet, das für jeden Kunden individuell aus einer im Vorhinein definierten Auswahl an Rabattgutscheinen den jeweils optimalen Gutschein selektiert. Ferner kann die Menge der zu reaktivierenden Kunden anhand verschiedener Kennzahlen eingeschränkt werden. Die zu reaktivierenden Kunden werden nach Vertriebslinie und Versandart unterteilt und die Mailings bzw. Newsletter inklusive der entsprechenden Rabattgutscheine automatisiert an die Kunden versendet. Daraufhin wird die Aktivität der Kunden im Aktionszeitraum beobachtet und als Trainingsmenge in das zweite Modell eingespeist. Außerdem wird die Kampagne anhand der Aktivierungs- und Reaktionsquoten evaluiert.

    Zur Empfehlung weiterer Produkte an aktive Kunden wird ein state-of-the-art Modell aus der aktuellen Forschung genutzt. Das DREAM Modell [2] nutzt rekurrente neuronale Netze (RNN), um die gesamte Kaufhistorie des Kunden berücksichtigen zu können. DREAM erlernt nicht nur die dynamische Repräsentation der Kunden, sondern erfasst auch globale sequentielle Merkmale über alle Warenkörbe hinweg. Diese Darstellung kann die Interessen der Kunden dynamisch, zu verschiedenen Zeitpunkten repräsentieren und mit den globalen sequentiellen Merkmalen aller Warenkörbe des Benutzers im Laufe der Zeit in Verbindung setzen. Hierdurch kann ein deutlich realistischeres Modell zur Produktempfehlung angewendet werden, was sich auch in signifikant besseren Trefferquoten zwischen den vorhergesagten und tatsächlichen Warenkörben widerspiegelt.

    Data Warehouse als Basis

    Das Data Warehouse bildet die Datenbasis für alle verwendeten Modelle. Es enthält alle Datenpunkte, mit denen die Kaufwahrscheinlichkeiten prognostiziert, Produktempfehlungen erzeugt und verschiedenste Analysen und Visualisierungen erstellt werden können. Im Rahmen der Integration der verschiedenen Datenquellen werden zunächst alle gesperrten und gelöschten Kunden sowie Personen, die der Direktwerbung nicht zugestimmt haben, aus dem Kundenstamm entfernt.

    Der Kundenstamm wird durch Kundenkartendaten, die Kundenadressen und die geographischen Informationen der Postleitzahlen angereichert. Darüber hinaus werden Postrückläufer ohne E-Mail-Adresse und/oder ohne E-Mail Opt-in aus dem Datensatz entfernt.

    Abschließend werden die Filialinformationen der Stammfiliale der Kunden angefügt. Die Filialinformationen bestehen aus geographischen Informationen, Daten zu den Filialflächen und externen Konsumdaten. Ergänzt werden diese Daten durch die in diesem Projekt berechneten Distanzen zum nächstgelegenen Konkurrenten. Neben den Stammdaten der Kunden werden die Transaktionsdaten zusammengefasst. Jeder verkaufte Artikel wird durch weitere Informationen aus dem Artikelstamm ergänzt und auf Bon-Ebene aggregiert.

    Diesem Datensatz können nun die ebenfalls auf Bon-Ebene vorliegenden Informationen aus dem Kundenbonusprogramm hinzugefügt werden. Der Datensatz wird daraufhin auf Kundenebene aggregiert. Von besonderer Bedeutung ist dabei, dass bei den beiden Aggregationsschritten die Kaufhistorie bis auf Artikelebene für die Produktempfehlung erhalten bleibt. Dazu wird eine Spalte erstellt, in der in einer verschachtelten Liste alle Warenkörbe und die darin enthaltenen Artikel eines jeden Kunden aufgelistet sind.

    Ergänzend wird die Kauffrequenz pro Kunde berechnet, repräsentiert als die durchschnittliche Anzahl an Tagen zwischen den einzelnen Einkäufen.

    Customer Churn & Retention Modell

    Basierend auf dem historischen Kaufverhalten wird ein XGBoost-Modell [1] trainiert, um die Wahrscheinlichkeit der Kunden mindestens einen Kauf in den nächsten 3 Monaten zu tätigen, vorhersagen zu können. Das trainierte Modell wird auf alle im Data Warehouse enthaltenen Kunden angewendet. Anschließend können bspw. die Top 5% der Kunden mit den höchsten Kaufwahrscheinlichkeiten aus dem Datensatz ausgeschlossen werden. So wird vermieden, dass ohnehin aktive Kunden, die keine Reaktivierung benötigen, angeschrieben werden und einen Rabattgutschein erhalten. Ebenso werden auch alle Kunden mit einer sehr niedrigen Kaufwahrscheinlichkeit herausgefiltert. Darüber hinaus werden alle Kunden ausgeschlossen, die schon in der vorherigen Mailing Aktion kontaktiert wurden.

    Abbildung 1: Prozessdarstellung des Customer Churn & Retention Programmes

    Basierend auf der Aktivierung der Kunden, die im Aktionszeitraum der vergangenen Kampagnen kontaktierten wurden, wird ein weiteres XGBoost-Modell trainiert. Dieses Modell sagt die Wahrscheinlichkeit mindestens einen Kauf zu tätigen für verschiedene Rabattgutscheine voraus, für jeden von Modell 1 nicht ausgeschlossenem Kunden, bzw. für eine zufällige Auswahl der nicht ausgeschlossenen Kunden. Die folgende Auswahl der anzuschreibenden Kunden sowie der optimalen Rabatthöhe erfolgt auf Basis des gewünschten Mailing Volumens und des Erwartungswertes des Warenkorbes je Rabattgutschein und Kunde.

    Die durch das Modell 1 priorisierte Auswahl an Kunden kann durch die Vorgabe einer Mindestkaufwahrscheinlichkeit und/oder eines Mindesterwartungswertes des Warenkorbes weiter eingeschränkt werden.

    Bei der Auswahl der optimalen Rabattkombination, basierend auf dem Erwartungswert, wird gleichzeitig auf die Kaufwahrscheinlichkeit und auf die zu erwartenden Kosten des Gutscheins optimiert. Hierfür wird das durchschnittliche Volumen der historischen Warenkörbe für jeden Kunden individuell berechnet und die vorhergesagte Kaufwahrscheinlichkeit des Kunden und der Rabattkombination dem Modell 2 entnommen. Für Kunden mit weniger als vier Einkäufen im Beobachtungszeitraum wird der durchschnittliche Warenkorb aller betrachteten Kunden eingesetzt.

    Next Basket Prediction Modell

    Das Modell zur Generierung von Produktempfehlungen nutzt eine ähnliche Data Pipeline wie das Customer Churn & Retention Modell. Zunächst wird die im Data Warehouse vorhandene Kaufhistorie dazu genutzt, das Modell zu trainieren. Anschließend kann das Modell zu jedem beliebigen Zeitpunkt für alle Kunden individuelle Kaufempfehlungen bzw. Vorhersagen über den nächsten Warenkorb ausgeben. Hierbei kann definiert werden wie viele Produkte als Empfehlung ausgegeben werden sollen. Diese Empfehlungen sind nach der Kaufwahrscheinlichkeit absteigend sortiert, sodass auch im Nachhinein noch eine weitere Selektion möglich ist.

    Anschließend können nach verschiedenen Regeln diejenigen Kunden ausgewählt werden, die einen Newsletter mit ihrer persönlichen Kaufempfehlung erhalten sollen. Welche Kunden das sind wird mit der Marketingabteilung individuell abgestimmt und laufend angepasst. Auch der Einbezug des ersten Modells zur Berechnung der Kaufwahrscheinlichkeiten aus dem Customer Churn & Retention Modell ist hierbei eine Option.

    Abbildung 2: Prozessdarstellung des Empfehlungssystems

    Automatisierter Versand

    Nachdem die anzuschreibenden Kunden durch das Modell identifiziert wurden, können diese mit dem individuellen Rabattgutschein bzw. der Produktempfehlungen über eine API-Schnittstelle an den Dienstleister übergeben werden, der den E-Mail- und Post-Versand übernimmt.

    Im Rahmen des Customer Churn & Retention Modells wird zusätzlich noch einer zufällig ausgewählten Anzahl an Kunden ein ebenso zufälliger Rabattgutschein zugesendet, um einen Vergleich zu dem trainierten Modell zu haben. Beim Produktempfehlungsmodell besteht diese Möglichkeit ebenfalls.

    Sobald der Versand abgeschlossen ist, stellt der Dienstleister über die API-Schnittstelle eine Datei zur Verfügung, aus der der Versanderfolg ersichtlich wird. Dadurch kann bei der Evaluation sichergestellt werden, dass auch nur solche Kunden betrachtet werden, die tatsächlich einen Rabattgutschein bzw. eine Kaufempfehlung bekommen haben.

    Evaluation

    Um den Erfolg des Kundenreaktivierungsprogramms überprüfen zu können und neue Trainingsdaten für Modell 2 zu erhalten, werden die auf Kundenebene aggregierten Daten aus dem Data Warehouse auf die in der letzten Aktion kontaktierten Kunden selektiert. Anschließend wird überprüft, ob die Kunden aktiv waren oder sogar den Rabattgutschein genutzt haben.

    Da die Aktivität des Kunden im Beobachtungszeitraum die Zielgröße beider Modelle ist, kann zur Evaluation eine zusätzliche Kontrollgruppe genutzt werden. Für diese wird die Aktivität im Beobachtungszeitraum ebenfalls beobachtet. Somit kann festgestellt werden, ob durch die kundenindividuellen Rabattgutscheine generell die Aktivität der Kunden erhöht werden kann. Genauso können bei der Evaluation auch die durch das Modell ausgewählten Kunden und Rabattgutscheine mit den zufällig ausgewählten Kunden und Rabattgutscheinen verglichen werden, um die Wirksamkeit der Kunden- und Rabattauswahl zu überprüfen.

    Für das Empfehlungsmodell muss der Erfolg auf eine andere Weise gemessen werden. Es reicht nicht mehr aus, dass ein Kunde überhaupt einen Kauf im Beobachtungszeitraum tätigt. Vielmehr liegt der Fokus darauf, zu messen, ob der Kunde mindestens ein Produkt der ihm zuvor durch das Modell empfohlenen Produkte bei seinem nächsten Einkauf im Warenkorb liegen hat.

    Um dies zu bestimmen, haben wir die sogenannte Hit Rate definiert. Ein Hit liegt vor, wenn der Kunde mindestens ein Produkt aus dem empfohlenen Warenkorb kauft. Die Hit Rate beschreibt demzufolge den Anteil erfolgreicher Empfehlungen (Hits) an der Gesamtzahl der Empfehlungen.

    Um auch hier die modellbasierten Hits in das Verhältnis zu zufälligen Hits setzen zu können, wird ebenfalls eine Kontrollgruppe betrachtet. Für diese wurden zwar auch Kaufempfehlungen berechnet, allerdings kein Newsletter dazu versendet. So kann die Hit Rate des Modells mit der Hit Rate in der Kontrollgruppe verglichen und der Erfolg des Modells gemessen werden.

    Impact

    Mit unserem modellgetriebenen und automatisierten Ansatz konnten im Unternehmen sowohl Prozesse als auch Ergebnisse im Direktmarketing verbessert werden.

    Angefangen mit der Integration einer Vielzahl an Datenquellen zu einem Data Warehouse auf Kundenbasis, steht dem Unternehmen nun eine täglich aktualisierte Datenbasis zur Verfügung, die nicht nur für die Customer Churn & Retention und Next Basket Prediction Modelle genutzt wird. Auch für weitere Modelle, Ad-hoc-Analysen und Business Intelligence Anwendungen wird dieses Data Warehouse im Unternehmen eingesetzt.

    Durch unseren Ansatz konnte der manuelle Aufwand bei der Ansprache von Kunden auf vielen Ebenen reduziert und oftmals sogar komplett automatisiert werden. Beispiele hierfür sind die automatisierte Identifikation und Auswahl der geeigneten Kunden für eine Rabattaktion oder einen Newsletter mit Produktempfehlungen, die automatisierte Überprüfung der Kunden bezüglich konsistenter Kontaktdaten, Sperrvermerken oder Löschungen, und die automatisierte Versandabwicklung mit einem externen Dienstleister. All diese nun automatisierten Schritte mussten zuvor durch Mitarbeitende manuell und mit erhöhtem Zeitaufwand erledigt werden.

    Darüber hinaus gibt es auch Aufgaben, die manuell überhaupt nicht durchführbar sind. Ein Beispiel hierfür ist die individuell auf den Kunden abgestimmte Auswahl von Produktempfehlungen. Hier können nun Newsletter mit einer standardisierten Produktauswahl für alle Kunden durch Newsletter mit einer individuellen Produktauswahl ersetzt werden.

    Nicht nur der Aufwand im Direktmarketing konnte reduziert werden, sondern auch die Ergebnisse der verschiedenen Maßnahmen haben sich verbessert. Durch die gezielte Ansprache inaktiver oder selten aktiver Kunden, konnten solche Kunden zurückgewonnen werden, die den Retailer aus den Augen verloren hatten, zur Konkurrenz gewechselt waren oder einen Anreiz benötigten, um wieder beim Retailer einzukaufen. Mithilfe unserer modellgetriebenen Identifikation der zur Ansprache geeigneten Kunden und der Auswahl individuell passender Rabattgutscheine konnten Streuverluste minimiert werden. Einerseits wurden Versandkosten für Kunden eingespart, die auf die Rabattgutscheine gar nicht reagieren und von unserem Modell aussortiert werden. Andererseits wurden auch Kosten für Rabattgutscheine eingespart, die von regelmäßig einkaufenden Kunden eingelöst werden, die auch ohne einen Rabattgutschein Einkäufe getätigt hätten und nun ebenfalls nicht mehr in die Rabattaktionen miteinbezogen werden.

    Ferner konnten mit der Bestimmung des gewinnoptimalen Rabattgutscheins individuell je Kunde die Kosten und Gewinne aus den Rabattaktionen selbst weiter optimiert werden.

    Nachdem es uns gelungen war mithilfe des Customer Churn & Retention Ansatzes kostenoptimal Kunden zurückzugewinnen, galt es nun diese Kunden auch zu weiteren Käufen anzuregen. Hierbei konnte die Next Basket Prediction dem Unternehmen helfen, automatisiert und individuell die zurückgewonnenen Kunden, aber auch regelmäßig aktive Kunden, interessante Produkte zu präsentieren und so die Kunden weiter regelmäßig zum Besuch des Retailers zu motivieren, zu weiteren Ankäufen anregen und eine tiefergehende Bindung zum Kunden aufzubauen.

    Fazit & Ausblick

    Mit den beiden modellgetriebenen Ansätzen konnten wir dem Einzelhändler dabei helfen, seine Kundenansprache in den verschiedenen Phasen des Kundenlebenszyklus zu optimieren und automatisieren, bei einer gleichzeitigen Kostensenkung und Umsatzsteigerung.

    Durch unseren ganzheitlichen Ansatz steht dem Einzelhändler ein Data Warehouse zur Verfügung, das er einerseits für weitergehende Analysen oder Business Intelligence Anwendungen nutzen kann, mit dem er andererseits aber auch weitere Aufgaben im Marketingbereich durch modellgetriebene Ansätze optimieren und automatisieren kann.

    Mit der fortschreitenden Digitalisierung haben die Kunden mittlerweile den Anspruch an die Unternehmen, mit individuellem Content angesprochen zu werden. Dieser Trend wird sich auch in Zukunft fortsetzen, sodass es gilt die im Unternehmen vorhandenen Datenquellen zu nutzen, um diesen Wunsch des Kunden zu erfüllen und ihn seinen Bedürfnissen entsprechend zu kontaktieren.


    Quellen

    [1] Chen, Tianqi / Guestrin, Carlos (2016) „Xgboost: A scalable tree boosting system“, In: Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining, S. 785-794

    [2] Yu, Feng, et al. (2016) „A dynamic recurrent model for next basket recommendation“, In: Proceedings of the 39th International ACM SIGIR conference on Research and Development in Information Retrieval, S. 729-732

     

    Niklas Junker Niklas Junker Niklas Junker

    Management Summary

    Im Kundenlebenszyklus gilt es, den Kunden zum richtigen Zeitpunkt mit dem richtigen Angebot zu kontaktieren. Dabei sollen aktive Kunden zu einem weiteren Einkauf motiviert oder inaktive Kunden reaktiviert werden. Der Retailer kann seinen Kunden hierzu vielfältige Angebot machen, bspw. durch individuelle Produktempfehlungen, kundenspezifische Rabattaktionen oder ereignisbasierte Marketingaktionen. Häufig ist das Ziel dabei, möglichst die Kunden auszuwählen, mit denen Umsatz bei möglichst geringen Kosten generiert werden kann.

    Zur Lösung dieser Herausforderung haben wir bei STATWORX hierzu für einen Kunden aus dem Einzelhandel einen ganzheitlichen Ansatz entwickelt. Auf Basis von Kundenstamm- und Transaktionsdaten haben wir verschiedene state-of-the-art Methoden des Machine Learnings und der künstlichen Intelligenz genutzt, um Kundengruppen individuell und automatisiert auf verschiedenen Kanälen ansprechen zu können. Unser Kunde hatte zwei zentrale Herausforderungen im Direktmarketing identifiziert, die durch die bisher verwendeten Methoden nicht zufriedenstellend gelöst werden konnten:

    1. Customer Churn & Retention: Wann und wie sollten inaktive Kunden gezielt angesprochen werden, um eine Abwanderung möglichst effizient zu verhindern? (Outbound Marketing)
    2. Next Basket Prediction: Welche Produkte sollten aktiven Kunden empfohlen werden, die sie zu einem Folgekauf anregen können? (Inbound Marketing)

    Für die Kundenreaktivierung wird zunächst die Kaufwahrscheinlichkeit aller Kunden für einen definierten Zeitraum in der Zukunft ermittelt. Diese Prognose dient dazu, Kunden, die eine sehr hohe Wahrscheinlichkeit für einen Kauf haben, für das weitere Prozedere auszuschließen. Denn diese Kunden müssen ohnehin nicht im Rahmen einer Kampagne reaktiviert werden. Genauso können Kunden ausgeschlossen werden, die eine sehr niedrige Kaufwahrscheinlichkeit aufweisen, da eine Reaktivierung dieser Kunden grundsätzlich wenig erfolgversprechend ist.

    Im Anschluss an diesen ersten Schritt wird ein zweites Machine Learning Modell angewendet, das für jeden Kunden individuell aus einer im Vorhinein definierten Auswahl an Rabattgutscheinen den jeweils optimalen Gutschein selektiert.

    Die Newsletter, inklusive der entsprechenden Rabattgutscheine, werden automatisiert an die Kunden versendet. Daraufhin wird die Aktivität der Kunden im Aktionszeitraum beobachtet und als Trainingsmenge in das zweite Modell eingespeist sowie die Kampagne anhand der Aktivierungs- und Reaktionsquoten evaluiert.

    Zur Empfehlung weiterer Produkte an aktive Kunden wird ein state-of-the-art Modell aus der aktuellen Forschung genutzt. Das Modell nutzt rekurrente neuronale Netze (RNN), um die gesamte Kaufhistorie des Kunden berücksichtigen zu können. Es erlernt nicht nur die dynamische Repräsentation der Kunden, sondern erfasst auch globale sequentielle Merkmale über alle Warenkörbe hinweg. Basierend auf diesem Modell können Newsletter mit kundenindividuellen Produktempfehlungen versendet werden.

    Mithilfe dieser beiden Ansätze können die Retail-Kunden in allen Phasen des Kundenlebenszyklus‘ optimal angesprochen, der manuelle Aufwand bei der Kundenauswahl und Versendung des Contents signifikant reduziert und der zur Aktion zugeordnete Umsatz gesteigert werden.

    Motivation

    Für jedes Retail-Unternehmen ist es ein wichtiges Ziel, Kosten zu reduzieren und Umsätze zu erhöhen, um schlussendlich den Gewinn zu maximieren. Dies fängt beim Einkauf an, geht weiter über eine margenoptimierte Preissetzung und endet mit einer gezielten Kundenansprache.

    Im Kundenlebenszyklus gilt es, den Kunden zum richtigen Zeitpunkt mit dem richtigen Angebot zu kontaktieren. Dabei sollen aktive Kunden zu einem weiteren Einkauf motiviert oder inaktive Kunden reaktiviert bzw. deren Abwanderung zu einem Konkurrenten verhindert werden. Der Retailer kann seinen Kunden hierzu vielfältige Angebot machen, bspw. durch individuelle Produktempfehlungen, kundenspezifische Rabattaktionen oder ereignisbasierte Newsletter.

    Ziel ist dabei, möglichst solche Kunden auszuwählen, mit denen Umsatz bei möglichst geringen Kosten generiert werden kann. Zu den Kosten zählen dabei nicht nur reine Werbekosten, sondern auch indirekte Kosten, die z.B. dann entstehen, wenn der Retailer aktive Kunden mit einem Rabattgutschein anspricht. Dies führt zu keiner Umsatzsteigerung, da diese Kunden auch ohne Rabattgutschein eingekauft hätten. Weiterhin entstehen bei dem Retailer Kosten, wenn Personen für Werbeaktionen selektiert werden, deren tatsächliche Kaufwahrscheinlichkeit gegen Null tendiert.

    „I know that half of marketing is wasted – my problem is that I just don’t know which half.”

    John Wanamaker

    Zur Lösung dieser Herausforderung benötigt der Retailer somit einen Ansatz, um die richtigen Kunden zum richtigen Zeitpunkt mit dem richtigen Content anzusprechen. STATWORX hat hierzu für einen Kunden aus dem Einzelhandel einen ganzheitlichen Ansatz entwickelt. Auf Basis von Kundenstamm- und Transaktionsdaten haben wir verschiedene state-of-the-art Methoden des Machine Learnings und der künstlichen Intelligenz nutzt, um Kundengruppen individuell und automatisiert auf verschiedenen Kanälen ansprechen zu können. Dadurch konnte das Unternehmen seinen manuellen Aufwand bei der Kundenauswahl und Versendung des Contents signifikant reduzieren und gleichzeitig den der Aktion zugeordneten Umsatz steigern.

    Challenge

    Aufgrund bisheriger Erfahrungen im Direktmarketing hatte unser Kunde zwei zentrale Herausforderungen identifiziert, die durch die bisherigen verwendeten Methoden nicht zufriedenstellend gelöst werden konnten:

    1. Customer Churn & Retention: Wann und wie sollten inaktive Kunden gezielt angesprochen werden, um eine Abwanderung möglichst effizient zu verhindern? Genauer gesagt, welche Kunden müssen zu einem gegebenen Zeitpunkt kontaktiert und welche Anreize sollte man ihnen für den nächsten Einkauf bieten? (Outbound Marketing)
    2. Next Basket Prediction: Welche Produkte sollten aktiven Kunden empfohlen werden, die sie zu einem Folgekauf anregen können? (Inbound Marketing)

    Um diese Fragestellungen modellgetrieben beantworten zu können, bedarf es einer umfangreichen Datenbasis. Für diese müssen alle relevanten Informationen aus den vorliegenden Datenquellen extrahiert, miteinander verknüpft und in geeigneter Form aggregiert werden. So soll eine umfassende zentrale Datenbank auf Kundenebene entstehen, die für die oben genannten Fragestellungen sowie auch weitere Problemstellungen verwendet werden kann. Zu dieser Datenbasis gehören in diesem Fall die Artikel- und Kundenstammdaten, historischen Transaktionsdaten, Kundenaktionsdaten, Standortdaten sowie Informationen aus externen Datenquellen.

    Für unseren Kunden war es außerdem von besonderer Relevanz, die sich aus den Fragestellungen ergebenden Schritte möglichst automatisiert ablaufen zu lassen und dementsprechend in die eigene IT-Infrastruktur zu integrieren. Somit müssen alle Schritte von der Datenextraktion & -aufbereitung hin zum Versand der individuellen Newsletter regelmäßig automatisiert ablaufen, bzw. ereignisbasiert angestoßen werden.

    Zusätzlich sollte auch die Wartbarkeit und eine manuelle Nutzung der Data Pipeline und der Modelle durch die interne Data Science Abteilung gewährleistet sein. Insbesondere das auf Kundenebene zu aggregierende Data Warehouse soll der Abteilung, über die beiden Problemstellungen hinaus, als Datengrundlage für Ad-hoc-Analysen oder für weitere eigene Modelle und Analysen dienen.

    Solution

    Die eingangs beschriebenen Fragestellungen unterscheiden sich vor allem in der Art ihrer Komplexität. Bei der Kundenreaktivierung liegt die Herausforderung vor allem in der Entwicklung der Data Pipeline und der Datenaufbereitung. Beim Produkt-Recommender stellt hingegen die Entwicklung der Methodik die größte Herausforderung dar.

    Im Bereich der Kundenreaktivierung wird der auf Kundenebene aggregierte Datensatz zunächst dazu verwendet, die Kaufwahrscheinlichkeit aller Kunden für einen definierten Zeitraum in der Zukunft zu ermitteln. Diese Prognose dient dazu, Kunden, die eine sehr hohe Wahrscheinlichkeit für einen Kauf haben, für das weitere Prozedere auszuschließen. Der Grund hierfür ist, dass diese Kunden ohnehin nicht im Rahmen einer Kampagne reaktiviert werden müssen. Genauso können Kunden ausgeschlossen werden, die eine sehr niedrige Kaufwahrscheinlichkeit aufweisen, da eine Reaktivierung dieser Kunden grundsätzlich wenig erfolgsversprechend ist.

    Im Anschluss an diesen ersten Schritt wird ein zweites Machine Learning Modell angewendet, das für jeden Kunden individuell aus einer im Vorhinein definierten Auswahl an Rabattgutscheinen den jeweils optimalen Gutschein selektiert. Ferner kann die Menge der zu reaktivierenden Kunden anhand verschiedener Kennzahlen eingeschränkt werden. Die zu reaktivierenden Kunden werden nach Vertriebslinie und Versandart unterteilt und die Mailings bzw. Newsletter inklusive der entsprechenden Rabattgutscheine automatisiert an die Kunden versendet. Daraufhin wird die Aktivität der Kunden im Aktionszeitraum beobachtet und als Trainingsmenge in das zweite Modell eingespeist. Außerdem wird die Kampagne anhand der Aktivierungs- und Reaktionsquoten evaluiert.

    Zur Empfehlung weiterer Produkte an aktive Kunden wird ein state-of-the-art Modell aus der aktuellen Forschung genutzt. Das DREAM Modell [2] nutzt rekurrente neuronale Netze (RNN), um die gesamte Kaufhistorie des Kunden berücksichtigen zu können. DREAM erlernt nicht nur die dynamische Repräsentation der Kunden, sondern erfasst auch globale sequentielle Merkmale über alle Warenkörbe hinweg. Diese Darstellung kann die Interessen der Kunden dynamisch, zu verschiedenen Zeitpunkten repräsentieren und mit den globalen sequentiellen Merkmalen aller Warenkörbe des Benutzers im Laufe der Zeit in Verbindung setzen. Hierdurch kann ein deutlich realistischeres Modell zur Produktempfehlung angewendet werden, was sich auch in signifikant besseren Trefferquoten zwischen den vorhergesagten und tatsächlichen Warenkörben widerspiegelt.

    Data Warehouse als Basis

    Das Data Warehouse bildet die Datenbasis für alle verwendeten Modelle. Es enthält alle Datenpunkte, mit denen die Kaufwahrscheinlichkeiten prognostiziert, Produktempfehlungen erzeugt und verschiedenste Analysen und Visualisierungen erstellt werden können. Im Rahmen der Integration der verschiedenen Datenquellen werden zunächst alle gesperrten und gelöschten Kunden sowie Personen, die der Direktwerbung nicht zugestimmt haben, aus dem Kundenstamm entfernt.

    Der Kundenstamm wird durch Kundenkartendaten, die Kundenadressen und die geographischen Informationen der Postleitzahlen angereichert. Darüber hinaus werden Postrückläufer ohne E-Mail-Adresse und/oder ohne E-Mail Opt-in aus dem Datensatz entfernt.

    Abschließend werden die Filialinformationen der Stammfiliale der Kunden angefügt. Die Filialinformationen bestehen aus geographischen Informationen, Daten zu den Filialflächen und externen Konsumdaten. Ergänzt werden diese Daten durch die in diesem Projekt berechneten Distanzen zum nächstgelegenen Konkurrenten. Neben den Stammdaten der Kunden werden die Transaktionsdaten zusammengefasst. Jeder verkaufte Artikel wird durch weitere Informationen aus dem Artikelstamm ergänzt und auf Bon-Ebene aggregiert.

    Diesem Datensatz können nun die ebenfalls auf Bon-Ebene vorliegenden Informationen aus dem Kundenbonusprogramm hinzugefügt werden. Der Datensatz wird daraufhin auf Kundenebene aggregiert. Von besonderer Bedeutung ist dabei, dass bei den beiden Aggregationsschritten die Kaufhistorie bis auf Artikelebene für die Produktempfehlung erhalten bleibt. Dazu wird eine Spalte erstellt, in der in einer verschachtelten Liste alle Warenkörbe und die darin enthaltenen Artikel eines jeden Kunden aufgelistet sind.

    Ergänzend wird die Kauffrequenz pro Kunde berechnet, repräsentiert als die durchschnittliche Anzahl an Tagen zwischen den einzelnen Einkäufen.

    Customer Churn & Retention Modell

    Basierend auf dem historischen Kaufverhalten wird ein XGBoost-Modell [1] trainiert, um die Wahrscheinlichkeit der Kunden mindestens einen Kauf in den nächsten 3 Monaten zu tätigen, vorhersagen zu können. Das trainierte Modell wird auf alle im Data Warehouse enthaltenen Kunden angewendet. Anschließend können bspw. die Top 5% der Kunden mit den höchsten Kaufwahrscheinlichkeiten aus dem Datensatz ausgeschlossen werden. So wird vermieden, dass ohnehin aktive Kunden, die keine Reaktivierung benötigen, angeschrieben werden und einen Rabattgutschein erhalten. Ebenso werden auch alle Kunden mit einer sehr niedrigen Kaufwahrscheinlichkeit herausgefiltert. Darüber hinaus werden alle Kunden ausgeschlossen, die schon in der vorherigen Mailing Aktion kontaktiert wurden.

    Abbildung 1: Prozessdarstellung des Customer Churn & Retention Programmes

    Basierend auf der Aktivierung der Kunden, die im Aktionszeitraum der vergangenen Kampagnen kontaktierten wurden, wird ein weiteres XGBoost-Modell trainiert. Dieses Modell sagt die Wahrscheinlichkeit mindestens einen Kauf zu tätigen für verschiedene Rabattgutscheine voraus, für jeden von Modell 1 nicht ausgeschlossenem Kunden, bzw. für eine zufällige Auswahl der nicht ausgeschlossenen Kunden. Die folgende Auswahl der anzuschreibenden Kunden sowie der optimalen Rabatthöhe erfolgt auf Basis des gewünschten Mailing Volumens und des Erwartungswertes des Warenkorbes je Rabattgutschein und Kunde.

    Die durch das Modell 1 priorisierte Auswahl an Kunden kann durch die Vorgabe einer Mindestkaufwahrscheinlichkeit und/oder eines Mindesterwartungswertes des Warenkorbes weiter eingeschränkt werden.

    Bei der Auswahl der optimalen Rabattkombination, basierend auf dem Erwartungswert, wird gleichzeitig auf die Kaufwahrscheinlichkeit und auf die zu erwartenden Kosten des Gutscheins optimiert. Hierfür wird das durchschnittliche Volumen der historischen Warenkörbe für jeden Kunden individuell berechnet und die vorhergesagte Kaufwahrscheinlichkeit des Kunden und der Rabattkombination dem Modell 2 entnommen. Für Kunden mit weniger als vier Einkäufen im Beobachtungszeitraum wird der durchschnittliche Warenkorb aller betrachteten Kunden eingesetzt.

    Next Basket Prediction Modell

    Das Modell zur Generierung von Produktempfehlungen nutzt eine ähnliche Data Pipeline wie das Customer Churn & Retention Modell. Zunächst wird die im Data Warehouse vorhandene Kaufhistorie dazu genutzt, das Modell zu trainieren. Anschließend kann das Modell zu jedem beliebigen Zeitpunkt für alle Kunden individuelle Kaufempfehlungen bzw. Vorhersagen über den nächsten Warenkorb ausgeben. Hierbei kann definiert werden wie viele Produkte als Empfehlung ausgegeben werden sollen. Diese Empfehlungen sind nach der Kaufwahrscheinlichkeit absteigend sortiert, sodass auch im Nachhinein noch eine weitere Selektion möglich ist.

    Anschließend können nach verschiedenen Regeln diejenigen Kunden ausgewählt werden, die einen Newsletter mit ihrer persönlichen Kaufempfehlung erhalten sollen. Welche Kunden das sind wird mit der Marketingabteilung individuell abgestimmt und laufend angepasst. Auch der Einbezug des ersten Modells zur Berechnung der Kaufwahrscheinlichkeiten aus dem Customer Churn & Retention Modell ist hierbei eine Option.

    Abbildung 2: Prozessdarstellung des Empfehlungssystems

    Automatisierter Versand

    Nachdem die anzuschreibenden Kunden durch das Modell identifiziert wurden, können diese mit dem individuellen Rabattgutschein bzw. der Produktempfehlungen über eine API-Schnittstelle an den Dienstleister übergeben werden, der den E-Mail- und Post-Versand übernimmt.

    Im Rahmen des Customer Churn & Retention Modells wird zusätzlich noch einer zufällig ausgewählten Anzahl an Kunden ein ebenso zufälliger Rabattgutschein zugesendet, um einen Vergleich zu dem trainierten Modell zu haben. Beim Produktempfehlungsmodell besteht diese Möglichkeit ebenfalls.

    Sobald der Versand abgeschlossen ist, stellt der Dienstleister über die API-Schnittstelle eine Datei zur Verfügung, aus der der Versanderfolg ersichtlich wird. Dadurch kann bei der Evaluation sichergestellt werden, dass auch nur solche Kunden betrachtet werden, die tatsächlich einen Rabattgutschein bzw. eine Kaufempfehlung bekommen haben.

    Evaluation

    Um den Erfolg des Kundenreaktivierungsprogramms überprüfen zu können und neue Trainingsdaten für Modell 2 zu erhalten, werden die auf Kundenebene aggregierten Daten aus dem Data Warehouse auf die in der letzten Aktion kontaktierten Kunden selektiert. Anschließend wird überprüft, ob die Kunden aktiv waren oder sogar den Rabattgutschein genutzt haben.

    Da die Aktivität des Kunden im Beobachtungszeitraum die Zielgröße beider Modelle ist, kann zur Evaluation eine zusätzliche Kontrollgruppe genutzt werden. Für diese wird die Aktivität im Beobachtungszeitraum ebenfalls beobachtet. Somit kann festgestellt werden, ob durch die kundenindividuellen Rabattgutscheine generell die Aktivität der Kunden erhöht werden kann. Genauso können bei der Evaluation auch die durch das Modell ausgewählten Kunden und Rabattgutscheine mit den zufällig ausgewählten Kunden und Rabattgutscheinen verglichen werden, um die Wirksamkeit der Kunden- und Rabattauswahl zu überprüfen.

    Für das Empfehlungsmodell muss der Erfolg auf eine andere Weise gemessen werden. Es reicht nicht mehr aus, dass ein Kunde überhaupt einen Kauf im Beobachtungszeitraum tätigt. Vielmehr liegt der Fokus darauf, zu messen, ob der Kunde mindestens ein Produkt der ihm zuvor durch das Modell empfohlenen Produkte bei seinem nächsten Einkauf im Warenkorb liegen hat.

    Um dies zu bestimmen, haben wir die sogenannte Hit Rate definiert. Ein Hit liegt vor, wenn der Kunde mindestens ein Produkt aus dem empfohlenen Warenkorb kauft. Die Hit Rate beschreibt demzufolge den Anteil erfolgreicher Empfehlungen (Hits) an der Gesamtzahl der Empfehlungen.

    Um auch hier die modellbasierten Hits in das Verhältnis zu zufälligen Hits setzen zu können, wird ebenfalls eine Kontrollgruppe betrachtet. Für diese wurden zwar auch Kaufempfehlungen berechnet, allerdings kein Newsletter dazu versendet. So kann die Hit Rate des Modells mit der Hit Rate in der Kontrollgruppe verglichen und der Erfolg des Modells gemessen werden.

    Impact

    Mit unserem modellgetriebenen und automatisierten Ansatz konnten im Unternehmen sowohl Prozesse als auch Ergebnisse im Direktmarketing verbessert werden.

    Angefangen mit der Integration einer Vielzahl an Datenquellen zu einem Data Warehouse auf Kundenbasis, steht dem Unternehmen nun eine täglich aktualisierte Datenbasis zur Verfügung, die nicht nur für die Customer Churn & Retention und Next Basket Prediction Modelle genutzt wird. Auch für weitere Modelle, Ad-hoc-Analysen und Business Intelligence Anwendungen wird dieses Data Warehouse im Unternehmen eingesetzt.

    Durch unseren Ansatz konnte der manuelle Aufwand bei der Ansprache von Kunden auf vielen Ebenen reduziert und oftmals sogar komplett automatisiert werden. Beispiele hierfür sind die automatisierte Identifikation und Auswahl der geeigneten Kunden für eine Rabattaktion oder einen Newsletter mit Produktempfehlungen, die automatisierte Überprüfung der Kunden bezüglich konsistenter Kontaktdaten, Sperrvermerken oder Löschungen, und die automatisierte Versandabwicklung mit einem externen Dienstleister. All diese nun automatisierten Schritte mussten zuvor durch Mitarbeitende manuell und mit erhöhtem Zeitaufwand erledigt werden.

    Darüber hinaus gibt es auch Aufgaben, die manuell überhaupt nicht durchführbar sind. Ein Beispiel hierfür ist die individuell auf den Kunden abgestimmte Auswahl von Produktempfehlungen. Hier können nun Newsletter mit einer standardisierten Produktauswahl für alle Kunden durch Newsletter mit einer individuellen Produktauswahl ersetzt werden.

    Nicht nur der Aufwand im Direktmarketing konnte reduziert werden, sondern auch die Ergebnisse der verschiedenen Maßnahmen haben sich verbessert. Durch die gezielte Ansprache inaktiver oder selten aktiver Kunden, konnten solche Kunden zurückgewonnen werden, die den Retailer aus den Augen verloren hatten, zur Konkurrenz gewechselt waren oder einen Anreiz benötigten, um wieder beim Retailer einzukaufen. Mithilfe unserer modellgetriebenen Identifikation der zur Ansprache geeigneten Kunden und der Auswahl individuell passender Rabattgutscheine konnten Streuverluste minimiert werden. Einerseits wurden Versandkosten für Kunden eingespart, die auf die Rabattgutscheine gar nicht reagieren und von unserem Modell aussortiert werden. Andererseits wurden auch Kosten für Rabattgutscheine eingespart, die von regelmäßig einkaufenden Kunden eingelöst werden, die auch ohne einen Rabattgutschein Einkäufe getätigt hätten und nun ebenfalls nicht mehr in die Rabattaktionen miteinbezogen werden.

    Ferner konnten mit der Bestimmung des gewinnoptimalen Rabattgutscheins individuell je Kunde die Kosten und Gewinne aus den Rabattaktionen selbst weiter optimiert werden.

    Nachdem es uns gelungen war mithilfe des Customer Churn & Retention Ansatzes kostenoptimal Kunden zurückzugewinnen, galt es nun diese Kunden auch zu weiteren Käufen anzuregen. Hierbei konnte die Next Basket Prediction dem Unternehmen helfen, automatisiert und individuell die zurückgewonnenen Kunden, aber auch regelmäßig aktive Kunden, interessante Produkte zu präsentieren und so die Kunden weiter regelmäßig zum Besuch des Retailers zu motivieren, zu weiteren Ankäufen anregen und eine tiefergehende Bindung zum Kunden aufzubauen.

    Fazit & Ausblick

    Mit den beiden modellgetriebenen Ansätzen konnten wir dem Einzelhändler dabei helfen, seine Kundenansprache in den verschiedenen Phasen des Kundenlebenszyklus zu optimieren und automatisieren, bei einer gleichzeitigen Kostensenkung und Umsatzsteigerung.

    Durch unseren ganzheitlichen Ansatz steht dem Einzelhändler ein Data Warehouse zur Verfügung, das er einerseits für weitergehende Analysen oder Business Intelligence Anwendungen nutzen kann, mit dem er andererseits aber auch weitere Aufgaben im Marketingbereich durch modellgetriebene Ansätze optimieren und automatisieren kann.

    Mit der fortschreitenden Digitalisierung haben die Kunden mittlerweile den Anspruch an die Unternehmen, mit individuellem Content angesprochen zu werden. Dieser Trend wird sich auch in Zukunft fortsetzen, sodass es gilt die im Unternehmen vorhandenen Datenquellen zu nutzen, um diesen Wunsch des Kunden zu erfüllen und ihn seinen Bedürfnissen entsprechend zu kontaktieren.


    Quellen

    [1] Chen, Tianqi / Guestrin, Carlos (2016) „Xgboost: A scalable tree boosting system“, In: Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining, S. 785-794

    [2] Yu, Feng, et al. (2016) „A dynamic recurrent model for next basket recommendation“, In: Proceedings of the 39th International ACM SIGIR conference on Research and Development in Information Retrieval, S. 729-732

     

    Niklas Junker Niklas Junker Niklas Junker