de
                    array(2) {
  ["de"]=>
  array(13) {
    ["code"]=>
    string(2) "de"
    ["id"]=>
    string(1) "3"
    ["native_name"]=>
    string(7) "Deutsch"
    ["major"]=>
    string(1) "1"
    ["active"]=>
    string(1) "1"
    ["default_locale"]=>
    string(5) "de_DE"
    ["encode_url"]=>
    string(1) "0"
    ["tag"]=>
    string(2) "de"
    ["missing"]=>
    int(0)
    ["translated_name"]=>
    string(7) "Deutsch"
    ["url"]=>
    string(73) "https://www.statworx.com/content-hub/blog/tag/artificial-intelligence-de/"
    ["country_flag_url"]=>
    string(87) "https://www.statworx.com/wp-content/plugins/sitepress-multilingual-cms/res/flags/de.png"
    ["language_code"]=>
    string(2) "de"
  }
  ["en"]=>
  array(13) {
    ["code"]=>
    string(2) "en"
    ["id"]=>
    string(1) "1"
    ["native_name"]=>
    string(7) "English"
    ["major"]=>
    string(1) "1"
    ["active"]=>
    int(0)
    ["default_locale"]=>
    string(5) "en_US"
    ["encode_url"]=>
    string(1) "0"
    ["tag"]=>
    string(2) "en"
    ["missing"]=>
    int(0)
    ["translated_name"]=>
    string(8) "Englisch"
    ["url"]=>
    string(76) "https://www.statworx.com/en/content-hub/blog/tag/artificial-intelligence-en/"
    ["country_flag_url"]=>
    string(87) "https://www.statworx.com/wp-content/plugins/sitepress-multilingual-cms/res/flags/en.png"
    ["language_code"]=>
    string(2) "en"
  }
}
                    
Kontakt

Willkommen zurück zu unserer Serie zur Geschichte der Generativen Künstlichen Intelligenz. Im ersten Teil haben wir die Grundlagen erkundet und gesehen, wie frühe statistische Modelle wie der Naïve Bayesian Classifier den Weg für die heutige KI geebnet haben. Nun machen wir einen großen Sprung nach vorne und tauchen in die zweite Epoche ein – eine Zeit des Übergangs, in der neuronale Netze und GPUs die Bühne betreten und die Welt der KI revolutionieren.

Epoche 2 – Übergang

Ab 2015 – Staunen in der Vorstufe

Der KI-Winter ist vorbei, und neuronale Netze sowie GPUs (Grafikprozessoren) haben Einzug gehalten. Doch die neuen Wunderwerke der Technologie sind größtenteils den Technikexpert:innen vorbehalten. Das bedeutet jedoch nicht, dass keine beeindruckenden Produkte und Anwendungen entstehen – ganz im Gegenteil! StyleGANs (Generative Adversarial Networks) liefern nie dagewesene Bildqualitäten, und Transformer-Modelle wie BERT (Bidirectional Encoder Representations from Transformers) erfassen Texte bis ins kleinste Detail.

Die direkte Bedienung dieser Modelle bleibt jedoch der breiten Masse verwehrt, da sie zu technisch und spezifisch im Umgang sind. Man muss bestimmte Modelle und Architekturen auswählen, erweitern, verknüpfen und trainieren. Dennoch schaffen es Anwendungen wie Chatbots, Customer Service Automation, Generatives Design und AutoML-Lösungen auf den Markt

Zeitraum Paradigmen Techniken Nutzerprofil Beispiele
2015-2019 Latent Spaces, Embeddings Masked Language Models, GANs Programmierer, Data Scientists BERT, StyleGAN
2019-2022 Text Prompts Few Shot, Prompt Engineering Programmierer (API), Endanwender GPT-3

Ab 2019 – Lift-off

„Bigger is better“ wird zum neuen Credo. Open Source wird abgehängt, und die Welt des Natural Language Processing (NLP) steht Kopf: Large Language Models (LLMs) sind da! Doch das erste Modell, GPT-2, wird 2019 nicht veröffentlicht, da dessen Missbrauch als zu gefährlich eingestuft wird:

„The Elon Musk-backed nonprofit company OpenAI declines to release research publicly for fear of misuse.“ (Guardian 14.02.2019)

Die Worte „Musk“, „nonprofit“ und „fear of misuse“ in einem Satz – rückblickend fast schon befremdlich. Ende des Jahres wird GPT-2 dann doch veröffentlicht. Es findet vor allem in der Forschung große Verwendung, um grundlegende Eigenschaften von LLMs zu erkunden. Später dient es auch dazu, im Vergleich zu größeren Modellen die Folgen der Weiterentwicklung besser zu verstehen.

2020 folgt GPT-3 – mit zehnmal mehr Daten und einem hundertmal größeren Modell. 2021 wird DALL-E vorgestellt, gefolgt von DALL-E 2 im Jahr 2022. Texte können nun auch mit natürlicher (geschriebener) Sprache verarbeitet und erstellt werden, allerdings noch nicht im mittlerweile bekannten Dialog, sondern per Few-Shot-Prompt. Für Bilder galt das allerdings nicht, denn in DALL-E und DALL-E 2 konnte man im Prompt keine Beispielbilder mitliefern. Bei diesem Paradigma, heute gängig in den nicht-Chat-Varianten der GPTs, wurde das Modell nicht auf das Führen einer Unterhaltung trainiert, sondern lediglich auf die Vervollständigung von Texten. Das bedeutet, es bedarf Beispielen, etwa in Form von Frage-Antwort-Paaren, um dem Modell klarzumachen, wie es den Text fortzuführen hat.

Ein Beispiel für einen Few-Shot Prompt: Nach drei angegebenen Beispielen folgt der eigentliche Input des Users bis zu dem Wort „Label:“, in der Erwartung, dass das Modell die Aufgabe bzw. den Sinn erfasst und den Text fortführt, indem es die richtige Antwort gibt.

Die Öffentlichkeit, aber auch Entwicklerinnen und Entwickler, werden eindrucksvoll mit dem State-of-the-Art konfrontiert, beispielsweise durch die ersten mit GPT-3 verfassten Artikel. 

Im nächsten Teil unserer Serie werden wir uns die jüngsten Entwicklungen und die Revolution der generativen Künstlichen Intelligenz ansehen. Lest dort, wie wir von Few-Shot Prompts zur praktischen Anwendung übergehen, die generative KI der breiten Bevölkerung zugänglich gemacht hat!

Verpasse nicht Teil 3 unserer Blogserie. Tarik Ashry Tarik Ashry, Max Hilsdorf

Willkommen zu unserer vierteiligen Blogserie zur Geschichte von Generativer Künstlicher Intelligenz. Unser Streifzug durch die Geschichte wird die bedeutenden Meilensteine beleuchten und aufzeigen, wie sich mit jedem Entwicklungsschritt das gesamte Konzept von generativer KI grundlegend gewandelt hat. Von den ersten Gehversuchen, mit Stift und Papier Wahrscheinlichkeitsverteilungen zu skizzieren, bis hin zu den heutigen hochentwickelten Algorithmen, die komplexe und kreative Inhalte generieren – jeder der vier Schritte markiert eine Revolution, kein bloßes Update.

Warum die Geschichte der generativen KI so spannend ist? Weil sie zeigt, wie sich mit jedem technologischen Fortschritt nicht nur die Methoden, sondern auch die Annahmen, die Nutzung, das Publikum und die Interaktion mit den Modellen komplett verändert haben. Was einst als Werkzeug für statistische Analysen begann, ist heute ein kreativer Partner, der in der Lage ist, Kunst, Musik, Text und vieles mehr zu schaffen.

Komm mit uns mit auf die Reise durch die Geschichte von GenAI.

Epoche 1 – Grundlagen

Ein gut gehütetes Geheimnis: Wenn man die Buchstaben von „Data Science“ umstellt, erhält man „Statistik“. Kleiner Scherz. Aber tatsächlich stimmt es, dass die Wurzeln der Datenwissenschaft weit zurückreichen, bis ins 18. Jahrhundert. Damals hatten α, Θ und andere mathematische Symbole noch eher den Charme von Mottenkugeln als von Venture Capital.

Mathematiker wie Gauß, Bayes und eine Reihe kluger Franzosen erkannten schon früh den Wert des Zählens. Sie zählten, zählten noch einmal und verglichen die Ergebnisse – alles per Hand und sehr aufwendig. Doch diese Methoden sind auch heute noch aktuell und bewährt – ein echter Evergreen!

Mit der Erfindung des elektrischen Stroms und dessen Verfügbarkeit begann eine neue Ära. Man konnte nun Daten wesentlich effizienter verarbeiten und auswerten. Die Vorstellung einer „elektronischen Murmelbahn“ für Daten entstand – ein System mit Weichen und Pfaden, das je nach Dateninput verschiedene Aktionen auslöste, wie das Aufleuchten einer Glühbirne oder das Ausführen einer Funktion.

Eine frühe, tatsächlich einsatzfähige Form der Künstlichen Intelligenz war geboren: Algorithmen, die auf Beobachtungen und abgeleiteten Regeln basieren.

Zeitraum Paradigmen Techniken Nutzerprofil Beispiele
1700-1960 Stift, Lötkolben, Lochkarte Zählen, Sortieren, Annahmen treffen Ingenieure, Fabrikanten, Forscher Buchhaltung, Fließbänder, Naturwissenschaften
1960-2010 Programmieren von anwendungs- spezifischem Code Die Gleichen wie zu zuvor, jedoch automatisiert Statistiker, Informatiker, erste Data Scientists und Machine Learning Forscher Spamfilter, (Sentiment-) Analyse von Texten, Optical Character Recognition OCR

Aber was macht diese frühen Modelle generativ? Nun, die „elektronische Murmelbahn“ konnte auch rückwärts betrieben werden. Vorwärts war sie ein statistisches Modell, das einer Beobachtung eine Kategorie oder einen Wert zuordnete. Dafür musste das Modell eine Vorstellung von den Daten haben. Rückwärts jedoch konnten durch zufällige Ziehungen hochwahrscheinliche Exemplare von Pilzen, Murmeln, Daten – sprich, Bilder oder Tabellen – erzeugt werden. Die generativen Fähigkeiten der Modelle wurden jedoch oft unterschätzt, da die Vorwärts-Funktion im Fokus stand.

Diese Methodik nennt sich Naïve Bayesian Classifier. „Naiv“ ist hier nicht abwertend gemeint, sondern bezieht sich auf vereinfachende Annahmen, die die Modellierung erheblich erleichtern. Bei naiven Methoden muss man keine komplexen Zusammenhänge zwischen Variablen wie Myzel, Stiel und Hut eines Pilzes unterstellen. Man sagt einfach: Wenn die durchschnittliche Qualität aller drei Teile gut genug ist, dann ist der Pilz gut.

Einige der ersten Anwendungen dieser Modelle waren die Handschrifterkennung (zum Beispiel bei der Post, bekannt als Optical Character Recognition, oder OCR) sowie bis heute Spam-Filter und allgemeine Textanalysen.

Das war der erste Einblick in die Grundlagen der generativen Künstlichen Intelligenz. Im nächsten Teil unserer Serie tauchen wir in die Welt der neuronalen Netze und maschinellen Lernens ein, die das Fundament für die modernen KI-Systeme gelegt haben. Bleibt neugierig und verpasst nicht den nächsten Meilenstein in der Geschichte der generativen KI!

Verpasse nicht Teil 2 unserer Blogserie. Tarik Ashry Tarik Ashry, Max Hilsdorf

Die rasante Entwicklung von generativer Künstlichen Intelligenz verändert unsere Welt grundlegend. Mit dem Aufkommen immer leistungsfähiger Sprachmodelle (LLM) – jüngst GPT-4o – treten Frage zu ihrer Intelligenz immer stärker ins Zentrum der Debatte: Sind LLMs intelligent? (Wann) werden sie menschliche Intelligenz übertreffen? Und wie können wir überhaupt mit passenden Begriffen beschreiben, was generative KI (GenAI) „tut”?

Der kanadische Philosoph Marshall McLuhan entwickelte in den 1960er-Jahren eine Medientheorie, die heute noch so aktuell ist, dass sie einen hilfreichen Blickwinkel auf LLMs und generative KI eröffnet. Berühmt geworden ist er vor allem durch einen Satz: „The medium is the message“ – das Medium ist die Botschaft.

Ein Medium ist nach McLuhan eine Erweiterung oder Verringerung der menschlichen Sinne und Körper. Nicht der Inhalt eines Mediums (z. B. bei Büchern die Bibel oder Harry Potter) sondern wie das Medium die kulturelle, ästhetische oder soziale Ordnung umgestaltet, ist entscheidend. McLuhan sagt: „The ‚message‘ of any medium or technology is the change of scale or pace or pattern that it introduces into human affairs“ (z. Dt.: Die „Botschaft“ eines jeden Mediums oder einer Technologie ist die Veränderung des Umfangs, des Tempos oder des Musters, die es in die menschlichen Dasein einführt).

Medien verändern unsere Welt – tiefgreifender als wir denken

Ob KI-Chatbots, das Fernsehen, oder der Buchdruck: Alle Medien oder Vehikel einer Technologie prägen und verändern die Erfahrungen ihrer Nutzer:innen und haben gesellschaftliche Folgen. Sie produzieren neue Handlungsstrukturen und verändern unser Verhalten. Der Buchdruck, zum Beispiel, verringerte die Bedeutung mündlicher Kommunikation und gemeinschaftlichen Erzählens. Gleichzeitig ermöglichte er uns, Informationen allein und unabhängig von Autoritäten zu lesen und zu verarbeiten. Das förderte individuelles Denken und Lernen, unabhängig von Institutionen wie der Kirche. Wissen konnte nun weit verbreitet und konserviert werden. Das allgemeine Bildungsniveau stieg rasant und setze gesellschaftliche Emanzipationsprozesse wie die Aufklärung in Gang.

Ein paar Jahrhunderte später steht in fast jedem Wohnzimmer ein Fernseher. Anders als der Buchdruck fördert das Fernsehen eine multisensorische Erfahrung und eine fragmentierte Wahrnehmung. Es erweitert sowohl den visuellen als auch den auditiven Sinn. Im Gegensatz zum linearen und sequenziellen Lesen eines Buches erfordert das Fernsehen eine simultane Verarbeitung von Bild, Ton und Bewegung. Gleichzeitig erfordert es weniger aktive Beteiligung und führt so zu einer passiveren Informationsaufnahme. Durch das Fernsehen wurde die Gesellschaft mehr auf visuelle und emotionale Inhalte fokussiert. Das verändert die Art und Weise, wie Informationen vermittelt und verstanden werden, weg von rein rationalen und textbasierten Medien hin zu emotionaleren und bildbasierten Medien. Fernsehen trägt so zur Bildung eines „Globalen Dorfes“ bei, in dem räumliche und zeitliche Grenzen durch mediale Vernetzung überwunden werden.

Und heute? Mit ChatGPT, Midjourney und Co. verfügen wir über völlig neue Medien. Sie sind Werkzeuge, mit denen sich Millionen Menschen bereits ihren Arbeitsalltag erleichtern. Mit 100 Millionen Nutzer:innen nach zwei Monaten stellte ChatGPT den Rekord für die am schnellsten wachsende Plattform auf. Diese Medien haben bereits zahlreiche Anwendungsbereich, vor allem in der Sprach- und Textverarbeitung. Unternehmen nutzen sie zum Beispiel im Marketing, Support und Vertrieb, um Textübersetzungen zu erstellen und automatisierte Antworten auf Kundenanfragen generieren. Unternehmen wie Geberit zeigen bereits eindrucksvoll, wie leistungsstark KI-Chatbots sein können.

Aber auch in der Medizin hilft KI durch Bild- und Objekterkennung bei der Diagnostik. Das KI-System AlphaFold, zum Beispiel, löste das Problem der Proteinfaltung, indem es die 3D-Struktur von Proteinen mit hoher Genauigkeit vorhersagt. Dadurch verstehen Wissenschaftler:innen Proteine noch besser und können schneller neue Therapien entwickeln. In der Automobilindustrie gewinnen Assistenzsysteme und autonomes Fahren an Bedeutung. Branchenübergreifend werden KI-Systeme in der Qualitätskontrolle und Fehlererkennung eingesetzt. Immer wichtiger wird KI auch im Bereich Bildung. Interaktive, maßgeschneiderte Lernbots verändern schon jetzt grundlegend, wie Menschen lernen.

Aber GenAI-Tools sind noch viel mehr: Als Medien und Vehikel einer neuen Technologie verändern und gestalten sie unsere Wirklichkeit – genau wie der Buchdruck, das Fernsehen und die vielen anderen Technologien und Medien, die Menschen erfunden haben. Sie beeinflussen, wie wir die Welt wahrnehmen und mit ihr interagieren. Diese Einflussnahme reicht von der Art und Weise, wie wir kommunizieren, bis hin zu dem, wie wir Entscheidungen treffen. Aber was bedeutet das konkret? Wird KI die Welt noch dramatischer verändern als das Fernsehen? Warum weckt KI so viel Interesse und erzeugt zugleich so viel Angst?

Was generative KI mit uns macht

Ähnlich wie der Buchdruck ermöglichen LLMs einen schnellen Zugang zu riesigen Mengen an Informationen und Wissen. Das verändert die Art und Weise, wie wir lernen und Wissen erlangen. Die erste Botschaft von KI lautet deshalb: Wir benötigen unsere Gehirne immer weniger zum Speichern von Faktenwissen und zum Verstehen komplexer Konzepte und Denkprozesse. Ein intelligenter Chatbot „weiß” unendlich viel mehr, kann sich alles merken und Inhalte sinnhaft ausgeben. Wichtiger für Menschen werden deshalb strategisches und prozedurales Wissen, also wie man Aufgaben durchführt und Probleme löst. Dieses Wissen ist entscheidend, um zu verstehen, wie man generative KI-Assistenten anleitet, um effizienter Aufgaben zu erledigen (z. B. durch effektives Prompting). Auch soziales und kontextuelles Wissen über Normen und menschliche Interaktionen sowie über Bedingungen, unter denen Ereignisse stattfinden, werden wichtiger. GenAI-Tools verstehen unsere soziale, kulturelle und physische Welt nämlich nicht wie wir, weil sie kein Bewusstsein und (noch) keinen Körper haben, um ihre Umwelt wahrzunehmen.

Die zweite Botschaft von GenAI betrifft neue Formen der sozialen und kreativen Interaktion. Chatbots und andere KI-gestützte Kommunikationsmittel verändern, wie wir miteinander und mit Maschinen interagieren. Sie erweitern unsere Kommunikationsfähigkeiten und schaffen neue Formen der Interaktion, die rund um die Uhr und in Echtzeit verfügbar sind. Sie fördern die globale Vernetzung und kulturelle Integration, z. B., indem Sprachbarrieren durch simultane Übersetzungstools verschwinden. Doch während sie die Erreichbarkeit und Effizienz verbessern, können diese Medien auch zur sozialen Isolation und Entfremdung führen. Der Mangel an physischer und emotionaler Präsenz in maschinellen Interaktionen kann das Gefühl der Verbundenheit verringern. Die Nuancen und Tiefen persönlicher Gespräche können verloren gehen, wenn Maschinen überall als Vermittler fungieren. GenAI-”Kreativität” verdrängt zutiefst menschliche, mühsame Auseinandersetzung mit der Welt und verändert so den Stellenwert des Konzepts Kreativität an sich.

Was bedeutet das alles für das Medium KI? Kurz gesagt: Bei generativer KI geht es vielleicht gar nicht so sehr um den einzelnen Inhalt, also den Output, den ein GenAI-Tool ausgibt. Viele Diskussionen hängen sich daran auf, dass generative KI entweder halluziniert und Mittelmäßigkeit produziert oder bereits kurz davorsteht, Menschen in allem zu übertrumpfen. Dabei verlieren diese Diskussionen die viel wichtigere Frage aus den Augen: Wie verändert sich unser Menschsein durch das Medium?

Denkmaschinen: Von Zettelkästen zu Neuronennetzen

Schon seit Jahrhunderten versuchen Menschen, Maschinen zu schaffen, die denken können. Von mechanischen Automaten bis hin zu komplexen Computerprogrammen: Das Ziel war immer, menschliche Denkprozesse nachzuahmen und zu erweitern. Umberto Eco, ein italienischer Philosoph und Schriftsteller, ging sogar so weit, Texte als Maschinen zu betrachten. Denn sie erzeugen verschiedene, neue Interpretationen und Gedanken, je nachdem, wer sie zu welchem Zeitpunkt und unter welchen Umständen liest. Kontexte, Erfahrungshorizonte, Bildungshintergründe und vieles mehr verändern den Blickwinkel und eröffnen so neue Deutungshorizonte eines Textes.

Neue Denkangebote kreiert auch der berühmte Zettelkasten des Soziologen Niklas Luhmann. Zwischen 1951 und 1997 füllte er diesen mit 90.000 Zetteln. Luhmann nutzte diesen Zettelkasten, der durch ein ausgeklügeltes Nummerierungs- und „Multiple storage“-Prinzip gekennzeichnet ist, um Themenvielfalt zu ermöglichen und den Kontext eines Themas durch verschiedene Verweisstrukturen zu erweitern. Er sah den Zettelkasten als Zweitgedächtnis und Denkwerkzeug, das zu einem diskursiven Partner in der Erzeugung von Wissen wurde. Luhmanns Methode ermöglichte es, durch das zufällige Ziehen und Verknüpfen von Zetteln neue Theorien und Ideen zu entwickeln. Anders gesagt: Durch die Arbeit mit dem Kasten konnten neue Gedanken entstehen, die ohne den Kasten so nicht entstanden wären.

Ganz ähnlich funktionieren neuronale Netze: Sie verknüpfen eine Vielzahl von Informationen in einer Weise, die zu neuen Einsichten und unerwarteten Lösungen führen kann, die vorab nicht erkennbar waren. Durch die komplexe Verknüpfung von Datenpunkten können diese Systeme Ergebnisse produzieren, die weder linear noch vorhersehbar sind (Emergenz). Sie agieren als kognitive Partner, um uns bei der Lösung komplexer Probleme zu unterstützen, indem sie uns helfen, Zusammenhänge zu erkennen, die wir allein vielleicht übersehen hätten.

Erzeugt KI Emergenz?

Können auch LLMs aktiv neue Gedanken generieren – also Emergenz erzeugen? Emergenz beschreibt Phänomene, die entstehen, wenn sich einzelne Teile zu einem größeren Ganzen zusammenfügen und dabei neue Eigenschaften entwickeln, die nicht vorhersehbar waren. In der Welt der KI tritt Emergenz auf, wenn Algorithmen beginnen, in Arten zu „denken“ und zu kommunizieren, die ihre menschlichen Schöpfer:innen nicht direkt vorgesehen hatten.

Forscher:innen von Google DeepMind haben eine mögliche Erklärung gefunden, wie KI-Systeme emergente Fähigkeiten entwickeln. Sie konnten mathematisch beweisen, dass KI-Systeme notwendigerweise ein kausales Modell der Daten und ihrer Zusammenhänge lernen müssen, um sich robust an veränderte Bedingungen anpassen zu können. Ändert sich die Verteilung der Daten, etwa wenn ein KI-Agent in eine neue Umgebung gesetzt wird, muss er seine Strategie mit minimalen Verlusten anpassen können. Je besser seine Anpassungsfähigkeit, desto genauer muss das implizit, nebenbei gelernte Kausalmodell sein.

Allerdings ist umstritten, ob die derzeitigen Methoden und Trainingsdaten dafür ausreichen und ob es sich bei den beobachteten Fähigkeiten um echte kausale Schlussfolgerungen handelt. Zwar kam ein anderes Forschungsteam jüngst zu dem Ergebnis, dass LLMs eine gewisse Fähigkeit zur Schlussfolgerung zu haben scheinen. Aber ohne einen richtigen Stresstest (z. B. mit kontrafaktischen Aufgaben) lässt sich nicht gesichert feststellen, dass sie auf eine allgemeine Art und Weise schlussfolgern. KI-Systeme scheinen sich eher auf ihre Trainingsdaten zu verlassen (approximate retrieval, z. Dt. ungefähres Abrufen), die sich nicht auf Aufgaben außerhalb der Verteilung verallgemeinern lassen.

Doch das muss nicht bedeuten, KI kann nicht beim Denken helfen. Wer kluge Fragen stellt und Prompts ausarbeitet, die ein LLM dazu bringen, komplexe inhaltliche Verknüpfungen zwischen Themen zu machen, kann genauso neue Gedanken erzeugen wie Luhmanns Zettelkasten sie produziert hat. Wer strategisches und kontextuales Wissen klug einsetzt, kann Szenarien erstellen, Bedingungen aufstellen und Rahmen setzen, um mit einem KI-System nützliche und kreative Outputs zu erzeugen.

Der Zauber steckt in den Daten

Denken wir zurück an die Ausgangsfrage: Mit welchen Begriffen können wir beschreiben, was KI macht? Wenn Intelligenz sowohl in biologischen als auch in künstlichen Systemen ein emergentes Phänomen ist, also aus den komplexen Interaktionen und Verbindungen zwischen den Komponenten entsteht, müssen wir genauer auf die Komponenten künstlicher Systeme blicken – nämlich Daten.

Daten sind notwendig, um KI-Systeme zu trainieren. Und nur mit einer großen Menge an Trainingsdaten können KI-Systeme wirklich gut werden. Das bedeutet, dass Daten mehr sind als nur Informationen. Sie sind die Grundlage, auf der KI lernt und Entscheidungen trifft. Ihre Qualität, Vielfalt und Repräsentativität sind entscheidend dafür, wie effektiv, sicher und produktiv eine KI funktioniert.

Erinnern wir uns an McLuhan, der sagte, dass Medien die Art und Weise, wie wir Informationen wahrnehmen, verändern. Was bedeutet das, wenn wir auch Daten als ein eigenes Medium verstehen? Welche Botschaft tragen sie?

Daten beeinflussen, wie eine KI die Welt „sieht“ und interpretiert. Aus diesem Blickwinkel wird KI selbst zur Botschaft. Sie repräsentiert den Übergang zu einer datengetriebenen, automatisierten Welt, in der menschliche und maschinelle Intelligenz verschmelzen. Ihre Existenz und Funktionsweise verändern unser Verständnis davon, was möglich ist. Indem KI zum Beispiel Arbeitsprozesse vereinfacht und automatisiert, verändert sie grundlegend, welche menschlichen Kompetenzen in unserer modernen Gesellschaft an Bedeutung verlieren, und welche künftig sogar wichtiger werden als ein Universitätsabschluss, wie eine Microsoftstudie zeigt:

  • 66 Prozent der befragten Führungskräfte sagen, sie würden jemanden ohne KI-Kenntnisse nicht einstellen.
  • 71 Prozent würden lieber weniger erfahrene Kandidat:innen mit KI-Kenntnissen einstellen als erfahrenere Kandidat:innen ohne diese.
  • 77 Prozent der Führungskräfte wollen Talenten am Anfang ihrer Karriere mit KI größere Verantwortung übertragen.
  • 69 Prozent der Befragten sagen, KI könnte ihnen helfen, schneller befördert zu werden.
  • 79 Prozent erwarten, dass KI-Kenntnisse ihre Jobchancen erweitern werden.

Die Zahlen belegen eindrucksvoll: KI formt unsere Gesellschaft; sie ist mehr als ihre Inhalte. KI formt die Strukturen, die festlegen, wohin wir uns als Gesellschaft bewegen, was als Nächstes erschaffen wird, welche Weichen wie gestellt werden für die Zukunft, wo investiert wird und wo nicht, was gefördert wird und was nicht.

Was bedeutet das für uns?

Ich denke, die Diskussion über generative KI sollte sich weniger auf die unmittelbaren Inhalte und mehr auf die umfassenden Auswirkungen auf unsere Gesellschaft und unser Selbstverständnis konzentrieren. Marshall McLuhan zeigt uns, dass Medien unsere Sinne und Wahrnehmungen erweitern oder verringern. Generative KI erweitert unsere kognitiven Fähigkeiten und die Art und Weise, wie wir Informationen verarbeiten und kreativ tätig sind. Gleichzeitig stellt sie uns vor neue Herausforderungen: den Wert der Tiefe und Originalität kreativer Arbeit, die Qualität und Repräsentativität von Daten und die potenzielle soziale Isolation durch maschinelle Interaktionen. Generative KI ist eine transformative Kraft, die unser Denken und unsere Wahrnehmung grundlegend verändert und uns dazu anregt, unsere Rolle in dieser neuen Welt kritisch zu hinterfragen und aktiv zu gestalten. Ich lade deshalb alle, die mit und an KI arbeiten, herzlich ein, mit uns zusammen darüber nachzudenken. Welche Veränderungen wollen wir fördern und welche eher nicht? Auf welche Gefahren sollten wir stärker achten und hinweisen? Wo liegen die großen emanzipatorischen Chancen von KI? Lasst es uns gemeinsam herausfinden. Tarik Ashry

KI-Chatbots kommen in immer mehr Unternehmen zum Einsatz. Doch Chatbot ist nicht gleich Chatbot. Manche Lösungen lassen sich zwar schnell und relativ leicht implementieren. Doch mangelt es ihnen an Konfigurierbarkeit (Customizability) und den Funktionalitäten, die wirklich große Leistungssprünge, z. B. bei der Beantwortung von Kundenanfragen im Customer Service, ermöglichen. Customized Lösungen, die genau das bieten, können wiederum aufwändig und teuer werden – besonders, wenn sie über komplexe und use-case-spezifische Retrieval-Augmented Generation (RAG) verfügen sollen. Die Technik verbessert die Genauigkeit und Zuverlässigkeit von generativen KI-Modellen, indem sie es ermöglicht, z. B. mit unternehmenseigenen Datenbanken zu chatten und nur gesicherte Fakten auszugeben.

Wie funktionieren Chatbots?

Custom GPT-Chatbots lernen aus großen Mengen von Texten, um Zusammenhänge zu verstehen und Muster zu erkennen. Sie werden so programmiert, dass sie individuell auf verschiedene Nutzer:innenanfragen eingehen können. Die Erstellung solcher Chatbots umfasst die maßgeschneiderte Anpassung an bestimmte Bedürfnisse, das gezielte Trainieren mit ausgewählten Daten und das Einbinden in Plattformen wie Websites oder mobile Anwendungen.

 

CustomGPT von statworx zeichnet sich dadurch aus, dass es das Beste aus beiden Welten – hohe Funktionalität durch Customizability und schnelle Implementierung – miteinander verbindet. Die Lösung ist maßgeschneidert und ermöglicht eine sichere und effiziente Nutzung von ChatGPT-ähnlichen Modellen. Das Interface lässt sich im Corporate Design eines Unternehmens gestalten und leicht in bestehende Geschäftsanwendungen wie CRM-Systeme und Support-Tools integrieren.

 

Worauf kommt es also an, wenn Unternehmen die ideale Chatbot-Lösung für ihre Bedürfnisse suchen?

Anforderungsanalyse: Zunächst sollten die spezifischen Anforderungen des Unternehmens identifiziert werden, um sicherzustellen, dass der Chatbot optimal auf diese zugeschnitten ist. Welche Aufgaben soll der Chatbot bearbeiten? Welche Abteilungen soll er unterstützen? Welche Funktionen braucht er?

Training des Modells: Ein custom GPT-Chatbots muss mit relevanten Daten und Informationen ausgestattet werden, um eine hohe Genauigkeit und Reaktionsfähigkeit sicherzustellen. Wenn diese Daten nicht verfügbar sind, lohnt sich der technische Aufwand wahrscheinlich nicht.

Integration in bestehende Systeme: Die nahtlose Integration des Chatbots in bestehende Kommunikationskanäle wie Websites, Apps oder soziale Medien ist entscheidend für eine effektive Nutzung. Je nach Infrastruktur eignen sich unterschiedliche Lösungen.

 

Schnell einsatzbereit und immer anpassungsfähig

Der CustomGPT-Chatbot von statworx zeichnet sich durch seine schnelle Einsatzfähigkeit aus, oft schon innerhalb weniger Wochen. Diese Effizienz verdankt er einer Kombination aus bewährten Standardlösungen und maßgeschneiderter Anpassung an die speziellen Bedürfnisse eines Unternehmens. CustomGPT ermöglicht den Upload von Dateien und die Möglichkeit, mit ihnen zu chatten, also gesicherte Informationen aus den unternehmenseigenen Daten zu ziehen. Mit fortschrittlichen Funktionen wie Faktenprüfung, Datenfilterung und der Möglichkeit, Nutzer:innenfeedback zu integrieren, hebt sich der Chatbot von anderen Systemen ab.

Darüber hinaus bietet CustomGPT Unternehmen die Freiheit, das Vokabular, den Kommunikationsstil und den generellen Ton ihres Chatbots zu bestimmen. Dies ermöglicht nicht nur ein nahtloses Markenerlebnis für die Nutzer:innen, sondern verstärkt auch die Wiedererkennung der Unternehmensidentität durch eine persönliche und einzigartige Interaktion. Ein besonderes Highlight: der Chatbot ist optimiert für die mobile Darstellung auf Smartphones.

 

Technische Umsetzung

Im Bestreben, eine hochmoderne Anwendung zu schaffen, die sich leicht warten lässt, wurde Python als Kernsprache für das Backend von CustomGPT verwendet. Für die effiziente Handhabung von Anfragen setzen die statworx-Entwickler:innen auf FastAPI, eine moderne Webframework-Lösung, die sowohl Websockets für eine zustandsorientierte Kommunikation als auch eine REST-API für die Dienste bereitstellt. CustomGPT kann flexibel auf unterschiedlichen Infrastrukturen eingesetzt werden – von einer einfachen Cloud-Function bis zu einem Maschinencluster, wenn die Anforderungen dies erfordern.

Ein wesentlicher Aspekt der Architektur ist die Anbindung an eine Datenschicht, um ein flexibles Backend zu bieten, das sich schnell an veränderte Bedingungen und Anforderungen anpassen kann. Die Frontend-Applikation, entwickelt mit React, interagiert nahtlos über Websockets mit dem Backend, welches zum Beispiel die leistungsfähige Azure-AI-Suchfunktion nutzt. Die Konfiguration des Backends ermöglicht es, zusätzliche Use-Cases, wie zum Beispiel maßgeschneiderte Suchlösungen zu implementieren und spezifische Anforderungen effizient zu erfüllen.

 

Die Vorteile im Überblick:

Datenschutz und Sicherheit
Datenschutz und Datensicherheit sind zentrale Aspekte von CustomGPT. Es gewährleistet, dass alle Daten in der Europäischen Union gespeichert und verarbeitet werden und die vollständige Kontrolle beim Unternehmen liegt. Das ist ein entscheidender Unterschied zu anderen GPT-basierten Lösungen.

Integration und Flexibilität
Die flexible Integration von CustomGPT in bestehende Geschäftsanwendungen ist ein weiterer Vorteil. Dies wird durch Modularität und Anbieterunabhängigkeit unterstützt. Damit kann CustomGPT an verschiedene Infrastrukturen und Modelle angepasst werden, einschließlich Open-Source-Optionen.

Funktionen und Anpassungsmöglichkeiten
Die Anpassungsmöglichkeiten von CustomGPT umfassen die Integration in Organisationsdaten, die Anpassung an Benutzerrollen und die Verwendung von Analytics zur Verbesserung der Konversationen. Durch die Verwendung von Standardmodellen sowie die Möglichkeit, auf Open-Source-Modelle zu setzen, bietet CustomGPT Flexibilität und Individualisierung für Unternehmensanwendungen.

Personalisierte Kundenerfahrung
Durch die Anpassung an die spezifischen Anforderungen eines Unternehmens können Custom GPT-Chatbots eine personalisierte und effektive Interaktion mit Kund:innen gewährleisten.

Effiziente Kundenbetreuung
CustomGPT Chatbots können rund um die Uhr Fragen beantworten, Probleme lösen und Informationen bereitstellen, was zu einer erhöhten Kund:innenzufriedenheit und Effizienz führt.

Skalierbarkeit
Unternehmen können die Kapazität, z. B. ihrer Kund:innenbetreuung mithilfe von GPT-Chatbots problemlos skalieren, um auch bei hohem Aufkommen eine konsistente Servicequalität zu gewährleisten.

Die Zeit für einen eigenen Chatbot ist jetzt! Profitieren Sie von unserer Upstream-Entwicklung mit schneller Bereitstellung und einfacher Implementierung. Als CustomGPT-Kunde stehen Ihnen alle Patches, Bugfixes und neue Funktionalitäten, die im Laufe der Zeit hinzukommen, direkt zur Verfügung. So bleibt Ihr CustomGPT stets so vielseitig und flexibel, dass es den spezifischen, sich ändernden Bedürfnissen gerecht wird und komplexe Anforderungen adressieren kann. Kontaktieren Sie uns jetzt für ein Beratungsgespräch. Tarik Ashry

Stell dir vor, es ist Freitag und anstatt des üblichen Büroalltags, findest du dich mitten in einem Hackathon für ein Pro-Bono-Projekt wieder, planst einen Ausflug in das Dialogmuseum an der Frankfurter Hauptwache oder befragst Passanten auf der Zeil zu ihren Gedanken über KI und Nachhaltigkeit. Was haben all diese unterschiedlichen Aktivitäten gemeinsam? Sie sind Teil der 4:1-Woche („Vier zu eins“) bei statworx – einem Arbeitsmodell, das Raum für persönliche Entwicklung, innovatives Arbeiten und gesellschaftliches Engagement bietet.

Warum haben wir die 4:1-Woche eingeführt?

Bei statworx standen wir vor einer Herausforderung: Unsere Mitarbeitenden hatten große Ambitionen, sich weiterzubilden, fanden aber wenig Zeit dafür. Die Arbeitswoche war gefüllt mit Projekten und Terminen, und so rückte die persönliche Entwicklung oftmals in den Hintergrund.

Um dieses Dilemma zu lösen, führten wir 2022 eine innovative Arbeitsstruktur ein: die 4:1-Woche. Das Prinzip ist einfach und wirkungsvoll. Vier Tage der Woche sind intensivem Arbeiten an Projekten gewidmet. Der fünfte Tag, der Freitag, steht ganz im Zeichen der Weiterbildung. An diesem Tag findet das Tagesgeschäft in reduzierter Geschwindigkeit statt, und die Mitarbeiter:innen können sich voll und ganz ihrer fachlichen und persönlichen Entwicklung widmen.

Diese neue Struktur hat zu einer spürbaren Veränderung geführt. Sie ermöglicht es jeder und jedem Einzelnen bei statworx, auch in arbeitsreichen Zeiten Fortbildung zu machen und neue Fähigkeiten zu erlernen. Das fördert nicht nur die persönliche Entfaltung, sondern auch die Innovationskraft der Firma. Während die Kundenprojekte von Montag bis Donnerstag die volle Aufmerksamkeit genießen, wird der Freitag zum Raum für Lernen und Inspiration. So wahren wir gemeinsam die Balance zwischen Kundenbedürfnissen und der Entwicklung der Mitarbeitenden.

Welche Weiterbildungsmöglichkeiten bietet statworx an?

statX: Einmal im Monat treffen sich Mitarbeiter:innen auf freiwilliger Basis zum internen Austausch über ihre Erkenntnisse aus Projekten, über persönlich erworbenes Wissen oder über neue Modelle und Ansätze. Die Themen erstrecken sich dabei von Deep Learning mit Audiodaten über den AI Act bis hin zu Anomaly Detection.

Cluster: Die selbstorganisierten Arbeitsgruppen sind der Nährboden für die Entwicklung und Förderung von Fachwissen bei statworx. Derzeit gibt es fünfzehn Cluster, in denen Mitarbeiter:innen die Themen vertiefen, die ihnen besonders am Herzen liegen – und so die Innovationskraft von statworx insgesamt stärken. Hier sind drei Beispiele aus unserem Cluster-Portfolio:

  • Bio Medicine Cluster: Erarbeitung von KI-Anwendungsfällen im biomedizinischen und pharmazeutischen Bereich.
  • NLP Cluster: Implementierung modernster Modelle, Best Practices und Software für NLP sowie multimodale Anwendung von NLP-Modellen.
  • Explainable AI Cluster: Beschäftigung mit Methoden, um Blackbox-KI-Modelle transparent und erklärbar zu machen.

Weiterbildungsbudget: Jedes Teammitglied bei statworx verfügt über ein jährliches Weiterbildungsbudget. Dieses Budget kann für individuelle Weiterbildungsmaßnahmen wie Online-Kurse, externe Trainings, Teilnahme an Konferenzen, Zertifizierungen und vieles mehr genutzt werden.

Technical- und non-technical Trainings: Das ganze Jahr über bieten wir eine Vielzahl von Trainings an, die sowohl Soft- als auch Hard-Skills ausbilden. Von effektiver Kommunikation über konstruktives Feedback bis hin zu Softwareengineering und Scrum sind zahlreiche spannende Themen vertreten.

Woher wissen wir, dass unser 4:1-Konzept funktioniert?

In regelmäßigen Pulse-Surveys und unseren halbjährlichen Umfragen zur Zufriedenheit der Mitarbeitenden sammeln wir anonymisiertes Feedback zum 4:1-Modell. So gewinnen wir Einblicke in die persönlichen Erfahrungen unserer Teammitglieder. In zusätzlichen, direkten Gesprächen mit Mitarbeiter:innen erhalten wir weitere wertvolle Eindrücke, um zu entscheiden, wie wir das Programm zukünftig gestalten und weiterentwickeln möchten.

Unser Zwischenfazit lautet: Mit jedem erworbenen Zertifikat und jeder persönlichen Erfolgsgeschichte bestätigt die 4:1-Woche bei statworx ihre Wirksamkeit. Wir freuen uns darauf, das Konzept kontinuierlich zu verfeinern und noch mehr Mitarbeiter:innen auf ihrer individuellen Lernreise zu unterstützen.

Kollegen bestätigen unser vorläufiges Fazit:

„Die 4:1 Woche gibt mir die Möglichkeit, mich neben der Projektarbeit tiefer in Themen und Wissensgebiete einzuarbeiten, für die ich selbst brenne. Deshalb habe ich zusammen mit meinen Kolleg:innen das Bio-Medicine-Cluster ins Leben gerufen. Und meine Software-Engineering-Skills bringe ich im Cluster für Technical Delivery ein, um die technische Bereitstellung unserer Lösungen stetig zu verbessern.“ – Benedikt Batton, Consultant Data Science, AI Development

„Die 4:1 Woche fördert die individuelle fachliche Weiterentwicklung und bietet Platz dafür, über bestehende Abteilungen und Hierarchien hinaus auf innovativen Wegen Wert zu schaffen. In meiner Zeit bei statworx war die Arbeit am Freitag bisher stets eine Quelle der Motivation, Inspiration und Selbstverwirklichung.“ – Max Hilsdorf, Consultant, AI Academy

Du möchtest Teil einer Arbeitskultur sein, die dir Raum für persönliche Entwicklung gibt und ein ausgewogenes Verhältnis zwischen Projektarbeit und Weiterbildung ermöglicht? Dann besuche unsere Karriereseite und bewirb dich jetzt! Ida-Marie Trieba

Eine erfolgreiche Data Culture ist der Schlüssel für Unternehmen, um aus der ständig wachsenden Menge an Daten den größtmöglichen Nutzen zu ziehen. Der Trend, Entscheidungen auf der Basis von Daten zu treffen, ist unaufhaltsam. Doch wie schaffen es Führungskräfte, ihre Teams dazu zu befähigen, Daten effektiv zu nutzen?

Eine lebendige Data Culture: Der Treibstoff für Unternehmenserfolg

Data Culture ist mehr als ein Schlagwort – sie ist die Grundlage für datengestützte Entscheidungen. Wenn alle Abteilungen eines Unternehmens Daten zur Verbesserung von Arbeitsabläufen und zur Entscheidungsfindung nutzen, entsteht eine Atmosphäre, in der kompetenter Umgang mit Daten zum Standard gehört.

Warum ist das so wichtig? Daten sind Treibstoff für den Geschäftserfolg: 76 Prozent der Teilnehmer:innen des BARC Data Culture Survey 22 gaben an, dass ihr Unternehmen eine Datenkultur anstrebt. Und 75 Prozent der Führungskräfte sehen Data Culture als wichtigste Kompetenz.

Die entscheidende Rolle von Führungskräften

Eine etablierte Data Culture ist nicht nur ein Erfolgsfaktor für das Unternehmen, sondern auch ein Weg, um Innovationen zu fördern und Mitarbeiter:innen zu motivieren. Führungskräfte spielen hier eine zentrale Rolle, indem sie als Wegbereiter auftreten und den Wandel aktiv unterstützen. Sie müssen die Vorteile einer Data Culture klar kommunizieren, klare Richtlinien für Datenschutz und Datenqualität aufstellen und gezielte Schulungen sowie regelmäßige Kommunikation über Fortschritte anbieten. Eine klare Verantwortung für die Datenkultur ist entscheidend, denn 31 Prozent der Unternehmen mit schwach ausgeprägter Data Culture haben keine dedizierte Abteilung oder Person mit dieser Verantwortung.

Herausforderungen und Lösungen

Der Weg zur erfolgreichen Data Culture ist mit Hürden gespickt. Führungskräfte müssen sich verschiedenen Herausforderungen stellen:

  • Widerstand gegen Veränderungen: Ein Übergang zu einer Data Culture kann auf Widerstand stoßen. Führungskräfte müssen die Vorteile klar kommunizieren und Schulungen anbieten, um ihre Mitarbeiter:innen in den Veränderungsprozess einzubeziehen.
  • Fehlende Data-Governance: Richtlinien und Standards für den Umgang mit Daten sind entscheidend. Fehlen diese, verringert sich schlimmstenfalls die Datenqualität. Das führt zu falschen Entscheidungen. Hier sind Methoden zur Datenbereinigung und -validierung sowie regelmäßige Audits vonnöten.
  • Bedenken hinsichtlich des Datenschutzes: Datenschutz und Datenzugang stehen oft im Konflikt. Hier müssen klare Richtlinien und Sicherheitsmaßnahmen eingeführt werden, um das Vertrauen der Mitarbeiter:innen zu gewinnen.
  • Fehlende Ressourcen und Unterstützung: Ohne die nötigen Ressourcen kann der Aufbau einer Data Culture scheitern. Unternehmen müssen gezielte Schulungen anbieten und den geschäftlichen Nutzen in wirtschaftlichen Kennzahlen darstellen, um die Unterstützung ihrer Führungskräfte zu gewinnen.

Best Practices für eine starke Data Culture

Um eine Data Culture effektiv zu etablieren, können Unternehmen auf folgende Best Practices setzen:

Kritisches Denken: Die Förderung von kritischem Denken und ethischen Standards ist entscheidend. Data- und KI-Lösungen werden überall Werkzeuge des täglichen Lebens werden. Deshalb bleibt menschliche Intelligenz die wichtigste Kompetenz im Umgang mit Technologie.

Messen und Planen: Data Culture kann nur schrittweise aufgebaut werden. Unternehmen sollten datengesteuertes Verhalten messen und evaluieren, um den Fortschritt zu bewerten. Je stärker die Data Culture, desto omnipräsenter ist datengetriebenes Entscheiden.

Etablierung von Schlüsselrollen: Unternehmen sollten spezielle Funktionen bzw. Rollen schaffen für Mitarbeiter:innen, die die Data Strategy mit der Unternehmensstrategie verknüpfen und als zentrale Multiplikator:innen die Datenkultur bei den Mitarbeiter:innen fördern.

Die Entwicklung einer starken Data Culture erfordert klare Führung, klare Richtlinien und das Engagement der gesamten Organisation. Führungskräfte spielen dabei eine entscheidende Rolle, um den Wandel zu einer datengetriebenen Kultur erfolgreich zu gestalten.

Der Aufbau einer starken Datenkultur: Unser strategischer Ansatz

Bei statworx haben wir uns darauf spezialisiert, robuste Datenkulturen in Unternehmen zu etablieren. Unsere Strategie basiert auf bewährten Rahmenwerken, Best Practices und unserer umfangreichen Erfahrung, um die Grundlagen für eine erfolgreiche Datenkultur in Ihrem Unternehmen zu schaffen.

  1. Data Culture Strategie: Hand in Hand mit den Teams unserer Kunden entwickeln wir die strategische Roadmap, die erforderlich ist, um eine blühende Datenkultur zu fördern. Dies beinhaltet den Aufbau der grundlegenden Strukturen, die für die Maximierung des Potenzials Ihrer Unternehmensdaten unerlässlich sind.
  2. Data Culture Trainings: Wir setzen auf die Befähigung Ihrer Belegschaft mit den Fähigkeiten und dem Wissen, um im Bereich Daten und KI zu agieren. Unsere Schulungsprogramme zielen darauf ab, Mitarbeiter:innen mit den Kompetenzen auszustatten, die für den Aufbau einer starken Datenkultur unerlässlich sind. Damit können Unternehmen das volle Potenzial von Daten und Künstlicher Intelligenz ausschöpfen.
  3. Change-Management und Begleitung: Die Verankerung einer Datenkultur erfordert anhaltende Anstrengungen im Change-Management. Wir arbeiten mit den Kunden-Teams zusammen, um langfristige Änderungsprogramme zu etablieren, die darauf abzielen, eine robuste Datenkultur im Unternehmen zu initiieren und zu festigen. Unser Ziel ist es, sicherzustellen, dass die Transformation in der DNA der Organisation verankert bleibt, um anhaltenden Erfolg zu gewährleisten.

Mit unserem umfassenden Serviceangebot sind wir bestrebt, Unternehmen in eine Zukunft zu führen, in der Daten zu einem strategischen Vermögen werden, das neue Chancen erschließt und fundierte Entscheidungsfindung auf allen Ebenen ermöglicht. Darüber haben wir ausführlich in unserem Whitepaper Data Culture als Führungsaufgabe in Unternehmen geschrieben, das auch eine Data-Culture-Checklist enthält. Unsere Angebote rund um das Thema Datenkultur sind auf unserer Themenseite Data Culture zu finden. Tarik Ashry

Wir stehen am Beginn des Jahres 2024, einer Zeit grundlegender Veränderungen und spannender Fortschritte in der Welt der Künstlichen Intelligenz. Die nächsten Monate gelten als kritischer Meilenstein in der Evolution der KI, in denen sie sich von einer vielversprechenden Zukunftstechnologie zu einer festen Realität im Geschäftsleben und im Alltag von Millionen wandelt. Deshalb präsentieren wir gemeinsamen mit dem AI Hub Frankfurt, dem zentralen KI-Netzwerk der Rhein-Main-Region, unsere Trendprognose für 2024, den AI Trends Report 2024.

Der Report identifiziert zwölf dynamische KI-Trends, die sich in drei Schlüsselbereichen entfalten: Kultur und Entwicklung, Daten und Technologie sowie Transparenz und Kontrolle. Diese Trends zeichnen ein Bild der rasanten Veränderungen in der KI-Landschaft und beleuchten die Auswirkungen auf Unternehmen und Gesellschaft.
Unsere Analyse basiert auf umfangreichen Recherchen, branchenspezifischem Fachwissen und dem Input von Expert:innen. Wir beleuchten jeden Trend, um einen zukunftsweisenden Einblick in die KI zu bieten und Unternehmen bei der Vorbereitung auf künftige Herausforderungen und Chancen zu unterstützen. Wir betonen jedoch, dass Trendprognosen stets einen spekulativen Charakter haben und einige unserer Vorhersagen bewusst gewagt formuliert sind.

Direkt zum AI Trends Report 2024!

Was ist ein Trend?

Ein Trend unterscheidet sich sowohl von einem kurzlebigen Modephänomen als auch von einem medialen Hype. Er ist ein Wandelphänomen mit einem „Tipping Point“, an dem eine kleine Veränderung in einer Nische einen großen Umbruch im Mainstream bewirken kann. Trends initiieren neue Geschäftsmodelle, Konsumverhalten und Arbeitsformen und stellen somit eine grundlegende Veränderung des Status Quo dar. Für Unternehmen ist es entscheidend, vor dem Tipping Point die richtigen Kenntnisse und Ressourcen zu mobilisieren, um von einem Trend profitieren zu können.

12 KI-Trends, die 2024 prägen werden

Im AI Trends Report 2024 identifizieren wir wegweisende Entwicklungen im Bereich Künstlichen Intelligenz. Hier sind die Kurzversionen der zwölf Trends mit jeweils einem ausgewählten Zitat aus den Reihen unserer Expert:innen.

Teil 1: Kultur und Entwicklung

Von der 4-Tage-Woche über Omnimodalität bis AGI: 2024 verspricht große Fortschritt für die Arbeitswelt, für die Medienproduktion und für die Möglichkeiten von KI insgesamt.

These I: KI-Kompetenz im Unternehmen
Unternehmen, die KI-Expertise tief in ihrer Unternehmenskultur verankern und interdisziplinäre Teams mit Tech- und Branchenwissen aufbauen, sichern sich einen Wettbewerbsvorteil. Zentrale KI-Teams und eine starke Data Culture sind Schlüssel zum Erfolg.

„Eine Datenkultur kann man weder kaufen noch anordnen. Man muss die Köpfe, die Herzen und die Herde gewinnen. Wir möchten, dass unsere Mitarbeitenden bewusst Daten erstellen, nutzen und weitergeben. Wir geben ihnen Zugang zu Daten, Analysen und KI und vermitteln das Wissen und die Denkweise, um das Unternehmen auf Basis von Daten zu führen.“

Stefanie Babka, Global Head of Data Culture, Merck

 
These II :4-Tage-Arbeitswoche durch KI
Dank KI-Automatisierung in Standardsoftware und Unternehmensprozessen ist die 4-Tage-Arbeitswoche für einige deutsche Unternehmen Realität geworden. KI-Tools wie Microsofts Copilot steigern die Produktivität und ermöglichen Arbeitszeitverkürzungen, ohne das Wachstum zu beeinträchtigen.

„GenAI wird die Automatisierung in zahlreichen Bereichen weiter vorantreiben. Dies wird der neue Maßstab für Standardprozesse in allen Sektoren sein. Auch wenn sich dies positiv auf die Arbeitszeitverkürzung auswirken kann, müssen wir sicherstellen, dass GenAI verantwortungsvoll eingesetzt wird, insbesondere in sensiblen und kundenorientierten Bereichen.“

Dr. Jean Enno Charton, Director Digital Ethics & Bioethics, Merck

 

These III: AGI durch omnimodale Modelle
Die Entwicklung von omnimodalen KI-Modellen, die menschliche Sinne nachahmen, rückt die Vision einer allgemeinen künstlichen Intelligenz (AGI) näher. Diese Modelle verarbeiten vielfältige Inputs und erweitern menschliche Fähigkeiten.

„Multimodale Modelle, die auf mehr als nur Text trainiert wurden, haben gezeigt, dass sie besser in der Lage sind, Schlussfolgerungen zu ziehen und die Welt zu verstehen. Wir sind gespannt, was omnimodale Modelle leisten werden.“

Dr. Ingo Marquart, NLP Subject Matter Lead, statworx

 

These IV: KI-Revolution in der Medienproduktion
Generative AI (GenAI) transformiert die Medienlandschaft und ermöglicht neue Formen der Kreativität, bleibt jedoch noch hinter transformatorischer Kreativität zurück. KI-Tools werden für Kreative immer wichtiger, doch es gilt, die Einzigartigkeit gegenüber einem globalen Durchschnittsgeschmack zu wahren.

„Wer AI smart integriert ist im Wettbewerbsvorteil. In den Bereichen Ideation, Publishing und Visuals wird es Produktivitätssprünge geben. Es entsteht aber auch eine Menge „Low“- und Fake- Content (Postings, Messaging), daher wird Vertrauensaufbau für Brands noch wichtiger. Die Social-Media-Aufgaben verlagern sich hin zu Strategie, Management und Controlling.“

Nemo Tronnier, Founder & CEO, Social DNA

 

Teil 2: Daten und Technologie

2024 dreht sich alles um Datenqualität, Open-Source-Modelle und den Zugang zu Prozessoren. Die Betreiber von Standardsoftware wie Microsoft und SAP werden groß profitieren, weil sie die Schnittstelle zu den Endnutzer:innen besetzen.

These V: Herausforderer für NVIDIA
Neue Akteure und Technologien bereiten sich vor, den GPU-Markt aufzumischen und NVIDIAs Position herauszufordern. Startups und etablierte Konkurrenten wie AMD und Intel wollen von der Ressourcenknappheit und den langen Wartezeiten profitieren, die kleinere Player derzeit erleben, und setzen auf Innovation, um NVIDIAs Dominanz zu brechen.

„Entgegen der vorherrschenden Meinung gibt es nicht wirklich einen Mangel an KI-Beschleunigern, wenn man NVIDIA, Intel und AMD mitzählt. Das eigentliche Problem ist die Finanzierung durch die Kunden, da die Cloud-Anbieter gezwungen sind, verfügbare Kapazitäten mit langfristigen Verträgen anzubieten. Dies könnte sich in 18 bis 24 Monaten ändern, wenn die aktuellen Bereitstellungen ausreichend abgeschrieben sind. Bis dahin müssen die Kunden längere Verpflichtungen einplanen.“

Norman Behrend, Chief Customer Officer, Genesis Cloud

 

These VI: Datenqualität vor Datenquantität
In der KI-Entwicklung rückt die Qualität der Daten in den Fokus. Statt nur auf Masse zu setzen, wird die sorgfältige Auswahl und Aufbereitung von Trainingsdaten sowie die Innovation in der Modellarchitektur entscheidend. Kleinere Modelle mit hochwertigen Daten können größeren Modellen in der Performance überlegen sein.

„Daten sind nicht nur eine Komponente der KI- Landschaft; Daten von richtiger Qualität zu haben, ist essentiell. Das Lösen des „first-mile problem“, um die Datenqualität zu gewährleisten, und das Verständnis des „last-mile problem“, d.h. die Einbindung von Mitarbeitenden in Daten- und KI-Projekte, sind entscheidend für den Erfolg.“

Walid Mehanna, Chief Data & AI Officer, Merck

 

These VII: Das Jahr der KI-Integratoren
Integratoren wie Microsoft, Databricks und Salesforce werden zu den Gewinnern, da sie KI-Tools an Endnutzer:innen bringen. Die Fähigkeit zur nahtlosen Integration in bestehende Systeme wird für KI-Startups und -Anbieter entscheidend sein. Unternehmen, die spezialisierte Dienste oder wegweisende Innovationen bieten, sichern sich lukrative Nischen.

„2024 zeigen KI-Integratoren wie sie KI für Endnutzer zugänglich machen. Ihre Rolle ist entscheidend für die Demokratisierung von KI in der Geschäftswelt, wodurch Unternehmen jeder Größe von fortschrittlicher KI profitieren. Diese Entwicklung betont die Notwendigkeit benutzerfreundlicher und ethisch verantwortungsvoller KI-Lösungen.“

Marco Di Sazio, Head of Innovation, Bankhaus Metzler

 

These VIII: Die Open-Source-Revolution
Open-Source-KI-Modelle treten in Wettbewerb mit proprietären Modellen wie OpenAIs GPT und Googles Gemini. Mit einer Community, die Innovation und Wissensaustausch fördert, bieten Open-Source-Modelle mehr Flexibilität und Transparenz, was sie besonders wertvoll für Anwendungen macht, die klare Verantwortlichkeiten und Anpassungen erfordern.

„Insbesondere für KMUs sind KI-Lösungen unverzichtbar. Da eine ausreichende Datenmenge für ein eigenes Modell typischerweise fehlt, wird die Kollaboration entscheidend. Die Möglichkeit zur Anpassung ist jedoch essenziell, um das eigene Geschäftsmodell digital voranzubringen.“

Prof. Dr. Christian Klein, Gründer, UMYNO Solutions, Professor für Marketing & Digital Media, FOM Hochschule

 

Teil 3: Transparenz und Kontrolle

Die verstärkte Nutzung von KI-Entscheidungssystemen wird 2024 eine intensivierte Debatte über Algorithmen-Transparenz und Datenschutz entfachen – auf der Suche nach Verantwortlichkeit. Der AI Act wird dabei zum Standortvorteil für Europa.

These IX: KI-Transparenz als Wettbewerbsvorteil
Europäische KI-Startups mit Fokus auf Transparenz und Erklärbarkeit könnten zu den großen Gewinnern werden, da Branchen wie Pharma und Finance bereits hohe Anforderungen an die Nachvollziehbarkeit von KI-Entscheidungen stellen. Der AI Act fördert diese Entwicklung, indem er Transparenz und Anpassungsfähigkeit von KI-Systemen fordert und damit europäischen KI-Lösungen zu einem Vertrauensvorsprung verhilft.

„Transparenz wird ein Schlüsselthema im Bereich KI. Dies gilt für den Aufbau von KI-Modellen, den Datenfluss und die Nutzung der KI selbst. Es wird die Diskussionen über Compliance, Sicherheit und Vertrauen erheblich beeinflussen. Durch den AI Act könnten Transparenz und Sicherheit sogar zu Wettbewerbsvorteilen für europäische Unter- nehmen werden.“

Jakob Plesner, Rechtsanwalt, Gorrissen Federspiel

 

These X: AI Act als Qualitätssiegel
Der AI Act positioniert Europa als sicheren Hafen für Investitionen in KI, indem er ethische Standards setzt, die das Vertrauen in KI-Technologien stärken. Angesichts der Zunahme von Deepfakes und der damit verbundenen Risiken für die Gesellschaft wirkt der AI Act als Bollwerk gegen Missbrauch und fördert ein verantwortungsbewusstes Wachstum der KI-Branche.

„Unternehmen, die vor einem technologischen Wandel stehen, brauchen ein klares Regelwerk. Durch die Einführung eines Gütesiegels für menschenzentrierte KI verwandelt der AI Act Herausforderungen in Chancen. Der AI Act wird international zu einer Blaupause werden, die EU-Unternehmen einen Vorsprung bei verantwortungsvoller KI verschafft und Europa zu einem Ort für nachhaltige KI-Partnerschaften macht.“

Catharina Glugla, Head of Data, Cyber & Tech Germany, Allen & Overy LLP

 

These XI: KI-Agenten revolutionieren den Konsum
Persönliche Assistenz-Bots, die Einkäufe tätigen und Dienstleistungen auswählen, werden zu einem wesentlichen Bestandteil des Alltags. Die Beeinflussung ihrer Entscheidungen wird zum Schlüsselelement für Unternehmen, um auf dem Markt zu bestehen. Dies wird die Suchmaschinenoptimierung und Online-Marketing tiefgreifend verändern, da Bots zu den neuen Zielgruppen werden.

„Es wird mehrere Arten von KI-Agenten geben, die nach menschlichen Absichten handeln. Zum Beispiel persönliche Agenten, die eine Einzelperson vertreten, und Dienstleistungsagenten, die eine Organisation oder Institution vertreten. Das Zusammenspiel zwischen ihnen, wie persönlich-persönlich, persönlich-institutionell und institutionell-institutionell, stellt ein neues Paradigma für wirtschaftliche Aktivitäten und die Verteilung von Werten dar.“

Chi Wang, Principle Researcher, Microsoft Research

 

These XII: Alignment von KI-Modellen
Die Abstimmung (Alignment) von KI-Modellen auf universelle Werte und menschliche Intentionen wird entscheidend, um unethische Ergebnisse zu vermeiden und das Potenzial von Foundation-Modellen voll auszuschöpfen. Superalignment, bei dem KI-Modelle zusammenarbeiten, um komplexe Herausforderungen zu meistern, wird immer wichtiger, um die Entwicklung von KI verantwortungsvoll voranzutreiben.

„Alignment ist im Kern ein analytisches Problem, bei dem es darum geht, Transparenz und Kontrolle herzustellen, um Vertrauen der Nutzer:innen zu erlangen. Das sind die Schlüssel für ein effektives Deployment von KI-Lösungen in Unternehmen, für die kontinuierliche Evaluierung und für eine sichere Iteration auf der Grundlage der richtigen Metriken.“

Daniel Lüttgau, Head of AI Development, statworx

 

Schlussbemerkung

Der AI Trends Report 2024 ist mehr als eine unterhaltsame Bestandsaufnahme; er kann ein nützliches Werkzeug für Entscheidungsträger:innen und Innovator:innen sein. Unser Ziel ist es, unseren Leser:innen strategische Vorteile zu verschaffen, indem wir die Auswirkungen der Trends auf verschiedene Sektoren diskutieren und ihnen helfen, die Weichen für die Zukunft zu stellen.

Dieser Blogpost bietet nur einen kurzen Einblick in den umfassenden AI Trends Report 2024. Wir laden Sie ein, den vollständigen Report zu lesen, um tiefer in die Materie einzutauchen und von den detaillierten Analysen und Prognosen zu profitieren.

Zum AI Trends Report 2024! Tarik Ashry

Ticket sichern!      Zum AI Trends Report 2024

 

Gemeinsam mit Nadja Schäfer, Global Lead Data Culture & Data Literacy bei Roche, und David Schlepps, Head of AI Academy bei statworx, tauchen wir ein in die Welt der Data Culture. In unserem AI Trends Report 2024 erklärt Nadja Schäfer, dass es erfolgsentscheidend ist, Datenkultur in der Unternehmensstrategie zu verankern.

Deshalb widmen wir uns im Webinar nun den konkreten Maßnahmen zur Entwicklung einer starken Data Culture – angefangen bei der Einbettung in die Unternehmensstrategie.

 

Expert:innen:

  • Nadja Schäfer, Global Lead Data Culture & Data Literacy, Roche Diagnostics Information Solutions
  • David Schlepps, Head of AI Academy, statworx

 

Themen:

  • Was ist Data Culture und warum braucht jedes Unternehmen eine eigene?
  • Wie baut Roche seine Data Culture in die Unternehmensstrategie ein?
  • Mit welchen Enablement-Maßnahmen lässt sich eine Data Culture aufbauen?

 

Nutze die Gelegenheit, deine Fragen direkt an Nadja Schäfer und David Schlepps zu stellen und dich mit Gleichgesinnten auszutauschen. Jetzt anmelden!

Alle angemeldeten Teilnehmer:innen erhalten nach dem Event eine Aufzeichnung.

Ticket sichern!      Zum AI Trends Report 2024

Zu den Umfrageergebnissen

Die Diskussion um den Einsatz von Künstlicher Intelligenz (KI) am Arbeitsplatz scheint unsere Gesellschaft zu spalten. Aktuell entfaltet sich ein Spannungsfeld: KI wird von den einen als bahnbrechender Fortschritt gefeiert und von anderen als Horrorszenario gefürchtet. Dazwischen scheint es wenig zu geben.

Unsere statworx-Arbeitsgruppe „AI & Society“ hat es sich zur Aufgabe gemacht, dem Diskurs auf den Grund zu gehen, um Antworten auf die drängenden Fragen unserer Gesellschaft zu finden. Dazu führten wir eine nicht-repräsentative Meinungsumfrage – teils online, teils in der Innenstadt von Frankfurt – mit 132 Teilnehmer:innen durch. Wir wollten unter anderem wissen: Was denken die Menschen außerhalb der KI-Bubble über Künstliche Intelligenz im Arbeitsalltag? Wo sehen sie die größten Potenziale und wovor fürchten sie sich? Unser Ziel: Statt nur Meinungen abzufragen, wollen wir die Ängste und Hoffnungen der Menschen verstehen, um daraus Lösungsansätze für einen sozialverträglichen KI-Einsatz ableiten zu können. Dazu untersuchten wir auch andere relevante Studien und Umfragen und die daraus abgeleieteten Empfehlungen.

Was Menschen über KI denken

Geht es um die Nutzung von KI am Arbeitsplatz herrscht eigentlich nur in der Kompetenz-Frage weitestgehend Einigkeit: Unternehmen und Personen, die KI in ihren Arbeitsalltag einsetzen, verschaffen sich Vorteile gegenüber anderen. Darüber hinaus zeigt sich ein undeutliches, teils widersprüchliches Bild auf dem weiten Feld von Studien, Darstellungen der öffentlichen Meinung, persönlicher Ansichten und Emotionen. Ein paar Auszüge daraus:

53 Prozent der von uns befragten Personen wünschen sich, mehr KI-Anwendungen in Studium und Beruf einzusetzen. Gleichzeitig sind sich 45 Prozent der Befragten nicht bewusst, bereits KI-gestützte Services wie Google Maps und Spotify im Alltag zu nutzen. Das zeigt: Es besteht weiter ein großer Aufklärungsbedarf darüber, was der Begriff „Künstliche Intelligenz“ tatsächlich beinhaltet – und was nicht.

Unsere Umfrage zeigt, dass Menschen in verschiedenen Branchen sorgenvoll in die Zukunft von und mit KI blicken. 55 Prozent sagen, dass sie eher besorgt, als begeistert von KI sind. Etwas mehr als die Hälfte der von uns befragten Personen gab sogar an, Angst vor der “allgemeinen Entwicklung” im Bereich KI zu haben. Auch gegenüber dem Institut für Demoskopie Allensbach gaben 40 Prozent an, dass generative KI sie beunruhige. Einer weiteren Studie zufolge finden sogar 58 Prozent der Deutschen KI „unsympathisch“. Das deutet darauf hin, dass ein großer Anteil der Bevölkerung diffuse Ängste und negative Assoziationen in Bezug auf KI hat.

Wenn es um den Einfluss von Künstlicher Intelligenz auf den eigenen Arbeitsalltag geht, vermutet ein Drittel der befragten Personen einen “eher starken” Einfluss. Knapp 60 Prozent wiederum denken, dass KI den eigenen Job “eher wenig” oder “gar nicht” beeinflussen wird. Weniger als ein Drittel erwartet, dass KI die eigene Arbeit interessanter machen wird und nur circa ein Viertel kann sich “mehr Raum für Kreativität” durch KI vorstellen. Diese Tendenzen werden von Ergebnissen einer Onlineumfrage des Marktforschungsinstituts Bilendi unter nichtakademischen Fachkräften mit Berufsausbildung unterstützt: Ein Viertel der Befragten gab an, dass vor allem Unternehmen vom KI-Einsatz profitieren. Beschäftigte würden keine tatsächliche Arbeitsentlastung erfahren, weil durch den technologischen Fortschritt bloß die Menge zu erledigender Aufgaben zunähme. Das zeigt: Die Auswirkungen von KI auf den eigenen Arbeitsalltag werden eher als negativ eingeschätzt. Doch nur ein Fünftel der von Bilendi Befragten glaubt auch, dass KI den eigenen Job irgendwann vollständig ersetzen werde. Auch 58 Prozent unserer Befragten glauben nicht, dass KI zu mehr Arbeitslosigkeit führt, im Gegensatz zu 33 Prozent in der KIRA-Studie, die sich Sorgen um Arbeitsplatzverluste machen.

Worauf wir uns tatsächlich einstellen müssen

Dass die von uns befragten Personen den Impact von Künstlicher Intelligenz vermutlich unterschätzen, zeigt sich in internationalen Vergleichsstudien. Eine Ipsos-Umfrage vom Sommer 2023 illustriert das in Deutschland vorherrschende geringe Bewusstsein für das Transformationspotenzial von KI folgendermaßen:

  • 35 Prozent der deutschen Befragten halten es für wahrscheinlich, dass KI ihren derzeitigen Arbeitsplatz in den nächsten 5 Jahren verändern wird (somit vorletzter Platz im Ländervergleich mit einem Durchschnitt von 57 Prozent).
  • Nur 19 Prozent der deutschen Befragten glauben, dass KI ihren derzeitigen Arbeitsplatz in den nächsten 5 Jahren ersetzen wird, im Vergleich zu einem Länderdurchschnitt von 36 Prozent.
  • Lediglich 23 Prozent der deutschen Befragten denken, dass der verstärkte Einsatz von künstlicher Intelligenz ihre Arbeit in den nächsten 3-5 Jahren verbessern wird, im Gegensatz zum Länderdurchschnitt von 37 Prozent.
  • Grundsätzlich vermuten 40 Prozent der Befragten eine Verschlechterung des deutschen Arbeitsmarktes durch die Nutzung von KI, während nur 20% eine Verbesserung erwarten.

Die Ergebnisse zeigen: Unternehmen, aber vor allem ihre Beschäftigten fühlen sich der neuen Herausforderung nicht gewachsen und machen sich kein realistisches Bild von den wirklich erwartbaren Veränderungen durch KI. Es fehlt an Bildungsangeboten und an individuellen Kompetenzen. Ihre diffusen Sorgen gepaart mit Unbedarftheit spitzen sich zu konkreten Herausforderungen für Arbeitgeber zu: Wie sollen Unternehmen mit unterschiedlichen Sichtweisen ihrer Mitarbeitenden auf KI umgehen? Wie (wenn überhaupt) geht man auf die ein, die sich ganz verweigern? Und wie mit jenen, die extrem enthusiastisch bis hin zu übereifrig sind? Wie befähigt man Menschen, souverän mit KI-basierten Tools umzugehen? Welche Abteilung und welche Mitarbeitenden benötigen überhaupt welche KI-Kompetenzen? Und wie bildet man diese individuell passend aus?

Fakt ist: Gerade die Veränderungen im Bereich generativer KI wirken sich massiv auf die Arbeitswelt aus. Einerseits wächst der Bedarf an Fachkräften, die Data-Kompetenz mit Branchenwissen vereinen, und es entstehen ganz neue Jobs wie der des “Prompt Engineers”, andererseits birgt KI-basierte (Teil-)Automatisierung in vielen Branchen die Gefahr großer Stellenstreichungen. Die Ankündigung der BILD-Zeitung, wegen ChatGPT Personal abzubauen, ist wahrscheinlich nur ein Vorbote. Manche Schätzungen gehen sogar davon aus, dass bis zu 80 Prozent der Arbeitsplätze in den kommenden Jahrzehnten automatisiert werden könnten. Die UN und andere Expert:innen halten das zwar für unrealistisch, doch es zeigt auch: Wir wissen nicht, wohin die Reise wirklich gehen wird. Das liegt auch daran, dass Branchen zu unterschiedlich, Berufsprofile mehrdimensional und Menschen (noch) nicht ohne Weiteres ersetzbar sind. Nur weil ein KI-System einen Arbeitsprozess automatisiert, kann es nicht gleich ein komplettes Jobprofil übernehmen. KI-Forscher:innen stimmen dem noch zu: In einer großangelegten Befragung von mehr als 2.700 Forscher:innen äußerten nur zehn Prozent die Erwartung, dass KI uns bis 2027 in allen Aufgaben überlegen sein könnte. Doch die Hälfte der Befragten glaubt auch, dass dieser technologische Durchbruch bis 2047 erreicht werden könnte. Klar ist nur: In Zukunft werden menschliche Arbeitskräfte überall mit KI zusammenarbeiten.

Nur mangelndes Wissen? Woher die Skepsis gegenüber KI kommt

KI läuft Gefahr zu einem gesellschaftlichen Spaltungsthema zu werden, wenn wir sie nicht sozialverträglich in unsere Arbeitswelt einbetten. Wie sorgen wir dafür, dass das gelingt? Die meisten Studien deuten in die gleiche Richtung: Bildung ist ein wichtiger Schlüssel, um Verständnis für die (rechtlich zulässigen) Fähigkeiten von KI zu schaffen, fundierte Entscheidungen über und mit KI zu treffen und Ängste vor der Technologie abzubauen. Das bestätigt auch unsere Umfrage: Obwohl sie KI bereits häufiger nutzen, haben Führungskräfte den Wunsch nach mehr Wissen; ebenso wie 53 Prozent der Befragten, die gerne mehr KI in ihrer beruflichen Umgebung einsetzen würden. Doch grundlegendes Wissen über die Technologie und ihren verantwortungsvollen Einsatz reicht nicht.

Viele Menschen wollen auch mehr über die Risiken von KI wissen und suchen nach Wegen, sich selbst zu befähigen. Die Aussagen aus dem qualitativen Teil unserer Studie unterstreichen das. Eine Person fordert zum Beispiel, dass der “Umgang mit KI […] allen Altersgruppen verständlich gemacht werden [sollte, damit] keine Wissenskluft entsteht.” Risikobestimmung ist für viele ein kritischer Punkt, wie aus dem Zitat hervorgeht: “Menschen wollen am ehesten mehr zu Risiken von KI wissen – am wenigsten wollen sie wissen, wie KI funktioniert.” Ein hohes Risikobewusstsein attestiert auch die KIRA-Studie. Passend dazu fanden wir in Bezug auf KI-Anwendungen heraus, dass den Befragten hohe Sicherheit am wichtigsten ist. Am wenigsten wichtig ist ihnen schnelle Verfügbarkeit. Interessant ist allerdings: Führungskräfte schätzen “Hohe Sicherheit” etwas niedriger und “Schnelle Verfügbarkeit” etwas höher ein als Angestellte.

Neben den unmittelbaren Risiken durch KI (wie Diskriminierung) sorgen sich Menschen auch aus anderen Gründen, zum Beispiel weil sie Abhängigkeit und Kontrollverlust befürchten, sich überfordert fühlen oder Angst vor Missbrauch und Manipulation haben. Insbesondere die Angst vor möglicher Überwachung durch KI ist prominent: 62 Prozent unserer Befragten und 54 Prozent der Teilnehmer:innen der KIRA-Studie stimmen dem zu. Ähnlich verhält es sich beim Thema Desinformation, das 51 Prozent unserer Befragten und 56 Prozent der KIRA-Studienteilnehmer:innen als mit KI verbunden betrachten. Interessanterweise denken jedoch 59 Prozent unserer Befragten nicht, dass KI die Menschheit bedroht, während 58 Prozent der KIRA-Studienteilnehmer:innen deshalb besorgt sind.

Wer sind die KI-Skeptiker:innen?

Wen die vielen Zahlen und Studien etwas ratlos zurücklassen, der oder die ist nicht allein. Es zeichnet sich kein klares Bild ab. Noch weniger lässt sich ableiten, wie man im Einzelnen vorgehen sollte, um mit KI-Skeptiker:innen umzugehen. Die Diskrepanzen in den Antworten spiegeln die Vielschichtigkeit der Wahrnehmung von KI und ihrer Auswirkungen auf den Arbeitsmarkt wider. Die verschiedenen Perspektiven und Herausforderungen unterstreichen die Notwendigkeit eines umfassenden Dialogs und einer partizipativen Gestaltung der Zukunft im Zeitalter der Künstlichen Intelligenz. Doch mit wem müssen wir wie sprechen?

Eine in der MIT Sloan Management Review veröffentlichten Umfrage unter 140 Führungskräften identifiziert drei Idealtypen von KI-basiertem Entscheidern: Skeptiker, Interagierer und Delegierer. Skeptiker sind nicht bereit, ihre Autonomie im Entscheidungsprozess an KI abzugeben, während Delegierer gerne die Verantwortung der KI überlassen. Intergrierer gehen einen Mittelweg, der je nach Entscheidung eher in die eine oder eher in die andere Richtung tendieren kann. Die drei Typen der Entscheidungsfindung zeigen, dass die Qualität der KI-Empfehlung selbst nur die Hälfte der Gleichung ist bei der Bewertung KI-gestützter Entscheidungsfindung in Organisationen. Der menschliche Filter macht den Unterschied aus, sagen die Autoren Philip Meissner and Christoph Keding. Delegierer sind auch ohne KI eher diejenigen, die Verantwortung an andere übergeben.

Eine EY-Studie kommt zu dem Ergebnis, dass Tech-Skeptiker:innen älter sind und ein geringeres Einkommen haben. Sie sind relativ unzufrieden mit ihrem Leben und befürchten, dass es künftigen Generationen noch schlechter gehen wird. Nur wenige glauben, dass die jungen Menschen von heute ein besseres Leben haben werden als ihre Eltern. Tech-Skeptiker:innen sind besorgt um ihre finanzielle Sicherheit, misstrauen der Regierung und sind nicht von den Vorteilen der Technologie überzeugt. Sie nutzen die Technologie für grundlegende Aufgaben, glauben aber nicht, dass sie die Probleme der Gesellschaft lösen wird. Sie verfügen zwar über grundlegende digitale Fähigkeiten, aber nur wenige sehen einen Sinn darin, diese weiterzuentwickeln. Tech-Skeptiker:innen sind in der Regel gegen die gemeinsame Nutzung von Daten, selbst wenn es einen klaren Zweck gibt.

Daraus können wir auch ableiten: Skepsis ist ein zutiefst menschliches, oft charakterliches Merkmal, das nicht unbedingt für vernunftlogische Argumente zugänglich ist. Ein Eckpfeiler aller Bemühungen muss deshalb transparente, verständnisvolle Kommunikation auf Augenhöhe sein, die das ernst nimmt. Eine Forrester-Umfrage zum Thema KI im Personalwesen identifizierte vier Personengruppen, auf die Führungskräfte ihre Kommunikation abstimmen sollten:

  • KI-Skeptiker:innen: am häufigsten in der IT-Branche anzutreffen
  • KI-Befürworter:innen: am ehesten im Alter von 26 bis 35 Jahren und im Gesundheitssektor
  • KI-Indifferente: am ehesten im Alter von 36-45 Jahren
  • KI-Enthusiast:innen: am ehesten 18-25 Jahre alt und arbeiten im Vertrieb

Unabhängig davon, wie zutreffend diese Einteilung für die deutsche Gesellschaft ist, kann die Erstellung von Personas sinnvoll sein, um passende Botschaften zu entwickeln. Jede dieser Gruppen reagiert unterschiedlich auf verschiedene Arten der Kommunikation. So sagt etwa die Hälfte der KI-Befürworter:innen, dass Transparenz in Bezug auf die Frage, ob durch KI Arbeitsplätze im eigenen Unternehmen wegfallen werden oder nicht, ihre Bedenken und Ängste in Bezug auf KI im Personalwesen verringern würde. Nur 18 Prozent derjenigen, die der KI gleichgültig gegenüberstehen, sehen das genauso. Während mehr als die Hälfte der KI-Skeptiker:innen angaben, dass die Kommunikation darüber, wie das Unternehmen KI einsetzt, ihre Bedenken und Ängste lindern würde, sind nur 22 Prozent der KI-Befürworter:innen dieser Meinung. 45 Prozent der vorsichtigen Befürworter:innen und Skeptiker:innen gab an, dass sie das Unternehmen eher verlassen würden, wenn ihre Bedenken über den Einsatz von KI in der Personalabteilung nicht ausgeräumt würden.

Wie schaffen wir KI-Zuversicht?

Was können wir daraus für den Umgang mit KI-Skepsis lernen? Wir befinden uns immer noch an der Spitze des Eisbergs, wenn es um die Nutzung von KI geht. Während Unternehmen ihre KI-Infrastruktur weiter ausbauen, müssen sie auch sicherstellen, dass sich ihre Mitarbeitenden befähigt fühlen, KI in ihren jeweiligen Rollen zu nutzen. Mit anderen Worten: Die Unternehmensführung muss deutlich zeigen, dass sie ihre Mitarbeitenden als Partner:innen und nicht nur als Passagier:innen auf der KI-Reise sieht.

Unsere Einschätzung: Es bedarf der Entwicklung robusterer Richtlinien für verantwortungsvolle KI in Unternehmen und Teams, um Sorgen in Zuversicht umzuwandeln und dem ungewollten Abfluss von Betriebsgeheimnissen oder anderer schutzwürdiger Daten entgegenzuwirken. Dazu gehört maximale Transparenz über den (geplanten) Einsatz von KI. Die Realität ist, dass die meisten Mitarbeiter:innen nicht wirklich verstehen, wie KI funktioniert – viele Entscheidungsträger:innen aber glauben, dass sie es wissen. Upskilling hilft, diese Kluft zu überbrücken. Die gezielte Qualifizierung von Arbeitnehmer:innen fördert einen sicheren und produktiven Einsatz. Wenn Mitarbeiter:innen darüber hinaus auch verstehen – weil es ihnen nachvollziehbar gezeigt wird – wie die Technologie ihr Arbeitsleben verbessern kann, erhöht das ihre Bereitschaft, mitzuziehen. Denn der Großteil von ihnen hofft schon, dass KI ihnen den Zugang zu Informationen erleichtern und ihre Produktivität steigern wird. Und auch diejenigen, die skeptisch sind, sind rationalen Argumenten gegenüber meist aufgeschlossen. Entscheidend ist, wie man sie anspricht. Statt Verständnis und Bereitschaft vorauszusetzen, kann es sich lohnen, sie auf individueller Ebene abzuholen: “Wenn du eine große finanzielle Entscheidung treffen musst, hörst du dann einzig auf dein Bauchgefühl oder versuchst so viele Daten und Informationen wie möglich zu sammeln?” Es muss klar werden, dass es bei (fast allen typischen) KI-Systemen um Technologien geht, die Menschen dienen dazu sollen, bessere, evidenzbasierte Entscheidungen zu treffen – und nicht um irgendeine Roboterdystopie, in der der Mensch zum Mittel wird.

Dafür ist zielgruppengerechte interne Kommunikation wichtig. Unternehmen in denen vornehmlich Tech- und KI-Enthusiasten arbeiten, sind möglicherweise gut beraten, KI als neuen, revolutionären Trend an ihre Mitarbeiter:innen zu kommunizieren. Wenn diese Zielgruppe Wert darauf legt, dass ihr Arbeitgeber modern und hightech ist, sollte sich das auch in der Kommunikation widerspiegeln. Andere Unternehmen, in denen weniger Enthusiasmus und vielleicht stärker konservative, vorsichtige Denkweise herrschen, fahren wahrscheinlich besser damit, KI intern als kontinuierlich Weiterentwicklung und Verbesserung bestehender, bekannter Technologien zu kommunizieren. Möglicherweise sollten sie sogar ganz darauf verzichten, das Label KI zu nutzen und neue Systeme eher an vertraute Namen und Beschreibungen anlehnen. Welche kommunikativen Strategien in welchem Unternehmen (und in welchen Abteilungen) gut funktionieren, lässt sich pauschal nicht sagen. Die oben vorgestellten Personas und ihre Gründe für KI-Skepsis geben jedoch gute Hinweise darauf, wie man interne Stimmungen einfangen und darauf eine passende Kommunikationsstrategie ausrichten kann.

Über die Arbeitsgruppe AI & Society

Als Arbeitsgruppe mit Einblicken in den aktuellen Forschungsstand führen wir gemeinsam mit Expert:innen aus Wirtschaft, Gesellschaft und Forschung die Diskussion. Unsere Arbeitsgruppe ist nicht nur auf die Analyse beschränkt, sondern handelt auch aktiv. „KI Macht Schule“ und der Girls Day sind nur einige Beispiele unserer Bemühungen, die Gesellschaft in den Dialog einzubeziehen und KI erlebbar zu machen. Die Entwicklung von Responsible-AI-Prinzipien und Workshops sind weitere Maßnahmen, um Innovation verantwortungsvoll voranzutreiben.

Alle Ergebnisse auf einen Blick

 

Quellen

https://arxiv.org/pdf/2401.02843.pdf

https://blog.workday.com/en-us/2023/how-employees-feel-ai-at-work.html

https://www.elektroniknet.de/halbleiter/wer-hat-angst-vor-ki.207613.html

https://www.ey.com/en_gl/government-public-sector/meet-the-tech-skeptics

https://www.faz.net/aktuell/politik/inland/allensbach-warum-deutsche-die-ki-fuerchten-19060081.html

https://www.forbes.com/sites/joemckendrick/2021/10/18/skepticism-abounds-for-artificial-intelligence-in-high-level-decisions/

https://www.ifd-allensbach.de/fileadmin/kurzberichte_dokumentationen/FAZ_Juli2023_KuenstlicheIntelligenz.pdf

https://www.spiegel.de/karriere/homeoffice-viertagewoche-lebensarbeitszeit-welche-themen-beschaeftigte-2024-beschaeftigen-wird-a-7b7d1965-b75d-4a31-b094-dd850f4d04b9?giftToken=0f080248-2ed4-4439-899d-5e4881f21534&sara_ref=re-so-app-sh

https://static1.squarespace.com/static/6426ad829db93559a3ed812e/t/64388f3a82787c5ebb290743/1681428318566/KIRA_Report_2023-4.pdf

https://t3n.de/news/ki-prognosen-automatisierung-arbeit-1601598/

https://www.un.org/en/desa/will-robots-and-ai-cause-mass-unemployment-not-necessarily-they-do-bring-other

  Tarik Ashry

Geschäftserfolg steht und fällt mit der Art und Weise, wie Unternehmen mit ihren Kund:innen interagieren. Kein Unternehmen kann es sich leisten, mangelhafte Betreuung und Support anzubieten. Im Gegenteil: Firmen, die eine schnelle und präzise Bearbeitung von Kundenanfragen anbieten, können sich vom Wettbewerb absetzen, Vertrauen in die eigene Marke aufbauen und so Menschen langfristig an sich binden. Wie das mithilfe von generativer KI auf einem ganz neuen Niveau gelingt, zeigt unsere Zusammenarbeit mit Geberit, einem führenden Hersteller von Sanitärtechnik in Europa.

Was ist generative KI?

Generative KI-Modelle erstellen automatisiert Inhalte aus vorhandenen Text-, Bild- und Audiodateien. Dank intelligenter Algorithmen und Deep Learning unterscheiden sich diese Inhalte kaum oder gar nicht von menschengemachten. Unternehmen können ihren Kund:innen so personalisierte User Experiences bieten, automatisiert mit ihnen interagieren und relevanten digitalen Content zielgruppengerecht erstellen und ausspielen. GenAI kann zudem komplexe Aufgaben lösen, indem die Technologie riesige Datenmengen verarbeitet, Muster erkennt und neue Fähigkeiten lernt. So ermöglicht die Technologie ungeahnte Produktivitätsgewinne. Routineaufgaben wie Datenaufbereitung, Berichterstellung und Datenbanksuchen lassen sich automatisieren und mit passenden Modellen um ein Vielfaches optimieren.
Weitere Informationen zum Thema GenAI finden Sie hier.

Die Herausforderung: Eine Million E-Mails

Geberit sah sich mit einem Problem konfrontiert: Jedes Jahr landeten eine Million E-Mails in den unterschiedlichen Postfächern des Kundenservice der deutschen Vertriebsgesellschaft von Geberit. Dabei kam es oft vor, dass Anfragen in den falschen Abteilungen landeten, was zu einem erheblichen Mehraufwand führte.

Die Lösung: Ein KI-gestützter E-Mail-Bot

Um die falsche Adressierung zu korrigieren, haben wir ein KI-System entwickelt, das E-Mails automatisch den richtigen Abteilungen zuordnet. Dieses intelligente Klassifikationssystem wurde mit einem Datensatz von anonymisierten Kundenanfragen trainiert und nutzt fortschrittliche Machine- und Deep-Learning-Methoden, darunter das BERT-Modell von Google.

Der Clou: Automatisierte Antwortvorschläge mit ChatGPT

Doch die Innovation hörte hier nicht auf. Das System wurde weiterentwickelt, um automatisierte Antwort-E-Mails zu generieren. Hierbei kommt ChatGPT zum Einsatz, um kundenspezifische Vorschläge zu erstellen. Die Kundenberater:innen müssen die generierten E-Mails nur noch prüfen und können sie direkt versenden.

Das Ergebnis: 70 Prozent bessere Sortierung

Das Ergebnis dieser bahnbrechenden Lösung spricht für sich: eine Reduzierung der falsch zugeordneten E-Mails um über 70 Prozent. Das bedeutet nicht nur eine erhebliche Zeitersparnis von fast drei ganzen Arbeitsmonaten, sondern auch eine Optimierung der Ressourcen.
Der Erfolg des Projekts schlägt hohe Wellen bei Geberit: Ein Sammelpostfach für alle Anfragen, die Ausweitung in andere Ländermärkte und sogar ein digitaler Assistent sind in Planung.

Kundenservice 2.0 – Innovation, Effizienz, Zufriedenheit

Die Einführung von GenAI hat nicht nur den Kundenservice von Geberit revolutioniert, sondern zeigt auch, welches Potenzial in der gezielten Anwendung von KI-Technologien liegt. Die intelligente Klassifizierung von Anfragen und die automatisierte Antwortgenerierung spart nicht nur Ressourcen, sondern steigert auch die Zufriedenheit der Kund:innen. Ein wegweisendes Beispiel dafür, wie KI die Zukunft des Kundenservice gestaltet. Egal in welcher Branche!

Lesen Sie in der Case Study, wie genau Geberit und statworx das Projekt technisch umgesetzt und so GenAI gewinnbringend integriert haben. 

 

Read next …

3 Anwendungsfälle, wie ChatGPT die Kommunikation in Unternehmen revolutionieren wird
Unser KI-basierter Weihnachtsrezept-Generator (GPT-3 und DALL-E 2)

… and explore new

Warum Frontend-Entwicklung in Data Science-Anwendungen nützlich ist
Use Case Collection: Green AI

Tarik Ashry

Geschäftserfolg steht und fällt mit der Art und Weise, wie Unternehmen mit ihren Kund:innen interagieren. Kein Unternehmen kann es sich leisten, mangelhafte Betreuung und Support anzubieten. Im Gegenteil: Firmen, die eine schnelle und präzise Bearbeitung von Kundenanfragen anbieten, können sich vom Wettbewerb absetzen, Vertrauen in die eigene Marke aufbauen und so Menschen langfristig an sich binden. Wie das mithilfe von generativer KI auf einem ganz neuen Niveau gelingt, zeigt unsere Zusammenarbeit mit Geberit, einem führenden Hersteller von Sanitärtechnik in Europa.

Was ist generative KI?

Generative KI-Modelle erstellen automatisiert Inhalte aus vorhandenen Text-, Bild- und Audiodateien. Dank intelligenter Algorithmen und Deep Learning unterscheiden sich diese Inhalte kaum oder gar nicht von menschengemachten. Unternehmen können ihren Kund:innen so personalisierte User Experiences bieten, automatisiert mit ihnen interagieren und relevanten digitalen Content zielgruppengerecht erstellen und ausspielen. GenAI kann zudem komplexe Aufgaben lösen, indem die Technologie riesige Datenmengen verarbeitet, Muster erkennt und neue Fähigkeiten lernt. So ermöglicht die Technologie ungeahnte Produktivitätsgewinne. Routineaufgaben wie Datenaufbereitung, Berichterstellung und Datenbanksuchen lassen sich automatisieren und mit passenden Modellen um ein Vielfaches optimieren.
Weitere Informationen zum Thema GenAI finden Sie hier.

Die Herausforderung: Eine Million E-Mails

Geberit sah sich mit einem Problem konfrontiert: Jedes Jahr landeten eine Million E-Mails in den unterschiedlichen Postfächern des Kundenservice der deutschen Vertriebsgesellschaft von Geberit. Dabei kam es oft vor, dass Anfragen in den falschen Abteilungen landeten, was zu einem erheblichen Mehraufwand führte.

Die Lösung: Ein KI-gestützter E-Mail-Bot

Um die falsche Adressierung zu korrigieren, haben wir ein KI-System entwickelt, das E-Mails automatisch den richtigen Abteilungen zuordnet. Dieses intelligente Klassifikationssystem wurde mit einem Datensatz von anonymisierten Kundenanfragen trainiert und nutzt fortschrittliche Machine- und Deep-Learning-Methoden, darunter das BERT-Modell von Google.

Der Clou: Automatisierte Antwortvorschläge mit ChatGPT

Doch die Innovation hörte hier nicht auf. Das System wurde weiterentwickelt, um automatisierte Antwort-E-Mails zu generieren. Hierbei kommt ChatGPT zum Einsatz, um kundenspezifische Vorschläge zu erstellen. Die Kundenberater:innen müssen die generierten E-Mails nur noch prüfen und können sie direkt versenden.

Das Ergebnis: 70 Prozent bessere Sortierung

Das Ergebnis dieser bahnbrechenden Lösung spricht für sich: eine Reduzierung der falsch zugeordneten E-Mails um über 70 Prozent. Das bedeutet nicht nur eine erhebliche Zeitersparnis von fast drei ganzen Arbeitsmonaten, sondern auch eine Optimierung der Ressourcen.
Der Erfolg des Projekts schlägt hohe Wellen bei Geberit: Ein Sammelpostfach für alle Anfragen, die Ausweitung in andere Ländermärkte und sogar ein digitaler Assistent sind in Planung.

Kundenservice 2.0 – Innovation, Effizienz, Zufriedenheit

Die Einführung von GenAI hat nicht nur den Kundenservice von Geberit revolutioniert, sondern zeigt auch, welches Potenzial in der gezielten Anwendung von KI-Technologien liegt. Die intelligente Klassifizierung von Anfragen und die automatisierte Antwortgenerierung spart nicht nur Ressourcen, sondern steigert auch die Zufriedenheit der Kund:innen. Ein wegweisendes Beispiel dafür, wie KI die Zukunft des Kundenservice gestaltet. Egal in welcher Branche!

Lesen Sie in der Case Study, wie genau Geberit und statworx das Projekt technisch umgesetzt und so GenAI gewinnbringend integriert haben. 

 

Read next …

3 Anwendungsfälle, wie ChatGPT die Kommunikation in Unternehmen revolutionieren wird
Unser KI-basierter Weihnachtsrezept-Generator (GPT-3 und DALL-E 2)

… and explore new

Warum Frontend-Entwicklung in Data Science-Anwendungen nützlich ist
Use Case Collection: Green AI

Tarik Ashry