de
                    array(2) {
  ["de"]=>
  array(13) {
    ["code"]=>
    string(2) "de"
    ["id"]=>
    string(1) "3"
    ["native_name"]=>
    string(7) "Deutsch"
    ["major"]=>
    string(1) "1"
    ["active"]=>
    string(1) "1"
    ["default_locale"]=>
    string(5) "de_DE"
    ["encode_url"]=>
    string(1) "0"
    ["tag"]=>
    string(2) "de"
    ["missing"]=>
    int(0)
    ["translated_name"]=>
    string(7) "Deutsch"
    ["url"]=>
    string(53) "https://www.statworx.com/content-hub/blog/tag/gen-ai/"
    ["country_flag_url"]=>
    string(87) "https://www.statworx.com/wp-content/plugins/sitepress-multilingual-cms/res/flags/de.png"
    ["language_code"]=>
    string(2) "de"
  }
  ["en"]=>
  array(13) {
    ["code"]=>
    string(2) "en"
    ["id"]=>
    string(1) "1"
    ["native_name"]=>
    string(7) "English"
    ["major"]=>
    string(1) "1"
    ["active"]=>
    int(0)
    ["default_locale"]=>
    string(5) "en_US"
    ["encode_url"]=>
    string(1) "0"
    ["tag"]=>
    string(2) "en"
    ["missing"]=>
    int(0)
    ["translated_name"]=>
    string(8) "Englisch"
    ["url"]=>
    string(59) "https://www.statworx.com/en/content-hub/blog/tag/gen-ai-en/"
    ["country_flag_url"]=>
    string(87) "https://www.statworx.com/wp-content/plugins/sitepress-multilingual-cms/res/flags/en.png"
    ["language_code"]=>
    string(2) "en"
  }
}
                    
Kontakt

2024 war ein aufregendes Jahr für die Künstliche Intelligenz. Nun steuern wir auf den Endspurt zu – höchste Zeit für eine Bestandsaufnahme.

Anfang des Jahres veröffentlichten wir unseren AI Trends Report 2024, in dem wir 12 steile Thesen formulierten, wie sich die KI-Landschaft 2024 entwickeln wird. In diesem Blogbeitrag werfen wir einen Blick darauf, wie sich unsere Prognosen bewährt haben. Dazu stellt Fabian Müller, COO von statworx, einige unserer Vorhersagen auf den Prüfstand.

Die Evolution der Datenkultur: Ein Wettbewerbsvorteil?

Unsere erste Prognose betraf die Verankerung von KI-Kompetenz und Datenkultur in Unternehmen. Fabian sagt zurecht: „Das ist ein No-Brainer. Unternehmen, die eine starke Datenkultur etabliert haben, verzeichnen überproportionale Fortschritte in der Nutzung von KI. Datenkultur wirkt wie Booster für den Fortschritt von KI.“

Der EU AI Act wird insbesondere durch Artikel 4 in naher Zukunft dazu beitragen, dass Unternehmen strukturiertes Wissen in bestimmten Rollen aufbauen werden. Der Wettbewerbsvorteil für Unternehmen, die Expertise und Kultur vereinen, ist also real und messbar. Das erfuhren wir auch auf unserem statworx Client Day aus erster Hand von unseren Kunden. Wer mehr zum Thema Data Culture wissen möchte, sollte unser Whitepaper zum Thema Data Culture lesen.

Die 4-Tage-Arbeitswoche: Ein Traum oder bald Realität?

Ein heiß diskutiertes Thema ist und bleibt die 4-Tage-Arbeitswoche, ermöglicht durch KI-Automatisierung. Fabian stellt klar, dass diese Entwicklung (noch) nicht primär durch KI vorangetrieben wird, sondern vor allem eine gesellschaftliche Diskussion ist: „KI kann zwar Effizienzsteigerungen ermöglichen, aber viel weiter ist generative KI noch nicht. Aktuell können wir spezifische Aufgaben automatisieren, aber um Arbeitszeit in großem Stil zu reduzieren, müsste KI ein ganzes Spektrum an Aufgaben übernehmen.“ Das ist auch der Grund, warum die Diskussion aktuell vor allem von der jüngeren Generation, die vornehmlich in der digitalen Arbeitswelt zuhause ist, geführt wird. Es bleibt abzuwarten, wann KI-Automatisierung auch darüber hinaus Arbeitszeitverkürzungen tatsächlich ermöglichen kann – und wie wir als Gesellschaft darüber entscheiden. Denn solche Veränderungen erfordern vor allem entsprechende politische Mehrheiten.

Auf dem Weg zur AGI: Omnimodale Modelle im Fokus

Die Vision einer Artificial General Intelligence (zu Deutsch: allgemeinen Künstlichen Intelligenz, abgekürzt AGI) scheint durch die Entwicklung von omnimodalen Modellen wie GPT-4o näher zu rücken. Die beeindruckenden Fortschritte von Claude 3.5 und dem Open-Source-Modell (bzw. Open-Weight) Llama 3.1 zeigen, dass die Entwicklung in Richtung AGI voranschreitet. Doch wie groß die nächsten Schritte werden, hängt für Fabian maßgeblich vom Zusammenspiel zweier miteinander zusammenhängender Faktoren ab: der Modellarchitektur und der Fähigkeit, KI-Systemen einen Körper bzw. eine physische Repräsentanz zu geben, das sogenannte Embodiment.

Was die Modellarchitektur betrifft, liegt der Schlüssel für Fabian in der Kombination von Symbolic AI und Connectionism (Deep Learning). Symbolic AI basiert auf expliziten logischen Regeln und Symbolen, die menschliche Wissensdarstellungen nachahmen. Denn auch wir Menschen kommen nicht ohne Vorwissen auf die Welt – wie Kahnemans Systeme 1 und 2 verdeutlichen. Symbolic AI war in den frühen Tagen der KI-Forschung populär. Immer wichtiger wird aber Deep Learning. Es setzt auf neuronale Netzwerke, die große Mengen an Daten verarbeiten und selbstständig Muster erkennen können. Es basiert auf der Annahme, dass Intelligenz durch die Kombination von Daten und Rechenleitung vollumfänglich erreicht werden kann.

Wenn es gelingt, diese beiden Architekturen sinnvoll zu verbinden, und ein solches KI-Modell in physische oder virtuelle Umgebungen einzubetten (Embodiment), können wir AGI tatsächlich bedeutend näherkommen, denkt Fabian. Denn das Gelingen von AGI beruht maßgeblich auf der These aus der neueren Kognitionswissenschaft, dass Bewusstsein einen Körper benötigt, also eine physische Interaktion voraussetzt.

Omnimodalität bezieht sich auf die Fähigkeit von KI-Modellen, mehrere Modalitäten – wie Text, Bild, Video und Audio – gleichzeitig zu verarbeiten und zu verstehen. Ein Beispiel dafür ist GPT-4o Vision, das sowohl Text als auch Bilddaten verarbeiten kann.

Embodiment hingegen bedeutet, dass KI-Modelle in einer physischen oder virtuellen Umgebung agieren und mit dieser interagieren können. Ein gutes Beispiel wäre ein Roboter, der nicht nur Sprache versteht, sondern auch physische Aufgaben ausführt.

Generative AI: Revolution in der Medienproduktion

Generative AI ist bereits dabei, die Medienproduktion zu revolutionieren. Ein beeindruckendes Beispiel lieferte Toys’R’Us, das mit OpenAIs Sora einen kompletten Werbespot produzierte. Links und rechts davon sprießen immer mehr generative KI-Tools aus dem Boden, wie zum Beispiel Lunar AI für Contenterstellung und DreamStudio für Bildgenerierung. Für den Film Civil War erstellte ein Marketingteam erstmals alle Filmplakate mit generativer KI – ein Vorbote für die ganze Filmbranche?

Was wir aktuell wissen, gibt noch keinen Anlass zur Annahme, dass wir demnächst den ersten komplett KI-generiert Film erwarten dürfen. Sora ist bisher nur eingeschränkt verfügbar und es ist unklar, wie weit fortgeschritten das Tool in seiner Entwicklung wirklich ist und wie viel manuelle Arbeit noch erforderlich ist. Doch für Fabian zeigt der Trend klar in eine Richtung: Obwohl KI derzeit noch wechselhafte Vorschläge macht, die vom Menschen nachbearbeitet werden müssen, wird sie in Zukunft zunehmend in der Lage sein, Inhalte automatisiert und mit höherer Qualität zu erstellen.

NVIDIA vs. Herausforderer: Ein ungleicher Kampf?

„Der Markt für GPUs bleibt spannend, doch NVIDIAs Dominanz ist weiterhin ungebrochen, das zeigt auch der Aktienkurs“, sagt Fabian. „Trotz Fortschritten von etablierten Unternehmen wie AMD und Start-ups wie Cerebras und Groq bleiben NVIDIAs Hardware und das damit verbundene Softwarestack und Ökosystem überlegen.“

Hinzu kommt, dass das Geschäftsmodell Chipentwicklung hohe Kapitalinvestitionen erfordert, was eine große Einstiegshürde für neue Akteure darstellt. Für die etablierten Konkurrenten sieht es nicht viel besser aus: Sie kämpfen damit, dass nahezu alle KI-Modelle auf NVIDIA-Hardware und NIVIDAs CUDA-Plattform entwickelt werden. Diese Modelle auf eine andere Hardware zu übertragen, ist technisch herausfordernd und zeitaufwändig.

CUDA (Compute Unified Device Architecture) ist eine Plattform für parallele Berechnungen und ein Programmiermodell bzw. Software-Framework, das von NVIDIA für allgemeine Berechnungen auf Grafikprozessoren (GPUs) entwickelt wurde.

SML vs. LLM – oder ganz weg von Transformern?

Leistungsfähige und kosteneffiziente kleine Sprachmodelle (Small Language Models, SLMs) wie Phi-3-mini (3.8B Tokens) laufen ihren großen Geschwistern in einigen Disziplinen schon den Rang ab. Das zeigt: Kleinere Modelle mit hochwertigen Daten können sehr erfolgreich sein. Trotzdem werden parallel dazu Modelle mit immer größeren Datenmengen gefüttert, wie z. B. Llama 3.1, das mit 405 Milliarden Parametern und 16,5 Billionen Tokens trainiert wurde.

Als Open-Source-Modell übertrifft Llama 3.1 in einigen Anwendungen sogar GPT-4, was wiederum zeigt: Der Abstand zwischen Open-Source- und proprietären Modellen ist derzeit so klein wie nie zuvor. Für Fabian liegt die Zukunft der Sprachmodelle deshalb in einer Kombination aus Qualität und Quantität. Denn, obwohl die Datenmenge sehr wichtig ist, liegt ein immer größeres Augenmerk auf der Datenbereinigung und -aufbereitung.

Denkbar ist aber auch, dass die Transformer-Technologie Modellarchitekturen ergänzt. Hier gibt es neue Lösungsansätze wie z. B. xLSTM, Scalable MatMul-free Language Modeling und Mamba. Diese Ansätze befinden sich jedoch noch in frühen Forschungsstadien. In welche Richtung es weitergeht, wird auch maßgeblich von der Frage abhängen: Wie gut wird GPT-5?

AI Act: Mehr Herausforderung als Chance

Aktuell ist es unklar, ob sich die Vorteile durch den AI Act wirklich einstellen. Aus ethischer Sicht sind die Vorteile für Verbraucher zu begrüßen. Der Schutz von Grundrechten sollte stets an oberster Stelle stehen. Aber ob sich die potenziellen Vorteile des AI Act auch für Unternehmen einstellen, muss die Zukunft zeigen. Denn derzeit sorgt das Gesetz eher für Unsicherheit: „Alle wissen, dass sie handeln müssen, aber kaum einer weiß genau wie“, sagt Fabian. „Das sehen wir auch bei unseren Kunden, mit denen wir aktuell daran arbeiten, Governance-Strukturen aufzubauen.”

In puncto Investitionen und Start-ups ist die Lage etwas klarer, weil sich der AI Act hier eher als hinderlich erweist. Europäische Start-ups haben Schwierigkeiten mit dem komplexen Gesetz, das je nach Risikostufe (von Spamfiltern über Chatbots bis Stellenvermittlung) unterschiedliche Anforderungen stellt und einige Anwendungsfälle verbietet. Die umfangreichen Definitionen könnten dazu führen, dass mehr als die geschätzten 5-15 % der Systeme als hochriskant eingestuft werden, was kleine Unternehmen vor erhebliche Kosten stellt.

Ironischerweise warnt nun sogar der Architekt des Vorschlags der Europäischen Kommission, Gabriele Mazzini, dass das Gesetz zu weit gefasst sein könnte und Unternehmen in Europa möglicherweise nicht genug Rechtssicherheit bietet. Aus unserer Sicht muss die EU deshalb die Investitionslücke zu den globalen Konkurrenten schließen und sicherstellen, dass die Regulierung Innovationen nicht behindert. Nur dann kann der AI Act das Vertrauen in europäische KI-Technologien stärken und als Qualitätsmerkmal fungieren.

KI-Agenten revolutionieren den Alltag…noch nicht

Was vor einem Jahr als Technologie noch unter dem Radar flog, feiert nun ein Comeback in neuer Qualität und Sichtbarkeit. Getrieben von den Fortschritten immer leistungsstärkerer LLMs entwickelt sich auch die Technologie für fortschrittliche persönliche Assistenz-Bots rasch weiter. Noch sind die Agents allerdings nicht so weit, dass sie zu einem wesentlichen Bestandteil des Arbeitsalltags geworden sind, konstatiert Fabian. Doch der Trend geht in die Richtung: Wir bei statworx nutzen KI-Assistenten intern und setzen auch für Kunden die ersten Projekte in dem Bereich um. Diese Systeme werden in den kommenden Jahren eine sehr große Rolle spielen.

Wenig überraschend erkennen auch immer mehr Start-ups die Chancen, die sich hier eröffnen, und dringen in den Markt ein. Und auch Sprachmodelle werden bereits explizit für den Umgang mit Tools trainiert, allen voran Llama 3.1. Sein Nachfolger Llama 4 soll noch stärker dafür optimiert sein. Doch der genaue Zeitrahmen und das Ausmaß der Entwicklung hin zu wirklich leistungsfähigen Agenten und Systemen von Agenten hängen von weiteren technologischen Fortschritten, regulatorischen Rahmenbedingungen und der gesellschaftlichen Akzeptanz ab.

Können wir ein Zwischenfazit ziehen? Jein…

Unser AI Trends Report zeigt, dass wir ein gutes Gespür für die bedeutenden Themen und Fragen hatten, die uns alle dieses Jahr beschäftigen würden. Wie gut unsere Prognosen waren, müssen wir an dieser Stelle offenlassen. Fabians häufigste Antwort auf die Frage „Stimmt diese These?” lautete nämlich „Jein“ – gefolgt von einer vorsichtigen Abwägung. Klar ist nur: Die Dynamik der Branche ist hoch.

An den Börsen drängt sich immer stärker die Frage auf, ob der Hype schon vorbei und KI zu einer Blase angeschwollen ist. Expert:innen sind sich uneins, denn trotz der jüngsten Turbulenzen gilt KI als neue Basistechnologie, ähnlich wie das Internet Anfang der 2000er Jahre. Damals profitierten kluge Unternehmer, die gegen den Trend an der Börse an die Technologie glaubten. Diese Unternehmen – Amazon, Google, Facebook und Nvidia – gehören heute zu den wertvollsten der Welt. Wenn KI-Aktienkurse also fallen und nicht überall kurzfristige Erfolge eintreten, zeigt der Blick in die Vergangenheit, dass es für den Standort Europa gefährlich sein kann, voreilig das Ende des KI-Hypes auszurufen.

Wir bleiben deshalb weiter gespannt, welche Überraschungen die nächsten Monate noch für uns bereithalten und laden euch ein, mit uns zu diskutieren! Tarik Ashry

Epoche 4 – Ausblick: What’s Next?

Willkommen zum finalen Teil unserer Blogserie zur Geschichte der generativen Künstlichen Intelligenz! Bisher haben wir die Entwicklung von den ersten statistischen Modellen über neuronale Netze bis hin zu den modernen Anwendungen betrachtet. Doch was hält die Zukunft für uns bereit? In diesem letzten Teil werfen wir einen Blick auf die kommenden Herausforderungen und Möglichkeiten der generativen KI.

Interpolieren vs. Extrapolieren

Ein zentraler Punkt in der Weiterentwicklung von GenAI ist der Übergang von der Interpolation zur Extrapolation. Während heutige Modelle wie GPT-4o und DALL-E 3 beeindruckende Leistungen innerhalb des gelernten Datenraums (Interpolation) erbringen, steht die Fähigkeit zur Extrapolation – also das Erstellen von Inhalten außerhalb des gelernten Bereichs – noch am Anfang. Die nächste Generation von Modellen könnte darauf abzielen, diese Grenze zu überwinden und noch kreativere und vielseitigere Inhalte zu generieren. Ob und wie das geschieht, wird aktuell heiß diskutiert. Aktuell existieren noch keine klaren Konzepte, wie diese neue Generation von extrapolierenden Modellen aussehen kann.

Agenten

Ein weiterer spannender Bereich sind KI-Agenten. Diese intelligenten Systeme können autonom agieren, Entscheidungen treffen und Aufgaben ausführen, ohne dass menschliches Eingreifen erforderlich ist. Diese Fähigkeit unterscheidet sie von ChatGPT und anderen Chatbots, die “nur” auf Abfrage nützliche Antworten geben können. Solche Agenten könnten in der Zukunft komplexe Aufgaben in verschiedenen Bereichen wie Medizin, Finanzen oder Kundenservice übernehmen und dabei weit über die heutigen Fähigkeiten hinausgehen.

Ethische und rechtliche Fragen

Die zunehmende Verbreitung von GenAI bringt auch ethische und rechtliche Herausforderungen mit sich. Der Umgang mit Bias, also voreingenommenen oder diskriminierenden Ergebnissen, bleibt ein kritisches Thema. Darüber hinaus müssen ethische Standards und rechtliche Rahmenbedingungen für den Einsatz von Third-Party-GenAI und eigenen Modellen entwickelt werden, um Missbrauch und negative Auswirkungen zu minimieren. Besonders im Fokus stehen derzeit Intellectual Property Rights (Urheberrechte). Die Urteile in den Rechtsstreits zwischen Stability AI und Getty Images, OpenAI und der New York Times sowie im Fall Universal, Sony und Warner gegen Suno und Udo werden mit Spannung erwartet.

Vom Modell zum System

Eine wichtige Entwicklung ist der Übergang vom einzelnen Modell zum integrierten System. Was heißt das in der Praxis? Generative KI wird in komplexe Systeme eingebettet, die Sicherheitslücken schließen und die Zuverlässigkeit der Anwendungen erhöhen. Ein Beispiel dafür ist, dass ChatGPT nicht direkt Terminal-Befehle ausführt, sondern eine maßgeschneiderte API mit vordefiniertem Verhalten bedient. Diese Integration erlaubt es, die Vorteile der GenAI zu nutzen und gleichzeitig potenzielle Risiken zu minimieren.

Ausblick und Fazit

Die Zukunft der generativen Künstlichen Intelligenz ist sowohl vielversprechend als auch herausfordernd. Die Fähigkeit zur Extrapolation, die Entwicklung autonomer Agenten und die Integration von Modellen in sichere Systeme sind nur einige der spannenden Entwicklungen, die uns erwarten. Gleichzeitig müssen wir uns kontinuierlich mit den ethischen und rechtlichen Fragen auseinandersetzen, um eine verantwortungsvolle Nutzung dieser mächtigen Technologien zu gewährleisten.

Insgesamt zeigt die Geschichte der generativen KI, wie weit wir gekommen sind – von den ersten statistischen Modellen bis hin zu hochentwickelten, multimodalen Systemen. Doch der Weg ist noch lange nicht zu Ende. Die nächsten Jahre versprechen weitere große Sprünge. Es liegt an uns allen, die technologischen Weiterentwicklungen auch in gesellschaftlichen Fortschritt umzumünzen.

 

Das war der vierte und letzte Teil unserer Serie zur Geschichte und Zukunft der generativen Künstlichen Intelligenz. Wir hoffen, du hattest genauso viel Freude beim Lesen wie wir beim Schreiben. Wenn du mehr zum Thema KI erfahren möchtest, findest du viele weitere Blogbeiträge, Whitepaper und Interviews auf unserer Website. Tarik Ashry, Max Hilsdorf

Willkommen zurück zu unserer Blogserie zur Geschichte der generativen Künstlichen Intelligenz! Im letzten Teil haben wir den Übergang von traditionellen statistischen Modellen zu neuronalen Netzen und den ersten großen Durchbrüchen in der KI betrachtet. In diesem Teil fokussieren wir uns auf die aktuellen Entwicklungen und die praktischen Anwendungen, die generative KI in die Hände der breiten Bevölkerung gebracht haben.

Epoche 3 – Übergang

Zeitraum: November 2022 – Heute

Zeitraum Paradigmen Techniken Nutzerprofil Beispiele
Nov 22 – heute Plug & Play, text-to-anything, Multimodalität, Open-Source Hype RLHF, APIs, PEFT, RAG Breite Bevölkerung nutzt Chat Interfaces, IT-Experten nutzen APIs und Open-Source-Modelle Text: ChatGPT, Bard, Mistral; Image: Stable Diffusion, DALL-E, Midjourney; Video: Runway ML, Pika Labs; Audio: Voicebox, MusicGen, Suno

Der Durchbruch der Sprachmodelle

Obwohl Sprachmodelle wie GPT-3 bereits überzeugende Texte schreiben und, mit dem richtigen Prompt, sogar Wissen abrufen konnten, waren sie anfänglich nur wenig benutzerfreundlich. Neben der technischen Hürde, dass eine Schnittstelle zu einem Sprachmodell (API) nur mit Programmierkenntnissen abrufbar war, konnten diese Modelle noch keine natürlichen Konversationen führen.

Ein bedeutender Fortschritt kam im Januar 2022, als OpenAI GPT-3 durch Finetuning darauf trainierte, Anweisungen zu folgen, statt lediglich Sätze zu vervollständigen. Das Resultat, InstructGPT, kann als klarer Vorbote für den Durchbruch von ChatGPT im Dezember 2022 gesehen werden.

Nicht nur konnte ChatGPT natürliche Konversationen mit bis zu 3000 Wörtern führen – es entpuppte sich als vielversprechender Assistent für eine Reihe alltäglicher Aufgaben. Verpackt in eine zugängliche Web-Applikation markierte die Veröffentlichung von ChatGPT eine Zäsur in der KI- und Technologiegeschichte. Statt Automatisierung den IT-Expert:innen zu überlassen, konnten Bürotätigkeiten wie das Schreiben von E-Mails oder das Zusammenfassen von Texten nun individualisiert und selbstbestimmt von Durchschnittsuser:innen nach Bedarf teilautomatisiert werden. Nicht umsonst schrieb Andrej Karpathy, Gründungsmitglied von OpenAI und ehemaliger AI-Direktor von Tesla, bei Twitter:

Multimodale Generative KI

Doch wer bei moderner generativer KI nur an Texte denkt, lässt die beeindruckende Entwicklung multimodaler GenAI-Modelle unerwähnt. Seit April 2022 lassen sich mit DALL-E 2 anhand kurzer Textprompts realistische Zeichnungen, Kunstwerke und Fotografien generieren. Kommerzielle GenAI-Plattformen wie RunwayML bieten seit Februar 2023 sogar die Möglichkeit, Bilder mit KI zum Leben zu erwecken oder gar komplette Videos allein auf Basis von Textprompts zu generieren. Wenig überraschend also, dass auch das Erstellen von Musik oder Soundeffekten mit KI blitzschnell und für jeden zugänglich wird. Frühe Modelle wie Googles MusicLM (Januar 2023) oder Metas AudioGen (August 2023) lieferten noch keine Sounds in Studioqualität, zeigten aber bereits das Potential der Technologie auf. Der große Durchbruch von GenAI für Audio kam im Frühjahr 2024, als Suno, Udio und Elevenlabs hochqualitative Songs und Sounds generierten und eine große Debatte um Urheberrecht und Fair Use entfachten.

Wer profitiert?

Bei all diesen mächtigen KI-Modellen stellt sich die Frage, wer von diesen neuen Technologien profitiert. Sind es wieder nur große Tech-Konzerne, die insbesondere in Sachen Datenschutz keinen guten Ruf genießen? Die Antwort ist: teils, teils. Zwar werden große Durchbrüche häufig noch von Microsoft, Google und Co. angeführt, aber kleinere, frei verfügbare Modelle, sogenannte Open-Source-Modelle, erzielen zunehmend große Erfolge. Das Sprachmodell des französischen Startups Mistral AI konnte so zuletzt OpenAIs GPT-3.5 in den üblichen Testmetriken schlagen – und das mit einem wesentlich ressourcenschonenderen und schnelleren Modell als der Konkurrent aus dem Silicon Valley. Mit Meta gehört auch einer der größten Tech-Konzerne der Welt zu den führenden Open-Source-Entwicklern, unter anderem mit ihren Llama-Modellen. Wer sich allgemein verfügbare, private KI-Assistenten wünscht, kann sich auf eine rosige Zukunft freuen.

Herausforderungen und Chancen

Die dritte Phase der Geschichte von GenAI ist gekennzeichnet durch die breite Verfügbarkeit hochperformanter KI-Modelle, entweder durch kommerzielle Web-Applikationen und Plattformen oder durch frei verfügbare Open-Source-Modelle. Unternehmen wird zunehmend klar, dass die Wertschöpfung durch KI nicht nur an die Verfügbarkeit hochqualifizierter IT-Expert:innen geknüpft ist. Vielmehr gilt es, den durch KI geschaffenen Nutzen über die breite Anwendung vorhandener Technologien zu maximieren. Dabei stellen sich weiterhin zahlreiche Herausforderungen, die unter anderem die Sicherheit der Eingabe- und Ausgabedaten oder die Fairness der KI-Entscheidungen betreffen.

Wie kommen wir auf das nächste Level?

Ein Schlüssel zum Erfolg dieser Epoche ist das Paradigma des „Plug & Play“. Das heißt, Modelle wie ChatGPT und DALL-E 2 können einfach und ohne tiefgehende technische Kenntnisse genutzt werden. Diese Modelle sind durch „Reinforcement Learning from Human Feedback” (RLHF) und API-Schnittstellen leicht zugänglich. Die Aussage von Andrej Karpathy, dass „die heißeste neue Programmiersprache Englisch ist“, unterstreicht die Demokratisierung der KI-Nutzung.

Ein weiterer wichtiger Aspekt ist die Finetuning von Modellen auf menschliche Präferenzen, was die Benutzerfreundlichkeit und Anwendbarkeit erheblich verbessert hat. Gleichzeitig erleben Open-Source-Modelle einen Boom, da sie auf normalen Computern laufen und somit einer breiteren Nutzerschaft zugänglich sind.

Ethische und rechtliche Fragen stehen ebenfalls im Fokus, insbesondere im Umgang mit Third-Party-GenAI und eigenen Modellen. Themen wie Bias und Fairness sind nicht zu unterschätzen, da sie die Akzeptanz und Integrität der KI-Anwendungen maßgeblich beeinflussen.

What’s next?

Im nächsten Teil unserer Serie wagen wir einen Blick in die Zukunft von generativer KI. Verpassenicht, wie wir die zukünftigen Herausforderungen und Chancen in der Welt der generativen Künstlichen Intelligenz beleuchten.

Verpasse nicht Teil 4 unserer Blogserie. Tarik Ashry

Willkommen zurück zu unserer Serie zur Geschichte der Generativen Künstlichen Intelligenz. Im ersten Teil haben wir die Grundlagen erkundet und gesehen, wie frühe statistische Modelle wie der Naïve Bayesian Classifier den Weg für die heutige KI geebnet haben. Nun machen wir einen großen Sprung nach vorne und tauchen in die zweite Epoche ein – eine Zeit des Übergangs, in der neuronale Netze und GPUs die Bühne betreten und die Welt der KI revolutionieren.

Epoche 2 – Übergang

Ab 2015 – Staunen in der Vorstufe

Der KI-Winter ist vorbei, und neuronale Netze sowie GPUs (Grafikprozessoren) haben Einzug gehalten. Doch die neuen Wunderwerke der Technologie sind größtenteils den Technikexpert:innen vorbehalten. Das bedeutet jedoch nicht, dass keine beeindruckenden Produkte und Anwendungen entstehen – ganz im Gegenteil! StyleGANs (Generative Adversarial Networks) liefern nie dagewesene Bildqualitäten, und Transformer-Modelle wie BERT (Bidirectional Encoder Representations from Transformers) erfassen Texte bis ins kleinste Detail.

Die direkte Bedienung dieser Modelle bleibt jedoch der breiten Masse verwehrt, da sie zu technisch und spezifisch im Umgang sind. Man muss bestimmte Modelle und Architekturen auswählen, erweitern, verknüpfen und trainieren. Dennoch schaffen es Anwendungen wie Chatbots, Customer Service Automation, Generatives Design und AutoML-Lösungen auf den Markt

Zeitraum Paradigmen Techniken Nutzerprofil Beispiele
2015-2019 Latent Spaces, Embeddings Masked Language Models, GANs Programmierer, Data Scientists BERT, StyleGAN
2019-2022 Text Prompts Few Shot, Prompt Engineering Programmierer (API), Endanwender GPT-3

Ab 2019 – Lift-off

„Bigger is better“ wird zum neuen Credo. Open Source wird abgehängt, und die Welt des Natural Language Processing (NLP) steht Kopf: Large Language Models (LLMs) sind da! Doch das erste Modell, GPT-2, wird 2019 nicht veröffentlicht, da dessen Missbrauch als zu gefährlich eingestuft wird:

“The Elon Musk-backed nonprofit company OpenAI declines to release research publicly for fear of misuse.” (Guardian 14.02.2019)

Die Worte „Musk“, „nonprofit“ und „fear of misuse“ in einem Satz – rückblickend fast schon befremdlich. Ende des Jahres wird GPT-2 dann doch veröffentlicht. Es findet vor allem in der Forschung große Verwendung, um grundlegende Eigenschaften von LLMs zu erkunden. Später dient es auch dazu, im Vergleich zu größeren Modellen die Folgen der Weiterentwicklung besser zu verstehen.

2020 folgt GPT-3 – mit zehnmal mehr Daten und einem hundertmal größeren Modell. 2021 wird DALL-E vorgestellt, gefolgt von DALL-E 2 im Jahr 2022. Texte können nun auch mit natürlicher (geschriebener) Sprache verarbeitet und erstellt werden, allerdings noch nicht im mittlerweile bekannten Dialog, sondern per Few-Shot-Prompt. Für Bilder galt das allerdings nicht, denn in DALL-E und DALL-E 2 konnte man im Prompt keine Beispielbilder mitliefern. Bei diesem Paradigma, heute gängig in den nicht-Chat-Varianten der GPTs, wurde das Modell nicht auf das Führen einer Unterhaltung trainiert, sondern lediglich auf die Vervollständigung von Texten. Das bedeutet, es bedarf Beispielen, etwa in Form von Frage-Antwort-Paaren, um dem Modell klarzumachen, wie es den Text fortzuführen hat.

Ein Beispiel für einen Few-Shot Prompt: Nach drei angegebenen Beispielen folgt der eigentliche Input des Users bis zu dem Wort „Label:“, in der Erwartung, dass das Modell die Aufgabe bzw. den Sinn erfasst und den Text fortführt, indem es die richtige Antwort gibt.

Die Öffentlichkeit, aber auch Entwicklerinnen und Entwickler, werden eindrucksvoll mit dem State-of-the-Art konfrontiert, beispielsweise durch die ersten mit GPT-3 verfassten Artikel. 

Im nächsten Teil unserer Serie werden wir uns die jüngsten Entwicklungen und die Revolution der generativen Künstlichen Intelligenz ansehen. Lest dort, wie wir von Few-Shot Prompts zur praktischen Anwendung übergehen, die generative KI der breiten Bevölkerung zugänglich gemacht hat!

Verpasse nicht Teil 3 unserer Blogserie. Tarik Ashry Tarik Ashry, Max Hilsdorf

Willkommen zu unserer vierteiligen Blogserie zur Geschichte von Generativer Künstlicher Intelligenz. Unser Streifzug durch die Geschichte wird die bedeutenden Meilensteine beleuchten und aufzeigen, wie sich mit jedem Entwicklungsschritt das gesamte Konzept von generativer KI grundlegend gewandelt hat. Von den ersten Gehversuchen, mit Stift und Papier Wahrscheinlichkeitsverteilungen zu skizzieren, bis hin zu den heutigen hochentwickelten Algorithmen, die komplexe und kreative Inhalte generieren – jeder der vier Schritte markiert eine Revolution, kein bloßes Update.

Warum die Geschichte der generativen KI so spannend ist? Weil sie zeigt, wie sich mit jedem technologischen Fortschritt nicht nur die Methoden, sondern auch die Annahmen, die Nutzung, das Publikum und die Interaktion mit den Modellen komplett verändert haben. Was einst als Werkzeug für statistische Analysen begann, ist heute ein kreativer Partner, der in der Lage ist, Kunst, Musik, Text und vieles mehr zu schaffen.

Komm mit uns mit auf die Reise durch die Geschichte von GenAI.

Epoche 1 – Grundlagen

Ein gut gehütetes Geheimnis: Wenn man die Buchstaben von „Data Science“ umstellt, erhält man „Statistik“. Kleiner Scherz. Aber tatsächlich stimmt es, dass die Wurzeln der Datenwissenschaft weit zurückreichen, bis ins 18. Jahrhundert. Damals hatten α, Θ und andere mathematische Symbole noch eher den Charme von Mottenkugeln als von Venture Capital.

Mathematiker wie Gauß, Bayes und eine Reihe kluger Franzosen erkannten schon früh den Wert des Zählens. Sie zählten, zählten noch einmal und verglichen die Ergebnisse – alles per Hand und sehr aufwendig. Doch diese Methoden sind auch heute noch aktuell und bewährt – ein echter Evergreen!

Mit der Erfindung des elektrischen Stroms und dessen Verfügbarkeit begann eine neue Ära. Man konnte nun Daten wesentlich effizienter verarbeiten und auswerten. Die Vorstellung einer „elektronischen Murmelbahn“ für Daten entstand – ein System mit Weichen und Pfaden, das je nach Dateninput verschiedene Aktionen auslöste, wie das Aufleuchten einer Glühbirne oder das Ausführen einer Funktion.

Eine frühe, tatsächlich einsatzfähige Form der Künstlichen Intelligenz war geboren: Algorithmen, die auf Beobachtungen und abgeleiteten Regeln basieren.

Zeitraum Paradigmen Techniken Nutzerprofil Beispiele
1700-1960 Stift, Lötkolben, Lochkarte Zählen, Sortieren, Annahmen treffen Ingenieure, Fabrikanten, Forscher Buchhaltung, Fließbänder, Naturwissenschaften
1960-2010 Programmieren von anwendungs- spezifischem Code Die Gleichen wie zu zuvor, jedoch automatisiert Statistiker, Informatiker, erste Data Scientists und Machine Learning Forscher Spamfilter, (Sentiment-) Analyse von Texten, Optical Character Recognition OCR

Aber was macht diese frühen Modelle generativ? Nun, die „elektronische Murmelbahn“ konnte auch rückwärts betrieben werden. Vorwärts war sie ein statistisches Modell, das einer Beobachtung eine Kategorie oder einen Wert zuordnete. Dafür musste das Modell eine Vorstellung von den Daten haben. Rückwärts jedoch konnten durch zufällige Ziehungen hochwahrscheinliche Exemplare von Pilzen, Murmeln, Daten – sprich, Bilder oder Tabellen – erzeugt werden. Die generativen Fähigkeiten der Modelle wurden jedoch oft unterschätzt, da die Vorwärts-Funktion im Fokus stand.

Diese Methodik nennt sich Naïve Bayesian Classifier. „Naiv“ ist hier nicht abwertend gemeint, sondern bezieht sich auf vereinfachende Annahmen, die die Modellierung erheblich erleichtern. Bei naiven Methoden muss man keine komplexen Zusammenhänge zwischen Variablen wie Myzel, Stiel und Hut eines Pilzes unterstellen. Man sagt einfach: Wenn die durchschnittliche Qualität aller drei Teile gut genug ist, dann ist der Pilz gut.

Einige der ersten Anwendungen dieser Modelle waren die Handschrifterkennung (zum Beispiel bei der Post, bekannt als Optical Character Recognition, oder OCR) sowie bis heute Spam-Filter und allgemeine Textanalysen.

Das war der erste Einblick in die Grundlagen der generativen Künstlichen Intelligenz. Im nächsten Teil unserer Serie tauchen wir in die Welt der neuronalen Netze und maschinellen Lernens ein, die das Fundament für die modernen KI-Systeme gelegt haben. Bleibt neugierig und verpasst nicht den nächsten Meilenstein in der Geschichte der generativen KI!

Verpasse nicht Teil 2 unserer Blogserie. Tarik Ashry Tarik Ashry, Max Hilsdorf

Die rasante Entwicklung von generativer Künstlichen Intelligenz verändert unsere Welt grundlegend. Mit dem Aufkommen immer leistungsfähiger Sprachmodelle (LLM) – jüngst GPT-4o – treten Frage zu ihrer Intelligenz immer stärker ins Zentrum der Debatte: Sind LLMs intelligent? (Wann) werden sie menschliche Intelligenz übertreffen? Und wie können wir überhaupt mit passenden Begriffen beschreiben, was generative KI (GenAI) „tut”?

Der kanadische Philosoph Marshall McLuhan entwickelte in den 1960er-Jahren eine Medientheorie, die heute noch so aktuell ist, dass sie einen hilfreichen Blickwinkel auf LLMs und generative KI eröffnet. Berühmt geworden ist er vor allem durch einen Satz: „The medium is the message“ – das Medium ist die Botschaft.

Ein Medium ist nach McLuhan eine Erweiterung oder Verringerung der menschlichen Sinne und Körper. Nicht der Inhalt eines Mediums (z. B. bei Büchern die Bibel oder Harry Potter) sondern wie das Medium die kulturelle, ästhetische oder soziale Ordnung umgestaltet, ist entscheidend. McLuhan sagt: „The ‚message‘ of any medium or technology is the change of scale or pace or pattern that it introduces into human affairs“ (z. Dt.: Die “Botschaft” eines jeden Mediums oder einer Technologie ist die Veränderung des Umfangs, des Tempos oder des Musters, die es in die menschlichen Dasein einführt).

Medien verändern unsere Welt – tiefgreifender als wir denken

Ob KI-Chatbots, das Fernsehen, oder der Buchdruck: Alle Medien oder Vehikel einer Technologie prägen und verändern die Erfahrungen ihrer Nutzer:innen und haben gesellschaftliche Folgen. Sie produzieren neue Handlungsstrukturen und verändern unser Verhalten. Der Buchdruck, zum Beispiel, verringerte die Bedeutung mündlicher Kommunikation und gemeinschaftlichen Erzählens. Gleichzeitig ermöglichte er uns, Informationen allein und unabhängig von Autoritäten zu lesen und zu verarbeiten. Das förderte individuelles Denken und Lernen, unabhängig von Institutionen wie der Kirche. Wissen konnte nun weit verbreitet und konserviert werden. Das allgemeine Bildungsniveau stieg rasant und setze gesellschaftliche Emanzipationsprozesse wie die Aufklärung in Gang.

Ein paar Jahrhunderte später steht in fast jedem Wohnzimmer ein Fernseher. Anders als der Buchdruck fördert das Fernsehen eine multisensorische Erfahrung und eine fragmentierte Wahrnehmung. Es erweitert sowohl den visuellen als auch den auditiven Sinn. Im Gegensatz zum linearen und sequenziellen Lesen eines Buches erfordert das Fernsehen eine simultane Verarbeitung von Bild, Ton und Bewegung. Gleichzeitig erfordert es weniger aktive Beteiligung und führt so zu einer passiveren Informationsaufnahme. Durch das Fernsehen wurde die Gesellschaft mehr auf visuelle und emotionale Inhalte fokussiert. Das verändert die Art und Weise, wie Informationen vermittelt und verstanden werden, weg von rein rationalen und textbasierten Medien hin zu emotionaleren und bildbasierten Medien. Fernsehen trägt so zur Bildung eines „Globalen Dorfes“ bei, in dem räumliche und zeitliche Grenzen durch mediale Vernetzung überwunden werden.

Und heute? Mit ChatGPT, Midjourney und Co. verfügen wir über völlig neue Medien. Sie sind Werkzeuge, mit denen sich Millionen Menschen bereits ihren Arbeitsalltag erleichtern. Mit 100 Millionen Nutzer:innen nach zwei Monaten stellte ChatGPT den Rekord für die am schnellsten wachsende Plattform auf. Diese Medien haben bereits zahlreiche Anwendungsbereich, vor allem in der Sprach- und Textverarbeitung. Unternehmen nutzen sie zum Beispiel im Marketing, Support und Vertrieb, um Textübersetzungen zu erstellen und automatisierte Antworten auf Kundenanfragen generieren. Unternehmen wie Geberit zeigen bereits eindrucksvoll, wie leistungsstark KI-Chatbots sein können.

Aber auch in der Medizin hilft KI durch Bild- und Objekterkennung bei der Diagnostik. Das KI-System AlphaFold, zum Beispiel, löste das Problem der Proteinfaltung, indem es die 3D-Struktur von Proteinen mit hoher Genauigkeit vorhersagt. Dadurch verstehen Wissenschaftler:innen Proteine noch besser und können schneller neue Therapien entwickeln. In der Automobilindustrie gewinnen Assistenzsysteme und autonomes Fahren an Bedeutung. Branchenübergreifend werden KI-Systeme in der Qualitätskontrolle und Fehlererkennung eingesetzt. Immer wichtiger wird KI auch im Bereich Bildung. Interaktive, maßgeschneiderte Lernbots verändern schon jetzt grundlegend, wie Menschen lernen.

Aber GenAI-Tools sind noch viel mehr: Als Medien und Vehikel einer neuen Technologie verändern und gestalten sie unsere Wirklichkeit – genau wie der Buchdruck, das Fernsehen und die vielen anderen Technologien und Medien, die Menschen erfunden haben. Sie beeinflussen, wie wir die Welt wahrnehmen und mit ihr interagieren. Diese Einflussnahme reicht von der Art und Weise, wie wir kommunizieren, bis hin zu dem, wie wir Entscheidungen treffen. Aber was bedeutet das konkret? Wird KI die Welt noch dramatischer verändern als das Fernsehen? Warum weckt KI so viel Interesse und erzeugt zugleich so viel Angst?

Was generative KI mit uns macht

Ähnlich wie der Buchdruck ermöglichen LLMs einen schnellen Zugang zu riesigen Mengen an Informationen und Wissen. Das verändert die Art und Weise, wie wir lernen und Wissen erlangen. Die erste Botschaft von KI lautet deshalb: Wir benötigen unsere Gehirne immer weniger zum Speichern von Faktenwissen und zum Verstehen komplexer Konzepte und Denkprozesse. Ein intelligenter Chatbot „weiß” unendlich viel mehr, kann sich alles merken und Inhalte sinnhaft ausgeben. Wichtiger für Menschen werden deshalb strategisches und prozedurales Wissen, also wie man Aufgaben durchführt und Probleme löst. Dieses Wissen ist entscheidend, um zu verstehen, wie man generative KI-Assistenten anleitet, um effizienter Aufgaben zu erledigen (z. B. durch effektives Prompting). Auch soziales und kontextuelles Wissen über Normen und menschliche Interaktionen sowie über Bedingungen, unter denen Ereignisse stattfinden, werden wichtiger. GenAI-Tools verstehen unsere soziale, kulturelle und physische Welt nämlich nicht wie wir, weil sie kein Bewusstsein und (noch) keinen Körper haben, um ihre Umwelt wahrzunehmen.

Die zweite Botschaft von GenAI betrifft neue Formen der sozialen und kreativen Interaktion. Chatbots und andere KI-gestützte Kommunikationsmittel verändern, wie wir miteinander und mit Maschinen interagieren. Sie erweitern unsere Kommunikationsfähigkeiten und schaffen neue Formen der Interaktion, die rund um die Uhr und in Echtzeit verfügbar sind. Sie fördern die globale Vernetzung und kulturelle Integration, z. B., indem Sprachbarrieren durch simultane Übersetzungstools verschwinden. Doch während sie die Erreichbarkeit und Effizienz verbessern, können diese Medien auch zur sozialen Isolation und Entfremdung führen. Der Mangel an physischer und emotionaler Präsenz in maschinellen Interaktionen kann das Gefühl der Verbundenheit verringern. Die Nuancen und Tiefen persönlicher Gespräche können verloren gehen, wenn Maschinen überall als Vermittler fungieren. GenAI-”Kreativität” verdrängt zutiefst menschliche, mühsame Auseinandersetzung mit der Welt und verändert so den Stellenwert des Konzepts Kreativität an sich.

Was bedeutet das alles für das Medium KI? Kurz gesagt: Bei generativer KI geht es vielleicht gar nicht so sehr um den einzelnen Inhalt, also den Output, den ein GenAI-Tool ausgibt. Viele Diskussionen hängen sich daran auf, dass generative KI entweder halluziniert und Mittelmäßigkeit produziert oder bereits kurz davorsteht, Menschen in allem zu übertrumpfen. Dabei verlieren diese Diskussionen die viel wichtigere Frage aus den Augen: Wie verändert sich unser Menschsein durch das Medium?

Denkmaschinen: Von Zettelkästen zu Neuronennetzen

Schon seit Jahrhunderten versuchen Menschen, Maschinen zu schaffen, die denken können. Von mechanischen Automaten bis hin zu komplexen Computerprogrammen: Das Ziel war immer, menschliche Denkprozesse nachzuahmen und zu erweitern. Umberto Eco, ein italienischer Philosoph und Schriftsteller, ging sogar so weit, Texte als Maschinen zu betrachten. Denn sie erzeugen verschiedene, neue Interpretationen und Gedanken, je nachdem, wer sie zu welchem Zeitpunkt und unter welchen Umständen liest. Kontexte, Erfahrungshorizonte, Bildungshintergründe und vieles mehr verändern den Blickwinkel und eröffnen so neue Deutungshorizonte eines Textes.

Neue Denkangebote kreiert auch der berühmte Zettelkasten des Soziologen Niklas Luhmann. Zwischen 1951 und 1997 füllte er diesen mit 90.000 Zetteln. Luhmann nutzte diesen Zettelkasten, der durch ein ausgeklügeltes Nummerierungs- und „Multiple storage“-Prinzip gekennzeichnet ist, um Themenvielfalt zu ermöglichen und den Kontext eines Themas durch verschiedene Verweisstrukturen zu erweitern. Er sah den Zettelkasten als Zweitgedächtnis und Denkwerkzeug, das zu einem diskursiven Partner in der Erzeugung von Wissen wurde. Luhmanns Methode ermöglichte es, durch das zufällige Ziehen und Verknüpfen von Zetteln neue Theorien und Ideen zu entwickeln. Anders gesagt: Durch die Arbeit mit dem Kasten konnten neue Gedanken entstehen, die ohne den Kasten so nicht entstanden wären.

Ganz ähnlich funktionieren neuronale Netze: Sie verknüpfen eine Vielzahl von Informationen in einer Weise, die zu neuen Einsichten und unerwarteten Lösungen führen kann, die vorab nicht erkennbar waren. Durch die komplexe Verknüpfung von Datenpunkten können diese Systeme Ergebnisse produzieren, die weder linear noch vorhersehbar sind (Emergenz). Sie agieren als kognitive Partner, um uns bei der Lösung komplexer Probleme zu unterstützen, indem sie uns helfen, Zusammenhänge zu erkennen, die wir allein vielleicht übersehen hätten.

Erzeugt KI Emergenz?

Können auch LLMs aktiv neue Gedanken generieren – also Emergenz erzeugen? Emergenz beschreibt Phänomene, die entstehen, wenn sich einzelne Teile zu einem größeren Ganzen zusammenfügen und dabei neue Eigenschaften entwickeln, die nicht vorhersehbar waren. In der Welt der KI tritt Emergenz auf, wenn Algorithmen beginnen, in Arten zu „denken“ und zu kommunizieren, die ihre menschlichen Schöpfer:innen nicht direkt vorgesehen hatten.

Forscher:innen von Google DeepMind haben eine mögliche Erklärung gefunden, wie KI-Systeme emergente Fähigkeiten entwickeln. Sie konnten mathematisch beweisen, dass KI-Systeme notwendigerweise ein kausales Modell der Daten und ihrer Zusammenhänge lernen müssen, um sich robust an veränderte Bedingungen anpassen zu können. Ändert sich die Verteilung der Daten, etwa wenn ein KI-Agent in eine neue Umgebung gesetzt wird, muss er seine Strategie mit minimalen Verlusten anpassen können. Je besser seine Anpassungsfähigkeit, desto genauer muss das implizit, nebenbei gelernte Kausalmodell sein.

Allerdings ist umstritten, ob die derzeitigen Methoden und Trainingsdaten dafür ausreichen und ob es sich bei den beobachteten Fähigkeiten um echte kausale Schlussfolgerungen handelt. Zwar kam ein anderes Forschungsteam jüngst zu dem Ergebnis, dass LLMs eine gewisse Fähigkeit zur Schlussfolgerung zu haben scheinen. Aber ohne einen richtigen Stresstest (z. B. mit kontrafaktischen Aufgaben) lässt sich nicht gesichert feststellen, dass sie auf eine allgemeine Art und Weise schlussfolgern. KI-Systeme scheinen sich eher auf ihre Trainingsdaten zu verlassen (approximate retrieval, z. Dt. ungefähres Abrufen), die sich nicht auf Aufgaben außerhalb der Verteilung verallgemeinern lassen.

Doch das muss nicht bedeuten, KI kann nicht beim Denken helfen. Wer kluge Fragen stellt und Prompts ausarbeitet, die ein LLM dazu bringen, komplexe inhaltliche Verknüpfungen zwischen Themen zu machen, kann genauso neue Gedanken erzeugen wie Luhmanns Zettelkasten sie produziert hat. Wer strategisches und kontextuales Wissen klug einsetzt, kann Szenarien erstellen, Bedingungen aufstellen und Rahmen setzen, um mit einem KI-System nützliche und kreative Outputs zu erzeugen.

Der Zauber steckt in den Daten

Denken wir zurück an die Ausgangsfrage: Mit welchen Begriffen können wir beschreiben, was KI macht? Wenn Intelligenz sowohl in biologischen als auch in künstlichen Systemen ein emergentes Phänomen ist, also aus den komplexen Interaktionen und Verbindungen zwischen den Komponenten entsteht, müssen wir genauer auf die Komponenten künstlicher Systeme blicken – nämlich Daten.

Daten sind notwendig, um KI-Systeme zu trainieren. Und nur mit einer großen Menge an Trainingsdaten können KI-Systeme wirklich gut werden. Das bedeutet, dass Daten mehr sind als nur Informationen. Sie sind die Grundlage, auf der KI lernt und Entscheidungen trifft. Ihre Qualität, Vielfalt und Repräsentativität sind entscheidend dafür, wie effektiv, sicher und produktiv eine KI funktioniert.

Erinnern wir uns an McLuhan, der sagte, dass Medien die Art und Weise, wie wir Informationen wahrnehmen, verändern. Was bedeutet das, wenn wir auch Daten als ein eigenes Medium verstehen? Welche Botschaft tragen sie?

Daten beeinflussen, wie eine KI die Welt „sieht“ und interpretiert. Aus diesem Blickwinkel wird KI selbst zur Botschaft. Sie repräsentiert den Übergang zu einer datengetriebenen, automatisierten Welt, in der menschliche und maschinelle Intelligenz verschmelzen. Ihre Existenz und Funktionsweise verändern unser Verständnis davon, was möglich ist. Indem KI zum Beispiel Arbeitsprozesse vereinfacht und automatisiert, verändert sie grundlegend, welche menschlichen Kompetenzen in unserer modernen Gesellschaft an Bedeutung verlieren, und welche künftig sogar wichtiger werden als ein Universitätsabschluss, wie eine Microsoftstudie zeigt:

  • 66 Prozent der befragten Führungskräfte sagen, sie würden jemanden ohne KI-Kenntnisse nicht einstellen.
  • 71 Prozent würden lieber weniger erfahrene Kandidat:innen mit KI-Kenntnissen einstellen als erfahrenere Kandidat:innen ohne diese.
  • 77 Prozent der Führungskräfte wollen Talenten am Anfang ihrer Karriere mit KI größere Verantwortung übertragen.
  • 69 Prozent der Befragten sagen, KI könnte ihnen helfen, schneller befördert zu werden.
  • 79 Prozent erwarten, dass KI-Kenntnisse ihre Jobchancen erweitern werden.

Die Zahlen belegen eindrucksvoll: KI formt unsere Gesellschaft; sie ist mehr als ihre Inhalte. KI formt die Strukturen, die festlegen, wohin wir uns als Gesellschaft bewegen, was als Nächstes erschaffen wird, welche Weichen wie gestellt werden für die Zukunft, wo investiert wird und wo nicht, was gefördert wird und was nicht.

Was bedeutet das für uns?

Ich denke, die Diskussion über generative KI sollte sich weniger auf die unmittelbaren Inhalte und mehr auf die umfassenden Auswirkungen auf unsere Gesellschaft und unser Selbstverständnis konzentrieren. Marshall McLuhan zeigt uns, dass Medien unsere Sinne und Wahrnehmungen erweitern oder verringern. Generative KI erweitert unsere kognitiven Fähigkeiten und die Art und Weise, wie wir Informationen verarbeiten und kreativ tätig sind. Gleichzeitig stellt sie uns vor neue Herausforderungen: den Wert der Tiefe und Originalität kreativer Arbeit, die Qualität und Repräsentativität von Daten und die potenzielle soziale Isolation durch maschinelle Interaktionen. Generative KI ist eine transformative Kraft, die unser Denken und unsere Wahrnehmung grundlegend verändert und uns dazu anregt, unsere Rolle in dieser neuen Welt kritisch zu hinterfragen und aktiv zu gestalten. Ich lade deshalb alle, die mit und an KI arbeiten, herzlich ein, mit uns zusammen darüber nachzudenken. Welche Veränderungen wollen wir fördern und welche eher nicht? Auf welche Gefahren sollten wir stärker achten und hinweisen? Wo liegen die großen emanzipatorischen Chancen von KI? Lasst es uns gemeinsam herausfinden. Tarik Ashry

KI-Chatbots kommen in immer mehr Unternehmen zum Einsatz. Doch Chatbot ist nicht gleich Chatbot. Manche Lösungen lassen sich zwar schnell und relativ leicht implementieren. Doch mangelt es ihnen an Konfigurierbarkeit (Customizability) und den Funktionalitäten, die wirklich große Leistungssprünge, z. B. bei der Beantwortung von Kundenanfragen im Customer Service, ermöglichen. Customized Lösungen, die genau das bieten, können wiederum aufwändig und teuer werden – besonders, wenn sie über komplexe und use-case-spezifische Retrieval-Augmented Generation (RAG) verfügen sollen. Die Technik verbessert die Genauigkeit und Zuverlässigkeit von generativen KI-Modellen, indem sie es ermöglicht, z. B. mit unternehmenseigenen Datenbanken zu chatten und nur gesicherte Fakten auszugeben.

Wie funktionieren Chatbots?

Custom GPT-Chatbots lernen aus großen Mengen von Texten, um Zusammenhänge zu verstehen und Muster zu erkennen. Sie werden so programmiert, dass sie individuell auf verschiedene Nutzer:innenanfragen eingehen können. Die Erstellung solcher Chatbots umfasst die maßgeschneiderte Anpassung an bestimmte Bedürfnisse, das gezielte Trainieren mit ausgewählten Daten und das Einbinden in Plattformen wie Websites oder mobile Anwendungen.

 

CustomGPT von statworx zeichnet sich dadurch aus, dass es das Beste aus beiden Welten – hohe Funktionalität durch Customizability und schnelle Implementierung – miteinander verbindet. Die Lösung ist maßgeschneidert und ermöglicht eine sichere und effiziente Nutzung von ChatGPT-ähnlichen Modellen. Das Interface lässt sich im Corporate Design eines Unternehmens gestalten und leicht in bestehende Geschäftsanwendungen wie CRM-Systeme und Support-Tools integrieren.

 

Worauf kommt es also an, wenn Unternehmen die ideale Chatbot-Lösung für ihre Bedürfnisse suchen?

Anforderungsanalyse: Zunächst sollten die spezifischen Anforderungen des Unternehmens identifiziert werden, um sicherzustellen, dass der Chatbot optimal auf diese zugeschnitten ist. Welche Aufgaben soll der Chatbot bearbeiten? Welche Abteilungen soll er unterstützen? Welche Funktionen braucht er?

Training des Modells: Ein custom GPT-Chatbots muss mit relevanten Daten und Informationen ausgestattet werden, um eine hohe Genauigkeit und Reaktionsfähigkeit sicherzustellen. Wenn diese Daten nicht verfügbar sind, lohnt sich der technische Aufwand wahrscheinlich nicht.

Integration in bestehende Systeme: Die nahtlose Integration des Chatbots in bestehende Kommunikationskanäle wie Websites, Apps oder soziale Medien ist entscheidend für eine effektive Nutzung. Je nach Infrastruktur eignen sich unterschiedliche Lösungen.

 

Schnell einsatzbereit und immer anpassungsfähig

Der CustomGPT-Chatbot von statworx zeichnet sich durch seine schnelle Einsatzfähigkeit aus, oft schon innerhalb weniger Wochen. Diese Effizienz verdankt er einer Kombination aus bewährten Standardlösungen und maßgeschneiderter Anpassung an die speziellen Bedürfnisse eines Unternehmens. CustomGPT ermöglicht den Upload von Dateien und die Möglichkeit, mit ihnen zu chatten, also gesicherte Informationen aus den unternehmenseigenen Daten zu ziehen. Mit fortschrittlichen Funktionen wie Faktenprüfung, Datenfilterung und der Möglichkeit, Nutzer:innenfeedback zu integrieren, hebt sich der Chatbot von anderen Systemen ab.

Darüber hinaus bietet CustomGPT Unternehmen die Freiheit, das Vokabular, den Kommunikationsstil und den generellen Ton ihres Chatbots zu bestimmen. Dies ermöglicht nicht nur ein nahtloses Markenerlebnis für die Nutzer:innen, sondern verstärkt auch die Wiedererkennung der Unternehmensidentität durch eine persönliche und einzigartige Interaktion. Ein besonderes Highlight: der Chatbot ist optimiert für die mobile Darstellung auf Smartphones.

 

Technische Umsetzung

Im Bestreben, eine hochmoderne Anwendung zu schaffen, die sich leicht warten lässt, wurde Python als Kernsprache für das Backend von CustomGPT verwendet. Für die effiziente Handhabung von Anfragen setzen die statworx-Entwickler:innen auf FastAPI, eine moderne Webframework-Lösung, die sowohl Websockets für eine zustandsorientierte Kommunikation als auch eine REST-API für die Dienste bereitstellt. CustomGPT kann flexibel auf unterschiedlichen Infrastrukturen eingesetzt werden – von einer einfachen Cloud-Function bis zu einem Maschinencluster, wenn die Anforderungen dies erfordern.

Ein wesentlicher Aspekt der Architektur ist die Anbindung an eine Datenschicht, um ein flexibles Backend zu bieten, das sich schnell an veränderte Bedingungen und Anforderungen anpassen kann. Die Frontend-Applikation, entwickelt mit React, interagiert nahtlos über Websockets mit dem Backend, welches zum Beispiel die leistungsfähige Azure-AI-Suchfunktion nutzt. Die Konfiguration des Backends ermöglicht es, zusätzliche Use-Cases, wie zum Beispiel maßgeschneiderte Suchlösungen zu implementieren und spezifische Anforderungen effizient zu erfüllen.

 

Die Vorteile im Überblick:

Datenschutz und Sicherheit
Datenschutz und Datensicherheit sind zentrale Aspekte von CustomGPT. Es gewährleistet, dass alle Daten in der Europäischen Union gespeichert und verarbeitet werden und die vollständige Kontrolle beim Unternehmen liegt. Das ist ein entscheidender Unterschied zu anderen GPT-basierten Lösungen.

Integration und Flexibilität
Die flexible Integration von CustomGPT in bestehende Geschäftsanwendungen ist ein weiterer Vorteil. Dies wird durch Modularität und Anbieterunabhängigkeit unterstützt. Damit kann CustomGPT an verschiedene Infrastrukturen und Modelle angepasst werden, einschließlich Open-Source-Optionen.

Funktionen und Anpassungsmöglichkeiten
Die Anpassungsmöglichkeiten von CustomGPT umfassen die Integration in Organisationsdaten, die Anpassung an Benutzerrollen und die Verwendung von Analytics zur Verbesserung der Konversationen. Durch die Verwendung von Standardmodellen sowie die Möglichkeit, auf Open-Source-Modelle zu setzen, bietet CustomGPT Flexibilität und Individualisierung für Unternehmensanwendungen.

Personalisierte Kundenerfahrung
Durch die Anpassung an die spezifischen Anforderungen eines Unternehmens können Custom GPT-Chatbots eine personalisierte und effektive Interaktion mit Kund:innen gewährleisten.

Effiziente Kundenbetreuung
CustomGPT Chatbots können rund um die Uhr Fragen beantworten, Probleme lösen und Informationen bereitstellen, was zu einer erhöhten Kund:innenzufriedenheit und Effizienz führt.

Skalierbarkeit
Unternehmen können die Kapazität, z. B. ihrer Kund:innenbetreuung mithilfe von GPT-Chatbots problemlos skalieren, um auch bei hohem Aufkommen eine konsistente Servicequalität zu gewährleisten.

Die Zeit für einen eigenen Chatbot ist jetzt! Profitieren Sie von unserer Upstream-Entwicklung mit schneller Bereitstellung und einfacher Implementierung. Als CustomGPT-Kunde stehen Ihnen alle Patches, Bugfixes und neue Funktionalitäten, die im Laufe der Zeit hinzukommen, direkt zur Verfügung. So bleibt Ihr CustomGPT stets so vielseitig und flexibel, dass es den spezifischen, sich ändernden Bedürfnissen gerecht wird und komplexe Anforderungen adressieren kann. Kontaktieren Sie uns jetzt für ein Beratungsgespräch. Tarik Ashry

Wir stehen am Beginn des Jahres 2024, einer Zeit grundlegender Veränderungen und spannender Fortschritte in der Welt der Künstlichen Intelligenz. Die nächsten Monate gelten als kritischer Meilenstein in der Evolution der KI, in denen sie sich von einer vielversprechenden Zukunftstechnologie zu einer festen Realität im Geschäftsleben und im Alltag von Millionen wandelt. Deshalb präsentieren wir gemeinsamen mit dem AI Hub Frankfurt, dem zentralen KI-Netzwerk der Rhein-Main-Region, unsere Trendprognose für 2024, den AI Trends Report 2024.

Der Report identifiziert zwölf dynamische KI-Trends, die sich in drei Schlüsselbereichen entfalten: Kultur und Entwicklung, Daten und Technologie sowie Transparenz und Kontrolle. Diese Trends zeichnen ein Bild der rasanten Veränderungen in der KI-Landschaft und beleuchten die Auswirkungen auf Unternehmen und Gesellschaft.
Unsere Analyse basiert auf umfangreichen Recherchen, branchenspezifischem Fachwissen und dem Input von Expert:innen. Wir beleuchten jeden Trend, um einen zukunftsweisenden Einblick in die KI zu bieten und Unternehmen bei der Vorbereitung auf künftige Herausforderungen und Chancen zu unterstützen. Wir betonen jedoch, dass Trendprognosen stets einen spekulativen Charakter haben und einige unserer Vorhersagen bewusst gewagt formuliert sind.

Direkt zum AI Trends Report 2024!

Was ist ein Trend?

Ein Trend unterscheidet sich sowohl von einem kurzlebigen Modephänomen als auch von einem medialen Hype. Er ist ein Wandelphänomen mit einem “Tipping Point”, an dem eine kleine Veränderung in einer Nische einen großen Umbruch im Mainstream bewirken kann. Trends initiieren neue Geschäftsmodelle, Konsumverhalten und Arbeitsformen und stellen somit eine grundlegende Veränderung des Status Quo dar. Für Unternehmen ist es entscheidend, vor dem Tipping Point die richtigen Kenntnisse und Ressourcen zu mobilisieren, um von einem Trend profitieren zu können.

12 KI-Trends, die 2024 prägen werden

Im AI Trends Report 2024 identifizieren wir wegweisende Entwicklungen im Bereich Künstlichen Intelligenz. Hier sind die Kurzversionen der zwölf Trends mit jeweils einem ausgewählten Zitat aus den Reihen unserer Expert:innen.

Teil 1: Kultur und Entwicklung

Von der 4-Tage-Woche über Omnimodalität bis AGI: 2024 verspricht große Fortschritt für die Arbeitswelt, für die Medienproduktion und für die Möglichkeiten von KI insgesamt.

These I: KI-Kompetenz im Unternehmen
Unternehmen, die KI-Expertise tief in ihrer Unternehmenskultur verankern und interdisziplinäre Teams mit Tech- und Branchenwissen aufbauen, sichern sich einen Wettbewerbsvorteil. Zentrale KI-Teams und eine starke Data Culture sind Schlüssel zum Erfolg.

„Eine Datenkultur kann man weder kaufen noch anordnen. Man muss die Köpfe, die Herzen und die Herde gewinnen. Wir möchten, dass unsere Mitarbeitenden bewusst Daten erstellen, nutzen und weitergeben. Wir geben ihnen Zugang zu Daten, Analysen und KI und vermitteln das Wissen und die Denkweise, um das Unternehmen auf Basis von Daten zu führen.“

Stefanie Babka, Global Head of Data Culture, Merck

 
These II :4-Tage-Arbeitswoche durch KI
Dank KI-Automatisierung in Standardsoftware und Unternehmensprozessen ist die 4-Tage-Arbeitswoche für einige deutsche Unternehmen Realität geworden. KI-Tools wie Microsofts Copilot steigern die Produktivität und ermöglichen Arbeitszeitverkürzungen, ohne das Wachstum zu beeinträchtigen.

„GenAI wird die Automatisierung in zahlreichen Bereichen weiter vorantreiben. Dies wird der neue Maßstab für Standardprozesse in allen Sektoren sein. Auch wenn sich dies positiv auf die Arbeitszeitverkürzung auswirken kann, müssen wir sicherstellen, dass GenAI verantwortungsvoll eingesetzt wird, insbesondere in sensiblen und kundenorientierten Bereichen.“

Dr. Jean Enno Charton, Director Digital Ethics & Bioethics, Merck

 

These III: AGI durch omnimodale Modelle
Die Entwicklung von omnimodalen KI-Modellen, die menschliche Sinne nachahmen, rückt die Vision einer allgemeinen künstlichen Intelligenz (AGI) näher. Diese Modelle verarbeiten vielfältige Inputs und erweitern menschliche Fähigkeiten.

„Multimodale Modelle, die auf mehr als nur Text trainiert wurden, haben gezeigt, dass sie besser in der Lage sind, Schlussfolgerungen zu ziehen und die Welt zu verstehen. Wir sind gespannt, was omnimodale Modelle leisten werden.“

Dr. Ingo Marquart, NLP Subject Matter Lead, statworx

 

These IV: KI-Revolution in der Medienproduktion
Generative AI (GenAI) transformiert die Medienlandschaft und ermöglicht neue Formen der Kreativität, bleibt jedoch noch hinter transformatorischer Kreativität zurück. KI-Tools werden für Kreative immer wichtiger, doch es gilt, die Einzigartigkeit gegenüber einem globalen Durchschnittsgeschmack zu wahren.

„Wer AI smart integriert ist im Wettbewerbsvorteil. In den Bereichen Ideation, Publishing und Visuals wird es Produktivitätssprünge geben. Es entsteht aber auch eine Menge „Low“- und Fake- Content (Postings, Messaging), daher wird Vertrauensaufbau für Brands noch wichtiger. Die Social-Media-Aufgaben verlagern sich hin zu Strategie, Management und Controlling.“

Nemo Tronnier, Founder & CEO, Social DNA

 

Teil 2: Daten und Technologie

2024 dreht sich alles um Datenqualität, Open-Source-Modelle und den Zugang zu Prozessoren. Die Betreiber von Standardsoftware wie Microsoft und SAP werden groß profitieren, weil sie die Schnittstelle zu den Endnutzer:innen besetzen.

These V: Herausforderer für NVIDIA
Neue Akteure und Technologien bereiten sich vor, den GPU-Markt aufzumischen und NVIDIAs Position herauszufordern. Startups und etablierte Konkurrenten wie AMD und Intel wollen von der Ressourcenknappheit und den langen Wartezeiten profitieren, die kleinere Player derzeit erleben, und setzen auf Innovation, um NVIDIAs Dominanz zu brechen.

„Entgegen der vorherrschenden Meinung gibt es nicht wirklich einen Mangel an KI-Beschleunigern, wenn man NVIDIA, Intel und AMD mitzählt. Das eigentliche Problem ist die Finanzierung durch die Kunden, da die Cloud-Anbieter gezwungen sind, verfügbare Kapazitäten mit langfristigen Verträgen anzubieten. Dies könnte sich in 18 bis 24 Monaten ändern, wenn die aktuellen Bereitstellungen ausreichend abgeschrieben sind. Bis dahin müssen die Kunden längere Verpflichtungen einplanen.”

Norman Behrend, Chief Customer Officer, Genesis Cloud

 

These VI: Datenqualität vor Datenquantität
In der KI-Entwicklung rückt die Qualität der Daten in den Fokus. Statt nur auf Masse zu setzen, wird die sorgfältige Auswahl und Aufbereitung von Trainingsdaten sowie die Innovation in der Modellarchitektur entscheidend. Kleinere Modelle mit hochwertigen Daten können größeren Modellen in der Performance überlegen sein.

„Daten sind nicht nur eine Komponente der KI- Landschaft; Daten von richtiger Qualität zu haben, ist essentiell. Das Lösen des „first-mile problem“, um die Datenqualität zu gewährleisten, und das Verständnis des „last-mile problem“, d.h. die Einbindung von Mitarbeitenden in Daten- und KI-Projekte, sind entscheidend für den Erfolg.“

Walid Mehanna, Chief Data & AI Officer, Merck

 

These VII: Das Jahr der KI-Integratoren
Integratoren wie Microsoft, Databricks und Salesforce werden zu den Gewinnern, da sie KI-Tools an Endnutzer:innen bringen. Die Fähigkeit zur nahtlosen Integration in bestehende Systeme wird für KI-Startups und -Anbieter entscheidend sein. Unternehmen, die spezialisierte Dienste oder wegweisende Innovationen bieten, sichern sich lukrative Nischen.

„2024 zeigen KI-Integratoren wie sie KI für Endnutzer zugänglich machen. Ihre Rolle ist entscheidend für die Demokratisierung von KI in der Geschäftswelt, wodurch Unternehmen jeder Größe von fortschrittlicher KI profitieren. Diese Entwicklung betont die Notwendigkeit benutzerfreundlicher und ethisch verantwortungsvoller KI-Lösungen.“

Marco Di Sazio, Head of Innovation, Bankhaus Metzler

 

These VIII: Die Open-Source-Revolution
Open-Source-KI-Modelle treten in Wettbewerb mit proprietären Modellen wie OpenAIs GPT und Googles Gemini. Mit einer Community, die Innovation und Wissensaustausch fördert, bieten Open-Source-Modelle mehr Flexibilität und Transparenz, was sie besonders wertvoll für Anwendungen macht, die klare Verantwortlichkeiten und Anpassungen erfordern.

„Insbesondere für KMUs sind KI-Lösungen unverzichtbar. Da eine ausreichende Datenmenge für ein eigenes Modell typischerweise fehlt, wird die Kollaboration entscheidend. Die Möglichkeit zur Anpassung ist jedoch essenziell, um das eigene Geschäftsmodell digital voranzubringen.“

Prof. Dr. Christian Klein, Gründer, UMYNO Solutions, Professor für Marketing & Digital Media, FOM Hochschule

 

Teil 3: Transparenz und Kontrolle

Die verstärkte Nutzung von KI-Entscheidungssystemen wird 2024 eine intensivierte Debatte über Algorithmen-Transparenz und Datenschutz entfachen – auf der Suche nach Verantwortlichkeit. Der AI Act wird dabei zum Standortvorteil für Europa.

These IX: KI-Transparenz als Wettbewerbsvorteil
Europäische KI-Startups mit Fokus auf Transparenz und Erklärbarkeit könnten zu den großen Gewinnern werden, da Branchen wie Pharma und Finance bereits hohe Anforderungen an die Nachvollziehbarkeit von KI-Entscheidungen stellen. Der AI Act fördert diese Entwicklung, indem er Transparenz und Anpassungsfähigkeit von KI-Systemen fordert und damit europäischen KI-Lösungen zu einem Vertrauensvorsprung verhilft.

„Transparenz wird ein Schlüsselthema im Bereich KI. Dies gilt für den Aufbau von KI-Modellen, den Datenfluss und die Nutzung der KI selbst. Es wird die Diskussionen über Compliance, Sicherheit und Vertrauen erheblich beeinflussen. Durch den AI Act könnten Transparenz und Sicherheit sogar zu Wettbewerbsvorteilen für europäische Unter- nehmen werden.“

Jakob Plesner, Rechtsanwalt, Gorrissen Federspiel

 

These X: AI Act als Qualitätssiegel
Der AI Act positioniert Europa als sicheren Hafen für Investitionen in KI, indem er ethische Standards setzt, die das Vertrauen in KI-Technologien stärken. Angesichts der Zunahme von Deepfakes und der damit verbundenen Risiken für die Gesellschaft wirkt der AI Act als Bollwerk gegen Missbrauch und fördert ein verantwortungsbewusstes Wachstum der KI-Branche.

„Unternehmen, die vor einem technologischen Wandel stehen, brauchen ein klares Regelwerk. Durch die Einführung eines Gütesiegels für menschenzentrierte KI verwandelt der AI Act Herausforderungen in Chancen. Der AI Act wird international zu einer Blaupause werden, die EU-Unternehmen einen Vorsprung bei verantwortungsvoller KI verschafft und Europa zu einem Ort für nachhaltige KI-Partnerschaften macht.“

Catharina Glugla, Head of Data, Cyber & Tech Germany, Allen & Overy LLP

 

These XI: KI-Agenten revolutionieren den Konsum
Persönliche Assistenz-Bots, die Einkäufe tätigen und Dienstleistungen auswählen, werden zu einem wesentlichen Bestandteil des Alltags. Die Beeinflussung ihrer Entscheidungen wird zum Schlüsselelement für Unternehmen, um auf dem Markt zu bestehen. Dies wird die Suchmaschinenoptimierung und Online-Marketing tiefgreifend verändern, da Bots zu den neuen Zielgruppen werden.

„Es wird mehrere Arten von KI-Agenten geben, die nach menschlichen Absichten handeln. Zum Beispiel persönliche Agenten, die eine Einzelperson vertreten, und Dienstleistungsagenten, die eine Organisation oder Institution vertreten. Das Zusammenspiel zwischen ihnen, wie persönlich-persönlich, persönlich-institutionell und institutionell-institutionell, stellt ein neues Paradigma für wirtschaftliche Aktivitäten und die Verteilung von Werten dar.“

Chi Wang, Principle Researcher, Microsoft Research

 

These XII: Alignment von KI-Modellen
Die Abstimmung (Alignment) von KI-Modellen auf universelle Werte und menschliche Intentionen wird entscheidend, um unethische Ergebnisse zu vermeiden und das Potenzial von Foundation-Modellen voll auszuschöpfen. Superalignment, bei dem KI-Modelle zusammenarbeiten, um komplexe Herausforderungen zu meistern, wird immer wichtiger, um die Entwicklung von KI verantwortungsvoll voranzutreiben.

„Alignment ist im Kern ein analytisches Problem, bei dem es darum geht, Transparenz und Kontrolle herzustellen, um Vertrauen der Nutzer:innen zu erlangen. Das sind die Schlüssel für ein effektives Deployment von KI-Lösungen in Unternehmen, für die kontinuierliche Evaluierung und für eine sichere Iteration auf der Grundlage der richtigen Metriken.“

Daniel Lüttgau, Head of AI Development, statworx

 

Schlussbemerkung

Der AI Trends Report 2024 ist mehr als eine unterhaltsame Bestandsaufnahme; er kann ein nützliches Werkzeug für Entscheidungsträger:innen und Innovator:innen sein. Unser Ziel ist es, unseren Leser:innen strategische Vorteile zu verschaffen, indem wir die Auswirkungen der Trends auf verschiedene Sektoren diskutieren und ihnen helfen, die Weichen für die Zukunft zu stellen.

Dieser Blogpost bietet nur einen kurzen Einblick in den umfassenden AI Trends Report 2024. Wir laden Sie ein, den vollständigen Report zu lesen, um tiefer in die Materie einzutauchen und von den detaillierten Analysen und Prognosen zu profitieren.

Zum AI Trends Report 2024! Tarik Ashry

Geschäftserfolg steht und fällt mit der Art und Weise, wie Unternehmen mit ihren Kund:innen interagieren. Kein Unternehmen kann es sich leisten, mangelhafte Betreuung und Support anzubieten. Im Gegenteil: Firmen, die eine schnelle und präzise Bearbeitung von Kundenanfragen anbieten, können sich vom Wettbewerb absetzen, Vertrauen in die eigene Marke aufbauen und so Menschen langfristig an sich binden. Wie das mithilfe von generativer KI auf einem ganz neuen Niveau gelingt, zeigt unsere Zusammenarbeit mit Geberit, einem führenden Hersteller von Sanitärtechnik in Europa.

Was ist generative KI?

Generative KI-Modelle erstellen automatisiert Inhalte aus vorhandenen Text-, Bild- und Audiodateien. Dank intelligenter Algorithmen und Deep Learning unterscheiden sich diese Inhalte kaum oder gar nicht von menschengemachten. Unternehmen können ihren Kund:innen so personalisierte User Experiences bieten, automatisiert mit ihnen interagieren und relevanten digitalen Content zielgruppengerecht erstellen und ausspielen. GenAI kann zudem komplexe Aufgaben lösen, indem die Technologie riesige Datenmengen verarbeitet, Muster erkennt und neue Fähigkeiten lernt. So ermöglicht die Technologie ungeahnte Produktivitätsgewinne. Routineaufgaben wie Datenaufbereitung, Berichterstellung und Datenbanksuchen lassen sich automatisieren und mit passenden Modellen um ein Vielfaches optimieren.
Weitere Informationen zum Thema GenAI finden Sie hier.

Die Herausforderung: Eine Million E-Mails

Geberit sah sich mit einem Problem konfrontiert: Jedes Jahr landeten eine Million E-Mails in den unterschiedlichen Postfächern des Kundenservice der deutschen Vertriebsgesellschaft von Geberit. Dabei kam es oft vor, dass Anfragen in den falschen Abteilungen landeten, was zu einem erheblichen Mehraufwand führte.

Die Lösung: Ein KI-gestützter E-Mail-Bot

Um die falsche Adressierung zu korrigieren, haben wir ein KI-System entwickelt, das E-Mails automatisch den richtigen Abteilungen zuordnet. Dieses intelligente Klassifikationssystem wurde mit einem Datensatz von anonymisierten Kundenanfragen trainiert und nutzt fortschrittliche Machine- und Deep-Learning-Methoden, darunter das BERT-Modell von Google.

Der Clou: Automatisierte Antwortvorschläge mit ChatGPT

Doch die Innovation hörte hier nicht auf. Das System wurde weiterentwickelt, um automatisierte Antwort-E-Mails zu generieren. Hierbei kommt ChatGPT zum Einsatz, um kundenspezifische Vorschläge zu erstellen. Die Kundenberater:innen müssen die generierten E-Mails nur noch prüfen und können sie direkt versenden.

Das Ergebnis: 70 Prozent bessere Sortierung

Das Ergebnis dieser bahnbrechenden Lösung spricht für sich: eine Reduzierung der falsch zugeordneten E-Mails um über 70 Prozent. Das bedeutet nicht nur eine erhebliche Zeitersparnis von fast drei ganzen Arbeitsmonaten, sondern auch eine Optimierung der Ressourcen.
Der Erfolg des Projekts schlägt hohe Wellen bei Geberit: Ein Sammelpostfach für alle Anfragen, die Ausweitung in andere Ländermärkte und sogar ein digitaler Assistent sind in Planung.

Kundenservice 2.0 – Innovation, Effizienz, Zufriedenheit

Die Einführung von GenAI hat nicht nur den Kundenservice von Geberit revolutioniert, sondern zeigt auch, welches Potenzial in der gezielten Anwendung von KI-Technologien liegt. Die intelligente Klassifizierung von Anfragen und die automatisierte Antwortgenerierung spart nicht nur Ressourcen, sondern steigert auch die Zufriedenheit der Kund:innen. Ein wegweisendes Beispiel dafür, wie KI die Zukunft des Kundenservice gestaltet. Egal in welcher Branche!

Lesen Sie in der Case Study, wie genau Geberit und statworx das Projekt technisch umgesetzt und so GenAI gewinnbringend integriert haben. 

 

Read next …

3 Anwendungsfälle, wie ChatGPT die Kommunikation in Unternehmen revolutionieren wird
Unser KI-basierter Weihnachtsrezept-Generator (GPT-3 und DALL-E 2)

… and explore new

Warum Frontend-Entwicklung in Data Science-Anwendungen nützlich ist
Use Case Collection: Green AI

Tarik Ashry

Ticket sichern!      Zur Case Study
 
 
Das globale Wirtschaftsumfeld wird immer schnelllebiger und volatiler. Aber eines ändert sich nie: Kompetenter, effektiver Customer Support ist und bleibt einer der wichtigsten Schlüssel zu dauerhaftem Geschäftserfolg. Denn guter Service bindet Kund:innen und sorgt dafür, dass sie immer wieder zurückkehren. Doch wie bewältigen Unternehmen die Flut von anspruchsvollen Kundenanfragen, um genau das zu gewährleisten? Hier bietet generative Künstliche Intelligenz (GenAI) bislang unerreichte Möglichkeiten.

Gemeinsam mit Geberit haben wir ein KI-System entwickelt, das Kundenanfragen intelligent sortiert und automatisch Antworten erstellt. Im gemeinsamen Webinar sprechen wir über die innovative Lösung.

Freue dich auf folgende Inhalte:

  • Die Meilensteine des Projekts: Wir führen euch von der Herausforderung über die erste Idee bis hin zu unerwarteten Entwicklungen des Projekts.
  • Die Funktionsweise unseres KI-Tools: Wir erklären in einfachen Worten, wie die maßgeschneiderte KI-Lösung funktioniert.
  • Die Ergebnisse und der Business Impact: Wir zeigen, wie Geberit von der Customer Support Automation profitiert und wie andere Unternehmen das ebenfalls können!

Dich erwarten folgende Speaker:

  • Dr. Tilo Sperling, Head of AI-Projects Business Applications, Geberit
  • Dominique Lade, Senior Consultant, statworx

 
Jetzt kostenlos registrieren!

Allen registrierten Teilnehmer:innen wird im Anschluss eine Aufzeichnung des Webinars zugesandt.
 
Ticket sichern!      Zur Case Study

Ticket sichern!      Zur Case Study
 
 
Das globale Wirtschaftsumfeld wird immer schnelllebiger und volatiler. Aber eines ändert sich nie: Kompetenter, effektiver Customer Support ist und bleibt einer der wichtigsten Schlüssel zu dauerhaftem Geschäftserfolg. Denn guter Service bindet Kund:innen und sorgt dafür, dass sie immer wieder zurückkehren. Doch wie bewältigen Unternehmen die Flut von anspruchsvollen Kundenanfragen, um genau das zu gewährleisten? Hier bietet generative Künstliche Intelligenz (GenAI) bislang unerreichte Möglichkeiten.

Gemeinsam mit Geberit haben wir ein KI-System entwickelt, das Kundenanfragen intelligent sortiert und automatisch Antworten erstellt. Im gemeinsamen Webinar sprechen wir über die innovative Lösung.

Freue dich auf folgende Inhalte:

Dich erwarten folgende Speaker:

 
Jetzt kostenlos registrieren!

Allen registrierten Teilnehmer:innen wird im Anschluss eine Aufzeichnung des Webinars zugesandt.
 
Ticket sichern!      Zur Case Study