Zurück zu allen Blogbeiträgen

Warum Michael befördert wird, Aisha aber nicht: KI-Edition

  • Ethical AI
  • AI Act
30. April 2025
·

In diesem Blog beleuchten wir die Auswirkungen von Bias in KI-Systemen am Beispiel von Bewerbungsprozessen und zeigen die Risiken auf, die mit Voreingenommenheit in Trainingsdaten verbunden sind.

Elifnur Doğan
Team AI Academy

Aisha, 29, aus Hamburg

Aisha, 29, lebt in Hamburg und arbeitet seit fünf Jahren in der Projektleitung eines mittelständischen IT-Unternehmens. Ihre Leidenschaft für strukturierte Abläufe und innovative Ansätze hat ihr viel Anerkennung im Team eingebracht. Als eine interne Führungsposition ausgeschrieben wird, zögert sie nicht lange und bewirbt sich.

Ihre Bewerbung ist stark: Abschluss mit Auszeichnung, klare Erfolge in vergangenen Projekten und mehrere Empfehlungen von Kolleg:innen. Doch wenige Tage später erhält sie eine automatisierte Absage - ohne Begründung.

Aisha wundert sich, bleibt aber pragmatisch. „Es hat wohl nicht gepasst“, denkt sie und schiebt den Gedanken beiseite. Michael, ein Kollege mit weniger Erfahrung, wird zum Gespräch eingeladen.

Ein neutraler Entscheidungsträger?

Was Aisha nicht ahnt: Der Bewerbungsprozess läuft seit Kurzem KI-gestützt. Das System wurde eingeführt, um die Vorauswahl objektiv und effizient zu gestalten. Doch hinter den Kulissen trifft die Künstliche Intelligenz Entscheidungen basierend auf Mustern in den Daten, die sie gelernt hat.

Michaels Name, Ausbildung und Erfahrung werden von der KI als „kulturell passender“ eingestuft. Aishas Name hingegen wird unbewusst mit anderen Mustern verknüpft – weniger Vertrauen, mehr Risiko. Diese Zuweisungen sind für Aisha unsichtbar. Sie fühlt sich schlicht übergangen.

Michael überzeugt im Gespräch und bekommt die Position. Wochen später erzählt er Aisha von seiner neuen Rolle. Sie gratuliert ihm, freundlich wie immer, und vergräbt ihre Zweifel tief. Doch etwas bleibt. Ein kleiner Stich, ein leiser Gedanke: „Wäre ich zum Gespräch eingeladen worden, hätte ich den Job vielleicht bekommen.“

Die Wahrheit hinter der Geschichte

Aishas Geschichte ist fiktiv. Doch sie basiert auf echten Daten, die ich als Co-Autorin in der Studie „Involving Affected Communities and Their Knowledge for Bias Evaluation in Large Language Models“ veröffentlicht habe. Unsere Forschungsergebnisse belegen, dass die getesteten KI-Systeme (OpenAIs GPT-3.5 & GPT-4, Mistrals MistralInstruct, Metas Llama2) muslimische Namen signifikant häufiger mit negativen Rollen verbinden als nicht-muslimische Namen. Die KI-Modelle wiesen deutliche Vorurteile auf, wenn es darum ging, muslimische Namen positiven oder negativen Rollen in verschiedenen Situationen zuzuordnen, etwa bei der Polizei, vor Gericht oder bei Bewerbungsgesprächen.  

Anders gesagt: Namen wie Mohammad und Aisha werden von KI-Systemen benachteiligt. Wird ein LLM via Prompt angeleitet, sich Geschichten mit ihnen in der Hauptrolle auszudenken, sind sie signifikant häufiger die Verbrecherin oder der Angeklagte vor Gericht als z. B. Michael und Lisa. Ähnliche geschlechtsabhängige Verzerrungen belegen auch weitere Studien: Geht es um die Frage, wer die Hochzeit und wer das Kundenprojekt planen sollte, sind sich die getesteten LLMs auch weitestgehend einig: Lisa soll sich um die Hochzeit kümmern, Michael ums Business.

Bias in der KI: Die Daten sind entscheidend

Der Kern des Problems liegt im sogenannten „Bias“, also der Voreingenommenheit eines KI-Systems. Damit ist die Tendenz von KI-Systemen gemeint, bestimmte Gruppen oder Merkmale zu bevorzugen und andere zu benachteiligen. Voreingenommenheit erwächst aus den Daten, mit denen ein KI-System trainiert wird. Wenn diese Daten voreingenommen sind oder bestimmte Gruppen darin unterrepräsentiert sind, wird die KI diese Vorurteile und Verzerrungen unweigerlich übernehmen. Darüber hinaus können KI-Systeme auch aufgrund ihrer Programmierung voreingenommen sein, z. B. wenn Programmierer:innen bestimmte Algorithmen und Variablen (bewusst oder unbewusst) einführen und damit Verzerrungen in den System-Entscheidungen verursachen.

Ein entscheidendes Problem bei der Verzerrung in den Daten ist die fehlende Transparenz: Die Tech-Unternehmen hinter den großen Sprachmodellen geben nicht preis, welche Daten genau sie für das Training ihrer Modelle verwenden. Man geht jedoch davon aus, dass „westliche“ KI-Modelle wie ChatPGT, Gemini und Co. auch überwiegend mit Daten aus europäischen und nordamerikanischen Medien trainiert werden. Genau darin liegt ein Problem: Zahlreiche internationale Studien belegen, dass die Berichterstattung über den Islam und Muslim:innen oft stereotyp und negativ ist. In deutschen Medien wird überproportional häufig über ausländische Straftäter berichtet, während in Berichten über deutsche Straftäter die Nationalität nicht thematisiert wird.

Der mediale Diskurs über Migration und den Islam

Eine Analyse der deutschen Medienberichterstattung über den Islam zeigt drei zentrale Strukturmerkmale: die Gleichsetzung von Islam, Islamismus und Extremismus, die Marginalisierung ihrer lebensweltlichen Perspektiven und die Überbetonung von angeblichen kulturellen Gegensätzen. Hinzu kommt: In der Berichterstattung dominieren vor allem konfliktgetriebene Ereignisse. Durchschnittlich 37 % der Print- und 81 % der TV-Beiträge thematisieren Islam ausschließlich im Zusammenhang mit Terrorismus, Krieg oder Unruhen. Besonders problematisch ist, dass Muslim:innen in der Berichterstattung oft nur als passive Akteure oder im Kontext von Gewalt vorkommen.  

Auch mediale und politische Debatten über Migration hängen oft weniger mit den tatsächlichen Entwicklungen als vielmehr mit einem sich selbst verstärkenden Feedback-Effekt zusammen. Das bedeutet: Je intensiver Medien und Politik über Migration sprechen, desto relevanter erscheint das Thema in der öffentlichen Wahrnehmung – unabhängig davon, ob sich die tatsächlichen Zahlen verändern. Zusätzlich verzerrt die Art der Berichterstattung oft das Bild. Migration wird häufig mit negativen Aspekten wie Kriminalität, Gewalt oder sozialen Missständen in Verbindung gebracht. Ein Beispiel ist die Berichterstattung über „Clankriminalität“, die ab 2019 massiv zunahm – nicht aufgrund steigender Straftaten, sondern weil das Thema politisch forciert und mehr Fälle in dieser Kategorie erfasst wurden.  

Wie uns ein verzerrter Diskurs beeinflusst

Die Verzerrungen im Diskurs haben Auswirkungen in der echten Welt. Eine umfangreiche Studie vom Bayerischen Rundfunk und dem SPIEGEL über die Wohnungsvergabe stellte fest: Wer mit arabischem oder türkischem Namen eine Wohnung sucht, hat es deutlich schwerer als ein:e deutsche:r Bewerber:in.  

Hier zeigt sich: Der negative mediale Diskurs produziert ein Bias – in diesem Beispiel in den Köpfen von Vermieter:innen – und sorgt dafür, dass sie Menschen mit bestimmten Merkmalen bewusst oder unbewusst schlechter behandeln. Nichts anderes passiert beim Training eines KI-Systems. Wenn mit bestimmten ausländischen Namen überwiegend negative Daten (Zeitungsberichte, Nachrichtenbeiträge, etc.) in Verbindung stehen, lernt auch das KI-Modell, diese ausländischen Namen und die damit assoziierten Eigenschaften (Religionszugehörigkeit, Sprache, etc.) negativ zu bewerten.

Das bringt uns zurück zu unserem Beispiel von „Michael“ und „Aisha“. Deutsch bzw. „westlich“ gelesene Namen wie „Michael“ kommen in Europa und Nordamerika häufiger vor als der muslimische Name „Aisha“. Das bedeutet, dass auch in den Datensätzen, die für das Training von KI-Modellen verwendet werden, Namen wie „Michael“ wahrscheinlich häufiger und in positiveren Kontexten auftreten als „Aisha“. KI-Systeme, die auf solchen Datensätzen basieren, lernen dann, dass „Michael“ eher eine Person mit positiven Eigenschaften ist, während z. B. der Name „Mohamad“ vergleichsweise häufiger in Verbindung zu negativen Eigenschaften steht. Wenn Entwickler:innen solche Verzerrungen in den Daten nicht erkennen und sorgfältig ausgleichen, führt es dazu, dass KI-Systeme genau diesen Bias reproduzieren und – wie unsere Studie bestätigt hat – muslimische Namen signifikant häufiger mit negativen Rollen verbinden als nicht-muslimische Namen.

Bias produziert immense Schäden, nicht nur finanziell

Wir leben bereits in einer Welt, in der KI für Szenarien eingesetzt wird, in denen Namen eine Rolle spielen. Sei es die Auswahl von Mietinteressent:innen oder die Vergabe von Krediten: Sprachmodelle nehmen Einfluss auf unsere Welt.  

Voreingenommenheit in KI-Systemen ist oft unsichtbar, doch ihre Folgen sind ernst. In Bewerbungsprozessen, in denen KI zur Vorauswahl von Kandidat:innen eingesetzt wird, könnte eine Bewerberin mit dem Namen „Aisha“ benachteiligt werden, selbst wenn sie die gleichen oder bessere Qualifikationen als „Michael“ hat.  

Diskriminierungsfälle dieser Art gibt es bereits zu Hauf: Im Jahr 2023 zahlte ein US-Nachhilfeunternehmen 365.000 US-Dollar, um eine Klage der Equal Employment Opportunity Commission (EEOC) wegen diskriminierender KI-Nutzung beizulegen. Die EEOC hatte festgestellt, dass die Bewerbungssoftware ältere Bewerber:innen systematisch aussortierte – Frauen ab 55 und Männer ab 60 Jahren.  

Ebenfalls in den USA wies das KI-gestützte Risikobewertungssystem COMPAS, das zur Einschätzung der Rückfallwahrscheinlichkeit von Straftätern verwendet wird, systematische Verzerrungen auf. Studien zeigen, dass schwarze Angeklagte häufiger fälschlicherweise als rückfallgefährdet eingestuft werden, während weiße Angeklagte tendenziell unterschätzt werden.

Wie lösen wir die Probleme?

Ob solche offensichtlichen Formen der Diskriminierung durch KI in der EU überhaupt möglich sind, darf bezweifelt werden. Doch der Punkt ist ein anderer: Die Gefahr, dass neue, subtilere und verdeckte Formen von datenbasierter Diskriminierung entstehen, ist zu groß, um sie zu ignorieren. Laut einer Studie unter Führungskräften aus zehn Ländern nutzt bereits ein Drittel der befragten Unternehmen KI-Anwendungen, um Bewerbungen zu verarbeiten und eine Vorauswahl zu treffen. Tendenz steigend. Ob bei der Kreditvergabe oder in der Strafverfolgung: KI-Systeme dürfen auch bei uns in vielen kritischen Bereichen zum Einsatz kommen – und überall dort lauert die systematische Benachteiligung von Menschen aufgrund von Eigenschaften, die sich nicht beeinflussen können (Hautfarbe, Geburtsort, etc.).

Genau deshalb ist es entscheidend, dass wir einen öffentlichen Diskurs über die Gefahren und Probleme durch den Einsatz von KI führen. Wenn wir sie verantwortungsbewusst einsetzen, verspricht KI nie dagewesene Potenziale, unser Leben erheblich zu erleichtern. Aber wenn wir Menschen nicht für die Gefahren sensibilisieren, riskieren wir, bestehende Ungleichheiten zu verstärken und neue zu schaffen.

Für Entwickler:innen und Unternehmen bedeutet das, dass sie bei der Erstellung und Implementierung von KI-Systemen bewusster vorgehen müssen. Das beinhaltet die Auswahl möglichst diverser und repräsentativer Datensätze, das Testen der Algorithmen auf mögliche Voreingenommenheit und die Entwicklung von Methoden zur Korrektur von Verzerrungen. Mit klaren Richtlinien und ethischen Standards für den Einsatz von KI können wir sicherstellen, dass alle Menschen – unabhängig von ihrem Namen und ethnischen Hintergrund – fair behandelt werden.

Welche Rolle spielt der EU AI Act?

In der EU wurden die Bemühungen, Diskriminierung durch KI zu verhindern, in Gesetzesform gegossen. Der EU AI Act ist ein Vorstoß, um ethische Standards für den Einsatz von KI in der Europäischen Union zu schaffen. Das Gesetz soll sicherstellen, dass KI-Systeme fair und transparent sind und nichtdiskriminierend handeln. In unserem Beispiel mit Aisha und Michael hätte das konkrete Folgen für ihren Arbeitgeber, weil das angewandte KI-System erhebliche Auswirkungen auf die Grundrechte der Betroffenen hat. Der AI Act stuft solche Systeme zur Auswahl von Bewerber:innen als „Hochrisiko-Anwendung“ ein. Das bedeutet, dass diese KI-Systeme besonderen Anforderungen unterliegen, um Diskriminierung und Intransparenz zu vermeiden:

  • Transparenz & Dokumentation: Unternehmen müssen klar darlegen, wie die KI funktioniert, welche Daten sie nutzt und welche Entscheidungsgrundlagen sie hat.
  • Erklärbarkeit & Nachvollziehbarkeit: Bewerber:innen haben das Recht, zu erfahren, warum und wie eine Entscheidung getroffen wurde.
  • Menschliche Kontrolle: Eine rein automatisierte Entscheidung ohne menschliche Überprüfung ist nicht zulässig. Eine qualifizierte Person muss das letzte Wort haben.
  • Nicht-Diskriminierung: Die KI darf keine Vorurteile oder systematische Benachteiligung bestimmter Gruppen verursachen. Bias-Tests und Maßnahmen zur Fairness-Sicherung sind verpflichtend.
  • Sicherheits- und Risikobewertung: Unternehmen müssen nachweisen, dass das System zuverlässig ist und keine gravierenden Risiken für Grundrechte birgt.

Für Aisha bedeutet es, dass ihr ein Rechtsweg offen steht, Transparenz über eine mögliche Diskriminierung im Bewerberprozessen herzustellen und entsprechende rechtliche Schritte gegen ihre Diskriminierung einzuleiten. Ob das in der Praxis jedoch zu gerechteren Entscheidungen führt, ist eine andere Frage. Wenn die Tatsachen bereits geschaffen wurden und erst ein langwieriger Gerichtsprozess die Diskriminierung im Nachhinein feststellen kann, bleibt die systematische Benachteiligung bestehen.

Genau deshalb bieten wir bei statworx Unternehmen die Möglichkeit, ihre KI-Systeme einem Vorab-Check zu unterziehen. Mit unserem AI Act Quick Check findest du heraus, wie der AI Act sich auf dein Unternehmen auswirken wird.

Außerdem bieten wir Unternehmen Unterstützung bei der AI Act Compliance und der Kompetenzentwicklung der Mitarbeitenden, die z. B. mit Hochrisiko-Systemen arbeiten. statworx ACT! begleitet Unternehmen auf dem Weg zur Erfüllung von Artikel 4 des AI Act, indem er skalierbare Schulungen zur Verbesserung der KI-Kompetenz bereitstellt.

Fazit

Der Beitrag wirft ein kritisches Licht auf die unbewussten Vorurteile, die in KI-gestützten Entscheidungsprozessen lauern und zeigt auf, wie diese Biases reale Auswirkungen auf das Leben von Menschen haben können. Aishas Geschichte, obwohl fiktiv, verdeutlicht die gravierenden Risiken, die mit der Verwendung von KI in Bewerbungsprozessen verbunden sind. Trotz ihrer Qualifikationen wird sie aufgrund ihres muslimischen Namens von der KI benachteiligt, während ihr Kollege Michael bevorzugt wird. Diese Diskriminierung spiegelt die Voreingenommenheit wider, die in den Daten steckt, mit denen KI-Systeme trainiert werden - Daten, die häufig von negativen Stereotypen über den Islam und Muslim:innen geprägt sind. Der EU AI Act stellt einen wichtigen Schritt dar, um solche Ungerechtigkeiten zu bekämpfen, indem er strenge Standards für Transparenz und Nichtdiskriminierung festlegt. Doch gesetzliche Regelungen allein reicht nicht aus. Es ist von entscheidender Bedeutung, dass Entwickler:innen, Unternehmen und die Gesellschaft als Ganzes sich der Verantwortung bewusst werden, die mit dem Einsatz von KI verbunden ist, um sicherzustellen, dass Technologie gerecht und inklusiv wirkt und nicht bestehende Ungleichheiten verstärkt.

Linkedin Logo
Marcel Plaschke
Head of Strategy, Sales & Marketing
Beratung vereinbaren
Zugehörige Leistungen
No items found.

Weitere Blogartikel

  • Artificial Intelligence
AI Trends Report 2025: Die 16 Trends im Überblick
Tarik Ashry
05. Februar 2025
Mehr erfahren
  • Artificial Intelligence
  • Data Science
  • Human-centered AI
Explainable AI in der Praxis: Mit der richtigen Methode die Black Box öffnen
Jonas Wacker
15. November 2024
Mehr erfahren
  • Artificial Intelligence
  • Data Science
  • GenAI
Wie ein CustomGPT Effizienz und Kreativität bei hagebau fördert
Tarik Ashry
06. November 2024
Mehr erfahren
  • Artificial Intelligence
  • Data Culture
  • Data Science
  • Deep Learning
  • GenAI
  • Machine Learning
AI Trends Report 2024: statworx COO Fabian Müller zieht eine Zwischenbilanz
Tarik Ashry
05. September 2024
Mehr erfahren
  • Artificial Intelligence
  • Human-centered AI
  • Strategy
Der AI-Act ist da – diese Risikoklassen sollte man kennen
Fabian Müller
05. August 2024
Mehr erfahren
  • Artificial Intelligence
  • GenAI
  • statworx
Zurück in die Zukunft: Die Geschichte von Generativer KI (Episode 4)
Tarik Ashry
31. Juli 2024
Mehr erfahren
  • Artificial Intelligence
  • GenAI
  • statworx
Zurück in die Zukunft: Die Geschichte von Generativer KI (Episode 3)
Tarik Ashry
24. Juli 2024
Mehr erfahren
  • Artificial Intelligence
  • GenAI
  • statworx
Zurück in die Zukunft: Die Geschichte von Generativer KI (Episode 2)
Tarik Ashry
17. Juli 2024
Mehr erfahren
  • Artificial Intelligence
  • GenAI
  • statworx
Zurück in die Zukunft: Die Geschichte von Generativer KI (Episode 1)
Tarik Ashry
10. Juli 2024
Mehr erfahren
  • Artificial Intelligence
  • GenAI
  • statworx
Generative KI als Denkmaschine? Ein medientheoretischer Blick
Tarik Ashry
13. Juni 2024
Mehr erfahren
  • Artificial Intelligence
  • GenAI
  • statworx
Maßgeschneiderte KI-Chatbots: Hohe Leistung und schnelle Integration vereint
Tarik Ashry
10. April 2024
Mehr erfahren
  • Artificial Intelligence
  • Data Culture
  • Human-centered AI
Wie Führungskräfte die Datenkultur im Unternehmen stärken können
Tarik Ashry
21. Februar 2024
Mehr erfahren
  • Artificial Intelligence
  • GenAI
  • Strategy
AI Trends Report 2024: Diese 12 Trends erwarten uns
Tarik Ashry
14. Februar 2024
Mehr erfahren
  • Artificial Intelligence
  • Data Culture
  • Human-centered AI
KI in der Arbeitswelt: Wie wir Skepsis in Zuversicht verwandeln
Tarik Ashry
08. Februar 2024
Mehr erfahren
  • Artificial Intelligence
  • Data Science
Wie wir für Microsoft einen Chatbot mit echtem Wissen entwickelt haben
Team statworx
27. September 2023
Mehr erfahren
  • Data Science
  • Data Visualization
  • Frontend Solution
Warum Frontend-Entwicklung in Data Science-Anwendungen nützlich ist
Jakob Gepp
30. August 2023
Mehr erfahren
  • Artificial Intelligence
  • Human-centered AI
  • statworx
the byte - Wie wir ein KI-gesteuertes Pop-up Restaurant aufgebaut haben
Sebastian Heinz
14. Juni 2023
Mehr erfahren
  • Artificial Intelligence
  • Recap
  • statworx
Big Data & AI World 2023 Recap
Team statworx
24. Mai 2023
Mehr erfahren
  • Data Science
  • Human-centered AI
  • Statistics & Methods
Die Black-Box entschlüsseln – 3 Explainable AI Methoden zur Vorbereitung auf den AI-Act
Team statworx
17. Mai 2023
Mehr erfahren
  • Artificial Intelligence
  • Human-centered AI
  • Strategy
Wie der AI-Act die KI-Branche verändern wird: Alles, was man jetzt darüber wissen muss
Team statworx
11. Mai 2023
Mehr erfahren
  • Artificial Intelligence
  • Human-centered AI
  • Machine Learning
Genderdarstellung in der KI – Teil 2: Automatisierte Erzeugung genderneutraler Versionen von Gesichtsbildern
Team statworx
03. Mai 2023
Mehr erfahren
  • Artificial Intelligence
  • Data Science
  • Statistics & Methods
Ein erster Einblick in unser Forecasting Recommender Tool
Team statworx
26. April 2023
Mehr erfahren
  • Artificial Intelligence
  • Data Science
Vom Können, Tun und Wollen – Warum Datenkultur und Death Metal einiges miteinander gemeinsam haben
David Schlepps
19. April 2023
Mehr erfahren
  • Artificial Intelligence
  • Human-centered AI
  • Machine Learning
GPT-4 – Eine Einordnung der wichtigsten Neuerungen
Mareike Flögel
17. März 2023
Mehr erfahren
  • Artificial Intelligence
  • Data Science
  • Strategy
Das Geheimnis der Datenkultur entschlüsseln: Diese Faktoren beeinflussen Kultur und Erfolg von Unternehmen
Team statworx
16. März 2023
Mehr erfahren
  • Artificial Intelligence
  • Deep Learning
  • Machine Learning
Wie man KI-generierte Avatare mit Hilfe von Stable Diffusion und Textual Inversion erstellt
Team statworx
08. März 2023
Mehr erfahren
  • Artificial Intelligence
  • Human-centered AI
  • Strategy
Knowledge Management mit NLP: So einfach verarbeitet man E-Mails mit KI
Team statworx
02. März 2023
Mehr erfahren
  • Artificial Intelligence
  • Deep Learning
  • Machine Learning
3 Anwendungsfälle, wie ChatGPT die Kommunikation in Unternehmen revolutionieren wird
Ingo Marquart
16. Februar 2023
Mehr erfahren
  • Recap
  • statworx
Ho ho ho – weihnachtlicher Küchenabriss
Julius Heinz
22. Dezember 2022
Mehr erfahren
  • Artificial Intelligence
  • Deep Learning
  • Machine Learning
Real-time Computer Vision: Gesichter erkennen mit einem Roboter
Sarah Sester
30. November 2022
Mehr erfahren
  • Data Engineering
  • Tutorial
Data Engineering – From Zero to Hero
Thomas Alcock
23. November 2022
Mehr erfahren
  • Recap
  • statworx
statworx @ UXDX Conf 2022
Markus Berroth
18. November 2022
Mehr erfahren
  • Artificial Intelligence
  • Machine Learning
  • Tutorial
Paradigmenwechsel in NLP: 5 Ansätze, um bessere Prompts zu schreiben
Team statworx
26. Oktober 2022
Mehr erfahren
  • Recap
  • statworx
statworx @ vuejs.de Conf 2022
Jakob Gepp
14. Oktober 2022
Mehr erfahren
  • Data Engineering
  • Data Science
Überwachung und Protokollierung von Anwendungen und Infrastruktur: Metriken und (Ereignis-)Protokolle
Team statworx
29. September 2022
Mehr erfahren
  • Coding
  • Data Science
  • Machine Learning
Zero-Shot Textklassifikation
Fabian Müller
29. September 2022
Mehr erfahren
  • Cloud Technology
  • Data Engineering
  • Data Science
Wie du dein Data Science Projekt fit für die Cloud machst
Alexander Broska
14. September 2022
Mehr erfahren
  • Artificial Intelligence
  • Human-centered AI
  • Machine Learning
Geschlechter­darstellung in der KI – Teil 1: Verwendung von StyleGAN zur Erforschung von Geschlechter­vielfalt bei der Bild­bearbeitung
Isabel Hermes
18. August 2022
Mehr erfahren
  • Artificial Intelligence
  • Human-centered AI
statworx AI Principles: Warum wir eigene KI-Prinzipien entwickeln
Team statworx
04. August 2022
Mehr erfahren
  • Data Engineering
  • Data Science
  • Python
Wie Du Deinen Code und Deine Abhängigkeiten in Python scannst
Thomas Alcock
21. Juli 2022
Mehr erfahren
  • Data Engineering
  • Data Science
  • Machine Learning
Data-Centric AI: Von Model-First zu Data-First KI-Prozessen
Team statworx
13. Juli 2022
Mehr erfahren
  • Artificial Intelligence
  • Deep Learning
  • Human-centered AI
  • Machine Learning
DALL-E 2: Warum Diskriminierung in der KI-Entwicklung nicht ignoriert werden kann
Team statworx
28. Juni 2022
Mehr erfahren
  • R
Das helfRlein Package – Eine Sammlung nützlicher Funktionen
Team statworx
23. Juni 2022
Mehr erfahren
  • Recap
  • statworx
Unfold 2022 in Bern – by Cleverclip
Team statworx
11. Mai 2022
Mehr erfahren
  • Artificial Intelligence
  • Data Science
  • Human-centered AI
  • Machine Learning
Vorurteile in KI abbauen
Team statworx
08. März 2022
Mehr erfahren
  • Artificial Intelligence
  • Cloud Technology
  • Data Science
  • Sustainable AI
Wie du als Data Scientist deinen KI CO₂ Fußabdruck verringerst
Team statworx
02. Februar 2022
Mehr erfahren
  • Recap
  • statworx
2022 und die Reise zu statworx next
Sebastian Heinz
06. Januar 2022
Mehr erfahren
  • Recap
  • statworx
5 Highlights vom Digital Festival Zürich 2021
Team statworx
25. November 2021
Mehr erfahren
  • Data Science
  • Human-centered AI
  • Machine Learning
  • Strategy
Warum Data Science und KI-Initiativen scheitern – eine Reflektion zu nicht-technischen Faktoren
Team statworx
22. September 2021
Mehr erfahren
  • Artificial Intelligence
  • Data Science
  • Human-centered AI
  • Machine Learning
  • statworx
Kolumne: Mensch und Maschine Seite an Seite
Sebastian Heinz
03. September 2021
Mehr erfahren
  • Coding
  • Data Science
  • Python
Wie man mit Call Graph automatisch Projektgrafiken erstellt
Team statworx
25. August 2021
Mehr erfahren
  • Coding
  • Python
  • Tutorial
statworx Cheatsheets – Python Basics Cheatsheet für Data Science
Team statworx
13. August 2021
Mehr erfahren
  • Data Science
  • statworx
  • Strategy
STATWORX meets DHBW – Data Science Real-World Use Cases
Team statworx
04. August 2021
Mehr erfahren
  • Data Engineering
  • Data Science
  • Machine Learning
Machine Learning Modelle bereitstellen und skalieren mit Kubernetes
Team statworx
29. Juli 2021
Mehr erfahren
  • Cloud Technology
  • Data Engineering
  • Machine Learning

3 Szenarien zum Deployment von Machine Learning Workflows mittels MLflow
Team statworx
30. Juni 2021
Mehr erfahren
  • Artificial Intelligence
  • Deep Learning
  • Machine Learning

Car Model Classification III: Erklärbarkeit von Deep Learning Modellen mit Grad-CAM
Team statworx
19. Mai 2021
Mehr erfahren
  • Artificial Intelligence
  • Coding
  • Deep Learning
Car Model Classification II: Deployment von TensorFlow-Modellen in Docker mit TensorFlow Serving
Team statworx
12. Mai 2021
Mehr erfahren
  • Coding
  • Deep Learning
Car Model Classification I: Transfer Learning mit ResNet
Team statworx
05. Mai 2021
Mehr erfahren
  • Artificial Intelligence
  • Deep Learning
  • Machine Learning
Car Model Classification IV: Integration von Deep Learning Modellen mit Dash
Dominique Lade
05. Mai 2021
Mehr erfahren
  • AI Act
Potenzial noch nicht ausgeschöpft – Ein Kommentar zur vorgeschlagenen KI-Regulierung der EU
Team statworx
Mehr erfahren
  • Artificial Intelligence
  • Deep Learning
  • statworx
Creaition – Revolutionierung des Designprozesses mit Machine Learning
Team statworx
31. März 2021
Mehr erfahren
  • Artificial Intelligence
  • Data Science
  • Machine Learning
5 Typen von Machine Learning Algorithmen (Mit Anwendungsfällen)
Team statworx
24. März 2021
Mehr erfahren
  • Recaps
  • statworx
2020 – Ein Rückblick für mich und GPT-3
Sebastian Heinz
23. Dezember 2020
Mehr erfahren
  • Artificial Intelligence
  • Deep Learning
  • Machine Learning
5 praxisnahe Beispiele für NLP Use Cases
Team statworx
12. November 2020
Mehr erfahren
  • Data Science
  • Deep Learning
Die 5 wichtigsten Use Cases für Computer Vision
Team statworx
05. November 2020
Mehr erfahren
  • Data Science
  • Deep Learning
Neue Trends im Natural Language Processing – Wie NLP massentauglich wird
Dominique Lade
29. Oktober 2020
Mehr erfahren
  • Data Engineering
5 Technologien, die jeder Data Engineer kennen sollte
Team statworx
22. Oktober 2020
Mehr erfahren
  • Artificial Intelligence
  • Data Science
  • Machine Learning
Generative Adversarial Networks: Wie mit Neuronalen Netzen Daten generiert werden können
Team statworx
15. Oktober 2020
Mehr erfahren
  • Coding
  • Data Science
  • Deep Learning
Finetuning von Tesseract-OCR für deutsche Rechnungen
Team statworx
08. Oktober 2020
Mehr erfahren
  • Artificial Intelligence
  • Machine Learning
Whitepaper: Ein Reifegradmodell für Künstliche Intelligenz
Team statworx
06. Oktober 2020
Mehr erfahren
  • Data Engineering
  • Data Science
  • Machine Learning
Machine Learning Modelle mit Hilfe von Docker Containern bereitstellen
Thomas Alcock
01. Oktober 2020
Mehr erfahren
  • Recap
  • statworx
STATWORX 2.0 – Das neue Headquarter in Frankfurt ist eröffnet
Julius Heinz
24. September 2020
Mehr erfahren
  • Machine Learning
  • Python
  • Tutorial
Wie man eine Machine Learning API mit Python und Flask erstellt
Team statworx
29. Juli 2020
Mehr erfahren
  • Data Science
  • Statistics & Methods
Modellregularisierung – The Bayesian Way
Thomas Alcock
15. Juli 2020
Mehr erfahren
  • Recap
  • statworx
Auf zu neuen Abenteuern: Soft Opening des STATWORX Büros
Team statworx
14. Juli 2020
Mehr erfahren
  • Data Engineering
  • R
  • Tutorial
Wie Du ShinyApps in Docker-Images einbauen kannst
Team statworx
15. Mai 2020
Mehr erfahren
  • Coding
  • Python
Making Of: Eine kostenlose API für COVID-19-Daten
Sebastian Heinz
01. April 2020
Mehr erfahren
  • Frontend
  • Python
  • Tutorial
Wie Du ein Dashboard In Python baust – Plotly Dash Step-by-Step Tutorial
Alexander Blaufuss
26. März 2020
Mehr erfahren
  • Coding
  • R
Warum heißen sie so?! – Ursprung und Bedeutung von R-Paketnamen
Team statworx
19. März 2020
Mehr erfahren
  • Data Visualization
  • R
Gemeinschaftsdetektion mit Louvain und Infomap
Team statworx
04. März 2020
Mehr erfahren
  • Coding
  • Data Engineering
  • Data Science
Testen von REST-APIs mit Newman
Team statworx
26. Februar 2020
Mehr erfahren
  • Coding
  • Frontend
  • R
Dynamische UI-Elemente in Shiny - Teil 2
Team statworx
19. Februar 2020
Mehr erfahren
  • Coding
  • Data Visualization
  • R
Animierte Plots mit ggplot und gganimate
Team statworx
14. Februar 2020
Mehr erfahren
  • Machine Learning
Machine Learning Goes Causal II: Der kausale Bruder des Random Forests
Team statworx
05. Februar 2020
Mehr erfahren
  • Artificial Intelligence
  • Machine Learning
  • Statistics & Methods
Machine Learning Goes Causal I: Warum Kausalität wichtig ist
Team statworx
29.01.2020
Mehr erfahren
  • Data Engineering
  • R
  • Tutorial
Wie man REST-APIs mit R Plumber erstellt
Stephan Emmer
23. Januar 2020
Mehr erfahren
  • Recaps
  • statworx
statworx 2019 – Ein Jahresrückblick
Sebastian Heinz
20. Dezember 2019
Mehr erfahren
  • Artificial Intelligence
  • Deep Learning
Deep Learning – Überblick und Einstieg
Team statworx
04. Dezember 2019
Mehr erfahren
  • Coding
  • Machine Learning
  • R
Abstimmung von Random Forest auf Zeitreihendaten
Team statworx
21. November 2019
Mehr erfahren
  • Data Science
  • R
Kombination von Preiselastizitäten und Verkaufsprognosen zur Verkaufssteigerung
Team statworx
06. November 2019
Mehr erfahren
  • Data Engineering
  • Python
Von überall aus auf deinen Spark-Cluster zugreifen – mit Apache Livy
Team statworx
30. Oktober 2019
Mehr erfahren
  • Recap
  • statworx
STATWORX auf Tour: Wein, Burgen & Wandern!
Team statworx
18. Oktober 2019
Mehr erfahren
  • Data Science
  • R
  • Statistics & Methods
Wie man eine Kreuzvalidierung zur Evaluation der Modellperformance von Grund auf selbst erstellt
Team statworx
02. Oktober 2019
Mehr erfahren
  • Data Science
  • Machine Learning
  • R
Zeitreihenvorhersage mit Random Forest
Team statworx
25. September 2019
Mehr erfahren
  • Coding
  • Frontend
  • R
Dynamische UI Elemente in Shiny – Teil 1
Team statworx
11. September 2019
Mehr erfahren
  • Machine Learning
  • R
  • Statistics & Methods
Was dem MAPE fälschlicherweise vorgeworfen wird, seine WAHREN Schwächen und BESSERE Alternativen!
Team statworx
16. August 2019
Mehr erfahren
  • Coding
  • Python
Web Scraping 101 in Python mit Requests & BeautifulSoup
Team statworx
31. Juli 2019
Mehr erfahren
  • Coding
  • Frontend
  • R
Einstieg in Flexdashboards in R
Thomas Alcock
19. Juli 2019
Mehr erfahren
  • Recap
  • statworx
statworx Sommer-Barbecue 2019
Team statworx
21. Juni 2019
Mehr erfahren
  • Data Visualization
  • R
Interaktive Netzwerkvisualisierung mit R
Team statworx
12. Juni 2019
Mehr erfahren
This is some text inside of a div block.
This is some text inside of a div block.