Zurück zu allen Blogbeiträgen

Explainable AI in der Praxis: Mit der richtigen Methode die Black Box öffnen

  • Artificial Intelligence
  • Data Science
  • Human-centered AI
15. November 2024
·

Jonas Wacker
Team AI Development

Mit dem Aufkommen immer komplexerer, mächtigerer KI-Modelle wächst auch der Bedarf an Transparenz, nicht zuletzt aufgrund rechtlicher Anforderungen. Während solche Black-Box-Modelle oft effektiver, flexibler und genauer sind als z. B. leicht nachvollziehbare Regressionsmodelle, stehen sie vor dem Problem der mangelnden Erklärbarkeit. Hier kommt Explainable AI (XAI) ins Spiel, ein zunehmend wichtiger Bestandteil sowohl in der Forschung als auch in der Praxis.
Die Nachfrage nach XAI wächst, da Unternehmen und Entwickler:innen erkennen, dass viele KI-Lösungen nicht genutzt werden, wenn sie nicht erklärbar sind – insbesondere in kritischen Bereichen wie Finance und Pharma. Ein Grund: In der Vergangenheit wurde auf XAI entweder komplett verzichtet oder lediglich oberflächlich die erstbeste Methode angewendet, um Ergebnisse in Präsentationen zu verpacken. Doch damit kommt man nicht mehr weiter.

Wir bei statworx plädieren dafür, XAI als Best-Practice im Entwicklungsprozess zu betrachten. Es muss von Anfang an in die Planung integriert werden. Dieser Blogpost richtet sich deshalb vornehmlich an Data Scientists, die tiefer in das Thema XAI einsteigen und XAI in der Praxis anwenden wollen. Wir präsentieren zehn praxisnahe Kriterien, um die richtige XAI-Methode zu finden und damit den Erfolg von KI-Projekten zu gewährleisten.

1. Welche Zielgruppe wird durch die Erklärung angesprochen?

“Erkläre {{TERM}} für ein fünfjähriges Kind” ist ein bekannter ChatGPT Prompt. Darin drückt sich das implizite Verständnis aus: Erklärungen müssen sich an den Bedürfnissen und Kenntnissen der Zielgruppe ausrichten, um effektiv zu sein. Wenn ich von einem Thema wenig oder nichts verstehe, hilft mir vielleicht eine Erklärung für ein Kleinkind am besten weiter. Leider hat die Bedeutung von Erklärungen in KI-Projekte noch keinen Einzug erhalten. XAI ist ein junges Forschungsfeld und findet bisher vornehmlich unter Entwickler:innen Beachtung, die es für das Debugging ihrer KI-Modelle einsetzten. Mit der Verbreitung von KI-Anwendungen in immer mehr Bereichen betreten allerdings jetzt zahlreiche neue Stakeholder ohne technischen Hintergrund das Feld und fordern Erklärungen für die Funktionsweise “ihrer” KI. Diese neuen Zielgruppen bringen unterschiedliche Kenntnisse, aber auch Motivationen und Fragestellungen mit. XAI muss in der Zukunft all diese Stakeholder adäquat ansprechen, um Akzeptanz zu finden und Wert zu schaffen.

2. Welcher Geschäftswert soll durch die Erklärungen geschaffen werden?

Nicht jedes Problem erfordert den Einsatz von KI. Gleichermaßen erfordert nicht jede KI zwingend Erklärbarkeit. XAI ist in der Praxis kein Selbstzweck, sondern ein Mittel zur Schaffung eines konkreten Mehrwerts. Daher sollte bereits zu Projektbeginn entschieden werden, welches Maß an Erklärbarkeit für die zu entwickelnde KI-Lösung erforderlich ist. Wenn mir ein Musik-Streamingdienst einen neuen Song vorschlägt, möchte ich keinen zwölfseitigen PDF-Bericht lesen, der die KI-Entscheidung im Detail erklärt. Wenn eine KI allerdings eine Behandlungsempfehlung an meinen Arzt ausspricht, ist genau diese detaillierte Nachvollziehbarkeit absolut notwendig, damit mein Arzt sicherstellen kann, dass diese Empfehlung die sinnvollste und angemessenste ist. Kurzum: Die Einbindung von XAI erfordert zusätzlichen Entwicklungsaufwand, der durch einen klar definierten Nutzen für das Unternehmen gerechtfertigt werden muss. Deshalb ist es erfolgsentscheidend, diesen Nutzen möglichst klar zu erfassen und zu quantifizieren, bevor die erste Zeile Code geschrieben wird.

3. Welche Fragen sollen die Erklärungen beantworten?

Eine Erklärung ist fundamental eine Antwort auf eine Frage. Der Nutzen von XAI bemisst sich also daran, wie gut es die Fragen der Stakeholder adressiert. In KI-Projekten können diverse Arten von Fragen auftreten, die unterschiedliche XAI-Ansätze und Methoden erfordern. Häufig wollen Stakeholder zum Beispiel wissen, wie eine bestimmte KI-Entscheidung zustande kam. Methoden wie “SHAP” oder “LIME” können dabei helfen, die relevanten Einflussfaktoren zu identifizieren und deren genauen Einfluss auf die Vorhersage zu beschreiben. Ein:e abgelehnte:r Bewerber:in möchte vielleicht wissen, was ihr oder ihm zur Einstellung gefehlt hat. Hier können “Counterfactual Explanations” oder Prototypen und Criticisms helfen, die Entscheidung nachzuvollziehen und konkrete Verbesserungen für das nächste Interview abzuleiten. Entscheidungsträger:innen hingegen würden gerne wissen, ob sie einer KI-Entscheidung trauen können oder nicht. Hier können XAI-Methoden wie “Conformal Predictions” Vorhersageunsicherheiten des KI-Modells aufdecken. Die Anzahl der möglichen Fragen ist endlos. Das Ziel sollte daher sein, die wirklich relevanten Fragen zu definieren und adäquate XAI-Methoden für deren Beantwortung zu Rate zu ziehen.

4. Wie wichtig ist die Exaktheit der Zahlen in der Erklärung?

In der Mathematik gilt: Je exakter, desto besser. Und tatsächlich: Idealerweise sollte uns XAI stets exakte Berechnungen liefern, die das Modellverhalten fehlerfrei beschreiben. Ein fundamentales Problem mit diesem Ansatz ist, dass wir XAI anwenden, weil wir unser Modell nicht verstehen. Ob eine Erklärung also exakt ist oder nicht, lässt sich nicht ohne Weiteres ermitteln. Deswegen sollten wir XAI in der Praxis stets als Approximation verstehen. Klar ist dennoch, dass, je nach Daten und Anwendungsfall manche Methoden exakter sind als andere. Die beliebten “Shapley Values” lassen sich zum Beispiel exakt berechnen, was allerdings bei großen Datensätzen zu explodierender Rechenzeit führen kann. Eine Approximation der Shapley Values kann hingegen häufig in einem Bruchteil der Zeit ermittelt werden. Geht es lediglich um eine grobe Einordnung des Modellverhaltens, sollten wir offen dafür sein, ein gewisses Maß an Exaktheit für mehr Effizienz einzutauschen. In kritischen Anwendungsfällen, in denen jede Nachkommastelle zählt, muss eine höhere Rechenzeit allerdings in Kauf genommen werden.

5. Welcher Datentyp liegt vor?

Die Welt der Daten ist vielfältig: Neben tabellarischen Daten begegnen uns überall auch Bilder, Texte, Audios und Graphen. Obwohl viele XAI-Algorithmen modellagnostisch sind, sind nur die wenigsten datentyp-agnostisch. Zwar lassen sich SHAP, LIME und Co. oft abstrahieren und somit auf nicht-tabellarische Daten anwenden. Allzu oft ist hier aber die Forschung noch recht dünn und nur wenige vorgefertigte Code-Bibliotheken sind verfügbar. Das resultiert in einem hohen Aufwand für die Recherche, Implementierung und Verprobung eigener Algorithmen. Ein weiterer Aspekt ist, dass viele Datentypen mit der Anwendung bestimmter Modelltypen assoziiert sind. Zum Beispiel findet bei tabellarischen Daten oft ein “Random Forest” Einsatz, während Bilddaten zumeist mit neuronalen Netzen wie CNNs oder Transformern verarbeitet werden. In der Praxis kann der Datentyp also die Bandbreite der verfügbaren, insbesondere aber die der umsetzbaren, XAI-Methoden einschränken. Andererseits eröffnet aber die Beschäftigung mit dem Datentyp auch den Weg zu modellspezifischen Erklärungsalgorithmen.

6. Welche Dimensionalität haben die Daten?

Je komplexer ein Wirkungszusammenhang, umso schwerer ist dessen Erklärung. Das führt dazu, dass XAI-Entwickler:innen zu den wenigen Data Scientists gehören, die von großen Datensätzen eher verunsichert als ermutigt sind. In der Praxis ist dabei insbesondere die Anzahl der Features (bzw. Spalten in einer Tabelle) relevant. Hier gilt: Je mehr Features vorhanden sind und je stärker diese korrelieren, desto aufwendiger wird die Berechnung einer akkuraten Erklärung. Anders gesagt: Durch eine exakte Berechnung von SHAP können Korrelationen zwischen allen Features berücksichtigt werden. Doch diese Eigenschaft, die bei zehn Features verlockend klingt, wird bei mehr als 100 Features zum Problem für die Berechnung.

Wenn also Daten mit vielen Features vorliegen, sollten drei Ansätze geprüft werden:

1. Oft besteht die Möglichkeit, Features zu gruppieren (z. B. durch Korrelationsanalyse) und Erklärungen mit gruppierten Features zu berechnen.

2. Beliebte Methoden wie SHAP bieten oft die Möglichkeit, durch Sampling einen Kompromiss zwischen Exaktheit und Recheneffizienz zu erzielen.

3. Auch simplere Methoden, die Feature-Interaktionen ignorieren, können geeignet sein. Für globale Feature Importance, zum Beispiel, lässt sich SHAP durch die effizientere Permutation Feature Importance (PFI) ersetzen.

7. Welcher Modelltyp und welches Framework werden für Training und Inferenz genutzt?

Neben modellagnostischen Methoden wie SHAP und ALE enthält der XAI-Werkzeugkoffer zahlreiche modellspezifische Methoden und effizientere Implementierungen existierender Methoden. Für mathematisch differenzierbare Modelle wie Neuronale Netze kann für die Berechnung von Feature Importance zum Beispiel “Integrated Gradients” angewandt werden. Für baumbasierte Modelle wie Random Forests liegt mit Tree-SHAP eine effiziente SHAP-Implementierung vor. Im Einzelfall kann durch modellspezifische Methoden eine bessere Erklärung erreicht oder die Recheneffizienz erhöht werden. In der Praxis ist neben dem Modelltyp auch das Framework relevant, in dem das Modell entwickelt wurde bzw. in dem die Modellinferenz stattfindet. Das liegt insbesondere daran, dass Code-Bibliotheken für XAI oft für bestimmte Frameworks ausgelegt sind und gegebenenfalls aufwendig adaptiert werden müssen. Ist eine Python-Bibliothek zum Beispiel auf ein Scikit-Learn-Modell ausgelegt (model.predict(), model.predict_proba(), model.score(), etc.), muss für Modelle aus anderen Frameworks wie XGB, Tensorflow oder Pytorch gegebenenfalls ein Wrapper geschrieben werden, bevor der Code funktioniert. Modelltyp und Framework haben also direkte Implikationen für die Implementierung von XAI-Methoden.

8. Besteht Zugriff auf das Modell und die Trainingsdaten?

Um Erklärungen zu berechnen, kann man idealerweise auf das Modell, dessen Parameter und die gesamten Trainingsdaten zugreifen. In der Praxis erhält man allerdings oft nur Zugriff auf eine Inferenz-API, die Teile des Modells vor den Nutzer:innen versteckt. Wer beispielsweise GPT-4 über die OpenAI API abruft, hat keinen direkten Zugriff auf dessen Modellparameter. Einige XAI-Methoden, insbesondere modellspezifische, können in einem solchen Szenario bereits eliminiert werden. Stattdessen sollten modellagnostische Methoden wie SHAP oder LIME in Betracht gezogen werden, da diese auf Ebene der Inputs und Outputs arbeiten. Auch auf Trainingsdaten (oder zumindest einen Teil davon) gewährt OpenAI keinen Zugriff. Einige XAI-Methoden wie SHAP sind allerdings auf einen Referenzdatensatz angewiesen, um korrekte Schlussfolgerungen über die Struktur und Zusammenhänge der dem Modell zugrunde liegenden Daten zu treffen. Der Zugriff auf das Modell und die Trainingsdaten ist ein Faktor, der besonders häufig übersehen wird und häufig zu Problemen führt.

9. Welche Recheninfrastruktur soll zur Berechnung der Erklärungen genutzt werden?

Während der Entwicklung liegen Machine-Learning-Modelle und XAI-Algorithmen oft auf lokalen Notebooks. Diese sind zwar leichter zu erstellen, aber nicht sicher, zuverlässig und flexibel genug für eine Inbetriebnahme der KI-Lösung. Wenn z. B. zusätzlich zu den Modellvorhersagen XAI-Komponenten wie Shapley Values berechnet werden sollen, muss vorherdefiniert sein, wann und wie diese zusätzliche Rechenleistung erbracht wird. Insbesondere große Deep-Learning Modelle laufen oft auf einem virtuellen Cloud-Rechner, der von Endnutzer:innen nur über eine API angezapft wird. Dadurch stellt sich die Frage, wo, wann und wie zusätzliche XAI-Algorithmen ausgeführt werden sollen.

Hinzu kommt ein zweites potenzielles Problem: Eine XAI-Methode funktioniert zwar prinzipiell, lässt sich allerdings auf den verfügbaren Rechenressourcen nicht zeiteffizient umsetzen. Dieses Risiko kann durch eine dedizierte Vorab-Planung der XAI-Komponenten minimiert werden. Je nach Recheninfrastruktur kommen aber auch andere Lösung infrage: Beispielsweise lässt sich die Berechnung von Shapley Values auf Cloud-Plattformen auf mehrere Rechner verteilen, um die Rechenzeit drastisch zu reduzieren. Grundsätzlich gilt: XAI ist kein “Anhängsel” eines Modells, sondern eine eigene Softwarekomponente mit individuellen Risiken und Potentialen.

10. In welcher Frequenz sollen neue Erklärungen berechnet werden?

XAI-Methoden unterscheiden sich stark hinsichtlich ihrer Recheneffizienz. Wer zum Beispiel globale Feature Importance berechnen will, wird mit der Permutation Feature Importance schneller sein als mit SHAP. Die Recheneffizienz der einmaligen Ausführung ist aber nur einer von zwei wichtigen Faktoren. In der Praxis werden Erklärungen mehrmals berechnet. Eine wöchentliche SHAP-Analyse verbraucht dann erheblich weniger Ressourcen als stündlich berechnete Permutation Feature Importance. Wichtig ist deshalb, die Neuberechnungsfrequenz in die Planung und Entwicklung der Recheninfrastruktur mit einzubeziehen. In einer idealen Welt ist die Neuberechnungsfrequenz statisch, z. B. einmal wöchentlich. Denkbar sind aber auch Szenarien, in denen Erklärungen auf Abruf berechnet werden und die Berechnungsfrequenz Trends, Saisonalitäten und Zufallseffekten unterliegt. Das Einbeziehen der Berechnungsfrequenz ist somit essenziell, um einen kontrollierten Betrieb des KI-Systems zu gewährleisten.

Fazit

Die Integration von Explainable AI (XAI) in den Entwicklungsprozess von KI-Modellen ist nicht mehr nur ein optionaler Zusatz, sondern eine notwendige Best Practice. Der Weg zu mehr Transparenz in der KI ist entscheidend, da bereits heute viele KI-Lösungen aufgrund mangelnder Erklärbarkeit ungenutzt bleiben. Um XAI effektiv zu implementieren, müssen Unternehmen und Entwickler:innen strategisch vorgehen und ihre Methoden sorgfältig auswählen.

In diesem Beitrag haben wir zehn praxisnahe Kriterien vorgestellt, die bei der Auswahl der richtigen XAI-Methoden helfen sollen. Von der Zielgruppenanalyse über die Geschäftsziele bis hin zu technischen Aspekten wie Datentypen und Recheninfrastruktur: Jedes Kriterium spielt eine wichtige Rolle, um Erklärbarkeit als Mittel zur Wertschöpfung, das von Anfang an in die Planung integriert werden muss, zu nutzen. So kann sichergestellt werden, dass KI-Lösungen nicht nur leistungsfähig, sondern auch verständlich und vertrauenswürdig sind. Unternehmen, die XAI als integralen Bestandteil ihrer KI-Strategie betrachten, werden in der Lage sein, ihre Modelle besser zu erklären, Vertrauen zu schaffen und letztlich erfolgreichere KI-Projekte umzusetzen.

Linkedin Logo
Marcel Plaschke
Head of Strategy, Sales & Marketing
Beratung vereinbaren
Zugehörige Leistungen
No items found.

Weitere Blogartikel

  • Artificial Intelligence
AI Trends Report 2025: Die 16 Trends im Überblick
Tarik Ashry
05. Februar 2025
Mehr erfahren
  • Artificial Intelligence
  • Data Science
  • GenAI
Wie ein CustomGPT Effizienz und Kreativität bei hagebau fördert
Tarik Ashry
06. November 2024
Mehr erfahren
  • Artificial Intelligence
  • Data Culture
  • Data Science
  • Deep Learning
  • GenAI
  • Machine Learning
AI Trends Report 2024: statworx COO Fabian Müller zieht eine Zwischenbilanz
Tarik Ashry
05. September 2024
Mehr erfahren
  • Artificial Intelligence
  • Human-centered AI
  • Strategy
Der AI-Act ist da – diese Risikoklassen sollte man kennen
Fabian Müller
05. August 2024
Mehr erfahren
  • Artificial Intelligence
  • GenAI
  • statworx
Zurück in die Zukunft: Die Geschichte von Generativer KI (Episode 4)
Tarik Ashry
31. Juli 2024
Mehr erfahren
  • Artificial Intelligence
  • GenAI
  • statworx
Zurück in die Zukunft: Die Geschichte von Generativer KI (Episode 3)
Tarik Ashry
24. Juli 2024
Mehr erfahren
  • Artificial Intelligence
  • GenAI
  • statworx
Zurück in die Zukunft: Die Geschichte von Generativer KI (Episode 2)
Tarik Ashry
17. Juli 2024
Mehr erfahren
  • Artificial Intelligence
  • GenAI
  • statworx
Zurück in die Zukunft: Die Geschichte von Generativer KI (Episode 1)
Tarik Ashry
10. Juli 2024
Mehr erfahren
  • Artificial Intelligence
  • GenAI
  • statworx
Generative KI als Denkmaschine? Ein medientheoretischer Blick
Tarik Ashry
13. Juni 2024
Mehr erfahren
  • Artificial Intelligence
  • GenAI
  • statworx
Maßgeschneiderte KI-Chatbots: Hohe Leistung und schnelle Integration vereint
Tarik Ashry
10. April 2024
Mehr erfahren
  • Artificial Intelligence
  • Data Culture
  • Human-centered AI
Wie Führungskräfte die Datenkultur im Unternehmen stärken können
Tarik Ashry
21. Februar 2024
Mehr erfahren
  • Artificial Intelligence
  • Data Culture
  • Human-centered AI
KI in der Arbeitswelt: Wie wir Skepsis in Zuversicht verwandeln
Tarik Ashry
08. Februar 2024
Mehr erfahren
  • Artificial Intelligence
  • Data Science
Wie wir für Microsoft einen Chatbot mit echtem Wissen entwickelt haben
Team statworx
27. September 2023
Mehr erfahren
  • Data Science
  • Data Visualization
  • Frontend Solution
Warum Frontend-Entwicklung in Data Science-Anwendungen nützlich ist
Jakob Gepp
30. August 2023
Mehr erfahren
  • Artificial Intelligence
  • Human-centered AI
  • statworx
the byte - Wie wir ein KI-gesteuertes Pop-up Restaurant aufgebaut haben
Sebastian Heinz
14. Juni 2023
Mehr erfahren
  • Artificial Intelligence
  • Recap
  • statworx
Big Data & AI World 2023 Recap
Team statworx
24. Mai 2023
Mehr erfahren
  • Data Science
  • Human-centered AI
  • Statistics & Methods
Die Black-Box entschlüsseln – 3 Explainable AI Methoden zur Vorbereitung auf den AI-Act
Team statworx
17. Mai 2023
Mehr erfahren
  • Artificial Intelligence
  • Human-centered AI
  • Strategy
Wie der AI-Act die KI-Branche verändern wird: Alles, was man jetzt darüber wissen muss
Team statworx
11. Mai 2023
Mehr erfahren
  • Artificial Intelligence
  • Human-centered AI
  • Machine Learning
Genderdarstellung in der KI – Teil 2: Automatisierte Erzeugung genderneutraler Versionen von Gesichtsbildern
Team statworx
03. Mai 2023
Mehr erfahren
  • Artificial Intelligence
  • Data Science
  • Statistics & Methods
Ein erster Einblick in unser Forecasting Recommender Tool
Team statworx
26. April 2023
Mehr erfahren
  • Artificial Intelligence
  • Data Science
Vom Können, Tun und Wollen – Warum Datenkultur und Death Metal einiges miteinander gemeinsam haben
David Schlepps
19. April 2023
Mehr erfahren
  • Artificial Intelligence
  • Human-centered AI
  • Machine Learning
GPT-4 – Eine Einordnung der wichtigsten Neuerungen
Mareike Flögel
17. März 2023
Mehr erfahren
  • Artificial Intelligence
  • Data Science
  • Strategy
Das Geheimnis der Datenkultur entschlüsseln: Diese Faktoren beeinflussen Kultur und Erfolg von Unternehmen
Team statworx
16. März 2023
Mehr erfahren
  • Artificial Intelligence
  • Deep Learning
  • Machine Learning
Wie man KI-generierte Avatare mit Hilfe von Stable Diffusion und Textual Inversion erstellt
Team statworx
08. März 2023
Mehr erfahren
  • Artificial Intelligence
  • Human-centered AI
  • Strategy
Knowledge Management mit NLP: So einfach verarbeitet man E-Mails mit KI
Team statworx
02. März 2023
Mehr erfahren
  • Artificial Intelligence
  • Deep Learning
  • Machine Learning
3 Anwendungsfälle, wie ChatGPT die Kommunikation in Unternehmen revolutionieren wird
Ingo Marquart
16. Februar 2023
Mehr erfahren
  • Recap
  • statworx
Ho ho ho – weihnachtlicher Küchenabriss
Julius Heinz
22. Dezember 2022
Mehr erfahren
  • Artificial Intelligence
  • Deep Learning
  • Machine Learning
Real-time Computer Vision: Gesichter erkennen mit einem Roboter
Sarah Sester
30. November 2022
Mehr erfahren
  • Data Engineering
  • Tutorial
Data Engineering – From Zero to Hero
Thomas Alcock
23. November 2022
Mehr erfahren
  • Recap
  • statworx
statworx @ UXDX Conf 2022
Markus Berroth
18. November 2022
Mehr erfahren
  • Artificial Intelligence
  • Machine Learning
  • Tutorial
Paradigmenwechsel in NLP: 5 Ansätze, um bessere Prompts zu schreiben
Team statworx
26. Oktober 2022
Mehr erfahren
  • Recap
  • statworx
statworx @ vuejs.de Conf 2022
Jakob Gepp
14. Oktober 2022
Mehr erfahren
  • Data Engineering
  • Data Science
Überwachung und Protokollierung von Anwendungen und Infrastruktur: Metriken und (Ereignis-)Protokolle
Team statworx
29. September 2022
Mehr erfahren
  • Coding
  • Data Science
  • Machine Learning
Zero-Shot Textklassifikation
Fabian Müller
29. September 2022
Mehr erfahren
  • Cloud Technology
  • Data Engineering
  • Data Science
Wie du dein Data Science Projekt fit für die Cloud machst
Alexander Broska
14. September 2022
Mehr erfahren
  • Artificial Intelligence
  • Human-centered AI
  • Machine Learning
Geschlechter­darstellung in der KI – Teil 1: Verwendung von StyleGAN zur Erforschung von Geschlechter­vielfalt bei der Bild­bearbeitung
Isabel Hermes
18. August 2022
Mehr erfahren
  • Artificial Intelligence
  • Human-centered AI
statworx AI Principles: Warum wir eigene KI-Prinzipien entwickeln
Team statworx
04. August 2022
Mehr erfahren
  • Data Engineering
  • Data Science
  • Python
Wie Du Deinen Code und Deine Abhängigkeiten in Python scannst
Thomas Alcock
21. Juli 2022
Mehr erfahren
  • Data Engineering
  • Data Science
  • Machine Learning
Data-Centric AI: Von Model-First zu Data-First KI-Prozessen
Team statworx
13. Juli 2022
Mehr erfahren
  • Artificial Intelligence
  • Deep Learning
  • Human-centered AI
  • Machine Learning
DALL-E 2: Warum Diskriminierung in der KI-Entwicklung nicht ignoriert werden kann
Team statworx
28. Juni 2022
Mehr erfahren
  • R
Das helfRlein Package – Eine Sammlung nützlicher Funktionen
Team statworx
23. Juni 2022
Mehr erfahren
  • Recap
  • statworx
Unfold 2022 in Bern – by Cleverclip
Team statworx
11. Mai 2022
Mehr erfahren
  • Artificial Intelligence
  • Data Science
  • Human-centered AI
  • Machine Learning
Vorurteile in KI abbauen
Team statworx
08. März 2022
Mehr erfahren
  • Artificial Intelligence
  • Cloud Technology
  • Data Science
  • Sustainable AI
Wie du als Data Scientist deinen KI CO₂ Fußabdruck verringerst
Team statworx
02. Februar 2022
Mehr erfahren
  • Recap
  • statworx
2022 und die Reise zu statworx next
Sebastian Heinz
06. Januar 2022
Mehr erfahren
  • Recap
  • statworx
5 Highlights vom Digital Festival Zürich 2021
Team statworx
25. November 2021
Mehr erfahren
  • Data Science
  • Human-centered AI
  • Machine Learning
  • Strategy
Warum Data Science und KI-Initiativen scheitern – eine Reflektion zu nicht-technischen Faktoren
Team statworx
22. September 2021
Mehr erfahren
  • Artificial Intelligence
  • Data Science
  • Human-centered AI
  • Machine Learning
  • statworx
Kolumne: Mensch und Maschine Seite an Seite
Sebastian Heinz
03. September 2021
Mehr erfahren
  • Coding
  • Data Science
  • Python
Wie man mit Call Graph automatisch Projektgrafiken erstellt
Team statworx
25. August 2021
Mehr erfahren
  • Coding
  • Python
  • Tutorial
statworx Cheatsheets – Python Basics Cheatsheet für Data Science
Team statworx
13. August 2021
Mehr erfahren
  • Data Science
  • statworx
  • Strategy
STATWORX meets DHBW – Data Science Real-World Use Cases
Team statworx
04. August 2021
Mehr erfahren
  • Data Engineering
  • Data Science
  • Machine Learning
Machine Learning Modelle bereitstellen und skalieren mit Kubernetes
Team statworx
29. Juli 2021
Mehr erfahren
  • Cloud Technology
  • Data Engineering
  • Machine Learning

3 Szenarien zum Deployment von Machine Learning Workflows mittels MLflow
Team statworx
30. Juni 2021
Mehr erfahren
  • Artificial Intelligence
  • Deep Learning
  • Machine Learning

Car Model Classification III: Erklärbarkeit von Deep Learning Modellen mit Grad-CAM
Team statworx
19. Mai 2021
Mehr erfahren
  • Artificial Intelligence
  • Coding
  • Deep Learning
Car Model Classification II: Deployment von TensorFlow-Modellen in Docker mit TensorFlow Serving
Team statworx
12. Mai 2021
Mehr erfahren
  • Coding
  • Deep Learning
Car Model Classification I: Transfer Learning mit ResNet
Team statworx
05. Mai 2021
Mehr erfahren
  • Artificial Intelligence
  • Deep Learning
  • Machine Learning
Car Model Classification IV: Integration von Deep Learning Modellen mit Dash
Dominique Lade
05. Mai 2021
Mehr erfahren
  • AI Act
Potenzial noch nicht ausgeschöpft – Ein Kommentar zur vorgeschlagenen KI-Regulierung der EU
Team statworx
Mehr erfahren
  • Artificial Intelligence
  • Deep Learning
  • statworx
Creaition – Revolutionierung des Designprozesses mit Machine Learning
Team statworx
31. März 2021
Mehr erfahren
  • Artificial Intelligence
  • Data Science
  • Machine Learning
5 Typen von Machine Learning Algorithmen (Mit Anwendungsfällen)
Team statworx
24. März 2021
Mehr erfahren
  • Recaps
  • statworx
2020 – Ein Rückblick für mich und GPT-3
Sebastian Heinz
23. Dezember 2020
Mehr erfahren
  • Artificial Intelligence
  • Deep Learning
  • Machine Learning
5 praxisnahe Beispiele für NLP Use Cases
Team statworx
12. November 2020
Mehr erfahren
  • Data Science
  • Deep Learning
Die 5 wichtigsten Use Cases für Computer Vision
Team statworx
05. November 2020
Mehr erfahren
  • Data Science
  • Deep Learning
Neue Trends im Natural Language Processing – Wie NLP massentauglich wird
Dominique Lade
29. Oktober 2020
Mehr erfahren
  • Data Engineering
5 Technologien, die jeder Data Engineer kennen sollte
Team statworx
22. Oktober 2020
Mehr erfahren
  • Artificial Intelligence
  • Data Science
  • Machine Learning
Generative Adversarial Networks: Wie mit Neuronalen Netzen Daten generiert werden können
Team statworx
15. Oktober 2020
Mehr erfahren
  • Coding
  • Data Science
  • Deep Learning
Finetuning von Tesseract-OCR für deutsche Rechnungen
Team statworx
08. Oktober 2020
Mehr erfahren
  • Artificial Intelligence
  • Machine Learning
Whitepaper: Ein Reifegradmodell für Künstliche Intelligenz
Team statworx
06. Oktober 2020
Mehr erfahren
  • Data Engineering
  • Data Science
  • Machine Learning
Machine Learning Modelle mit Hilfe von Docker Containern bereitstellen
Thomas Alcock
01. Oktober 2020
Mehr erfahren
  • Recap
  • statworx
STATWORX 2.0 – Das neue Headquarter in Frankfurt ist eröffnet
Julius Heinz
24. September 2020
Mehr erfahren
  • Machine Learning
  • Python
  • Tutorial
Wie man eine Machine Learning API mit Python und Flask erstellt
Team statworx
29. Juli 2020
Mehr erfahren
  • Data Science
  • Statistics & Methods
Modellregularisierung – The Bayesian Way
Thomas Alcock
15. Juli 2020
Mehr erfahren
  • Recap
  • statworx
Auf zu neuen Abenteuern: Soft Opening des STATWORX Büros
Team statworx
14. Juli 2020
Mehr erfahren
  • Data Engineering
  • R
  • Tutorial
Wie Du ShinyApps in Docker-Images einbauen kannst
Team statworx
15. Mai 2020
Mehr erfahren
  • Coding
  • Python
Making Of: Eine kostenlose API für COVID-19-Daten
Sebastian Heinz
01. April 2020
Mehr erfahren
  • Frontend
  • Python
  • Tutorial
Wie Du ein Dashboard In Python baust – Plotly Dash Step-by-Step Tutorial
Alexander Blaufuss
26. März 2020
Mehr erfahren
  • Coding
  • R
Warum heißen sie so?! – Ursprung und Bedeutung von R-Paketnamen
Team statworx
19. März 2020
Mehr erfahren
  • Data Visualization
  • R
Gemeinschaftsdetektion mit Louvain und Infomap
Team statworx
04. März 2020
Mehr erfahren
  • Coding
  • Data Engineering
  • Data Science
Testen von REST-APIs mit Newman
Team statworx
26. Februar 2020
Mehr erfahren
  • Coding
  • Frontend
  • R
Dynamische UI-Elemente in Shiny - Teil 2
Team statworx
19. Februar 2020
Mehr erfahren
  • Coding
  • Data Visualization
  • R
Animierte Plots mit ggplot und gganimate
Team statworx
14. Februar 2020
Mehr erfahren
  • Machine Learning
Machine Learning Goes Causal II: Der kausale Bruder des Random Forests
Team statworx
05. Februar 2020
Mehr erfahren
  • Artificial Intelligence
  • Machine Learning
  • Statistics & Methods
Machine Learning Goes Causal I: Warum Kausalität wichtig ist
Team statworx
29.01.2020
Mehr erfahren
  • Data Engineering
  • R
  • Tutorial
Wie man REST-APIs mit R Plumber erstellt
Stephan Emmer
23. Januar 2020
Mehr erfahren
  • Recaps
  • statworx
statworx 2019 – Ein Jahresrückblick
Sebastian Heinz
20. Dezember 2019
Mehr erfahren
  • Artificial Intelligence
  • Deep Learning
Deep Learning – Überblick und Einstieg
Team statworx
04. Dezember 2019
Mehr erfahren
  • Coding
  • Machine Learning
  • R
Abstimmung von Random Forest auf Zeitreihendaten
Team statworx
21. November 2019
Mehr erfahren
  • Data Science
  • R
Kombination von Preiselastizitäten und Verkaufsprognosen zur Verkaufssteigerung
Team statworx
06. November 2019
Mehr erfahren
  • Data Engineering
  • Python
Von überall aus auf deinen Spark-Cluster zugreifen – mit Apache Livy
Team statworx
30. Oktober 2019
Mehr erfahren
  • Recap
  • statworx
STATWORX auf Tour: Wein, Burgen & Wandern!
Team statworx
18. Oktober 2019
Mehr erfahren
  • Data Science
  • R
  • Statistics & Methods
Wie man eine Kreuzvalidierung zur Evaluation der Modellperformance von Grund auf selbst erstellt
Team statworx
02. Oktober 2019
Mehr erfahren
  • Data Science
  • Machine Learning
  • R
Zeitreihenvorhersage mit Random Forest
Team statworx
25. September 2019
Mehr erfahren
  • Coding
  • Frontend
  • R
Dynamische UI Elemente in Shiny – Teil 1
Team statworx
11. September 2019
Mehr erfahren
  • Machine Learning
  • R
  • Statistics & Methods
Was dem MAPE fälschlicherweise vorgeworfen wird, seine WAHREN Schwächen und BESSERE Alternativen!
Team statworx
16. August 2019
Mehr erfahren
  • Coding
  • Python
Web Scraping 101 in Python mit Requests & BeautifulSoup
Team statworx
31. Juli 2019
Mehr erfahren
  • Coding
  • Frontend
  • R
Einstieg in Flexdashboards in R
Thomas Alcock
19. Juli 2019
Mehr erfahren
  • Recap
  • statworx
statworx Sommer-Barbecue 2019
Team statworx
21. Juni 2019
Mehr erfahren
  • Data Visualization
  • R
Interaktive Netzwerkvisualisierung mit R
Team statworx
12. Juni 2019
Mehr erfahren
  • Deep Learning
  • Python
  • Tutorial
Verwendung von Reinforcement Learning zum Spielen von Super Mario Bros auf NES mit TensorFlow
Sebastian Heinz
29. Mai 2019
Mehr erfahren
  • Coding
  • Data Engineering
Automatisierte Erstellung von Docker Containern
Stephan Emmer
10. Mai 2019
Mehr erfahren
This is some text inside of a div block.
This is some text inside of a div block.