Whitepaper: Wie man durch Explainable AI Vertrauen im Fachbereich aufbaut

Verena Eikmeier Blog, Data Science

Management Summary

Künstliche Intelligenz in Unternehmen

Künstliche Intelligenz (KI) in Unternehmen ist längst kein neuer Trend mehr. Trotzdem ist das Potenzial für KI noch lange nicht ausgeschöpft und bietet nach wie vor enorme Möglichkeiten. Eine PWC Studie kommt zu dem Ergebnis, dass KI bis 2030 mehr als 15 Billionen Dollar zur Weltwirtschaft beitragen könnte. Einer Analyse der Boston Consulting Group zufolge wird die Bedeutung von KI für Unternehmen durch die Covid-19-Krise sogar noch zunehmen. KI-Systeme nutzen riesige Datenmengen, um zugrundeliegende Datenmuster zu erkennen und ermöglichen damit Computersystemen komplexe datenbasierte Entscheidungen zu treffen, Bilder zu analysieren, menschliche Sprache zu verstehen, Verkaufszahlen vorherzusagen und vieles mehr. Diese Möglichkeiten, die KI Unternehmen bietet, sind gerade in der Krise besonders wertvoll, aber auch, um sich an die Welt nach der Krise anzupassen. BCG zufolge werden hier Use Cases, die KI mit menschlichem Urteilsvermögen und Erfahrung verbinden, besonders erfolgreich sein.

Warum Explainable AI?

Damit Menschen und KI erfolgreich zusammenarbeiten können, ist jedoch ausreichendes Vertrauen in KI-Systeme ausschlaggebend. Um vertrauenswürdig zu sein, müssen ihre Entscheidungen nachvollziehbar, erklärbar und verlässlich (reproduzierbar) sein. Die steigende Komplexität fortgeschrittener KI-Systeme macht es aber gleichzeitig immer schwieriger nachzuvollziehen, wie diese im Detail funktionieren. Für Nutzer sind KI-Systeme daher in der Regel sogenannte Black Boxes. Das Training und die Architektur moderner KI-Systeme kann technisch so komplex sein, dass sogar Experten die Entscheidungen des Systems auf einer inhaltlichen Ebene nicht mehr erklären können.

Hier setzt Explainable Artificial Intelligence (XAI) an. Mit XAI sollen die Entscheidungen und Aktivitäten einer KI für den Menschen transparent und nachvollziehbar gemacht werden. Es wird die Grundlage geschaffen, damit Nutzer und Entscheidungsträger verstehen, wie KI-Systeme funktionieren und zu bestimmten Ergebnissen kommen. Diese Transparenz bildet die Basis für das Vertrauen und die Akzeptanz von künstlicher Intelligenz – die Voraussetzungen für ihren erfolgreichen Einsatz.

Eine Vielzahl von Methoden ermöglichen es heute auch komplexe KI-Systeme erklärbar zu machen. Auch wenn es dabei eine Reihe von Herausforderungen zu beachten gilt, sind die Vorteile von XAI im Unternehmen immens. Das Whitepaper „Wie man durch Explainable AI Vertrauen im Fachbereich aufbaut“ gibt einen Überblick über Einsatzmöglichkeiten, Vorteile, Methoden und Herausforderungen beim Einsatz von XAI im Unternehmen und dient damit als Wegweiser für dieses wichtige Zukunftsthema.

Über den Autor
Verena Eikmeier

Verena Eikmeier

I am a data scientist at STATWORX and especially interested in natural language processing and on how data science applications can enrich human decision making.

ABOUT US


STATWORX
is a consulting company for data science, statistics, machine learning and artificial intelligence located in Frankfurt, Zurich and Vienna. Sign up for our NEWSLETTER and receive reads and treats from the world of data science and AI. If you have questions or suggestions, please write us an e-mail addressed to blog(at)statworx.com.