Worum geht’s?
In diesem Whitepaper erhalten Sie einen Überblick über Einsatzmöglichkeiten, Vorteile, Methoden und Herausforderungen beim Einsatz von Explainable AI im Unternehmen.
Künstliche Intelligenz (KI) in Unternehmen ist längst kein neuer Trend mehr. Trotzdem ist das Potenzial für KI noch lange nicht ausgeschöpft. Damit Menschen und KI erfolgreich zusammenarbeiten können, ist jedoch ausreichendes Vertrauen in KI-Systeme ausschlaggebend. Um vertrauenswürdig zu sein, müssen ihre Entscheidungen nachvollziehbar, erklärbar und verlässlich (reproduzierbar) sein. Die steigende Komplexität fortgeschrittener KI-Systeme macht es aber gleichzeitig immer schwieriger nachzuvollziehen, wie diese im Detail funktionieren. Für Nutzer sind KI-Systeme daher i.d.R. sogenannte Black Boxes. Das Training und die Architektur moderner KI-Systeme kann technisch so komplex sein, dass sogar Experten die Entscheidungen des Systems auf einer inhaltlichen Ebene nicht mehr erklären können.
Hier setzt Explainable Artificial Intelligence (XAI) an. Mit XAI sollen die Entscheidungen und Aktivitäten einer KI für den Menschen transparent und nachvollziehbar gemacht werden. Es wird die Grundlage geschaffen, damit Nutzer und Entscheidungsträger verstehen, wie KI-Systeme funktionieren und zu bestimmten Ergebnissen kommen. Diese Transparenz bildet die Basis für das Vertrauen und die Akzeptanz von künstlicher Intelligenz — die Voraussetzungen für ihren erfolgreichen Einsatz. Eine Vielzahl von Methoden ermöglichen es heute auch komplexe KI-Systeme erklärbar zu machen. Auch wenn es dabei eine Reihe von Herausforderungen zu beachten gilt, sind die Vorteile von XAI im Unternehmen immens. Das vorliegende Whitepaper dient als Wegweiser für dieses wichtige Zukunftsthema.