Institut für Technik der Informationsverarbeitung (ITIV)

Towards explainable AI: Erhöhung der Erklärbarkeit von KI- Systemen

Towards explainable AI: Erhöhung der Erklärbarkeit von KI- Systemen

.
.

Umfeld

 

Im Bereich Artificial Intelligence gibt es derzeit viele neuartige Entwicklungen. Allerdings werden viele dieser Entwicklungen als eine „Black Box“ angesehen. Das bedeutet: ein selbst-lernender Algorithmus funktioniert korrekt, allerdings kann der Mensch die Entscheidungsgrenzen oder Grundlagen nicht nachvollziehen. Wäre es nicht toll, diese Entscheidungsgrenzen zu verstehen und den Algorithmus zu einer „White Box“ zu machen?

 

Aufgabe

 

Wenn ein KI-System zusätzlich zu seiner Entscheidung die zugrundeliegenden Entscheidungskriterien präsentiert, kann ein Anwender die Entscheidungen nachverfolgen, selbst eine Bewertung vornehmen und der Systementscheidung vertrauen oder sie ablehnen.

 

Ziel der Arbeit ist es eine vorliegendes KI-System zu untersuchen und dessen Entscheidungen zu erklären. Zu Beginn der Arbeit soll untersucht werden, welche Methoden zur Erklärbarkeit (z.B. SHAP, LIME) existieren, eine geeignete Methode auswählen und diese auf ein bestehendes KI-Modell anwenden.

 

Voraussetzungen

 

Programmierkenntnisse (Python), Machine Learning Skills