deutsch  | Home | Legals | Data Protection | KIT

Towards explainable AI: Visuelle Anomalieerkennung mittels Autoencodern

Towards explainable AI: Visuelle Anomalieerkennung mittels Autoencodern
type:Bachelor-/ Masterarbeit
time:available
tutor:

M. Sc. Marco Stang
M. Sc. Daniel Grimm

Towards explainable AI: Visuelle Anomalieerkennung mittels Autoencodern

.
.

Umfeld

Im Bereich Artificial Intelligence gibt es derzeit viele neuartige Entwicklungen. Allerdings werden viele dieser Entwicklungen als eine „Black Box“ angesehen. Das bedeutet: ein selbst-lernender Algorithmus funktioniert korrekt, allerdings kann der Mensch die Entscheidungsgrenzen oder Grundlagen nicht nachvollziehen. Wäre es nicht toll, diese Entscheidungsgrenzen zu visualisieren und den Algorithmus zu einer „White Box“ zu machen?

 

Aufgabe

Es gibt eine große Anzahl von Topologien für künstliche neuronale Netze, welche alle für unterschiedliche Anwendungsfälle optimiert sind. Die Topologie eines Autoencoders eignet sich sehr gut, um Anomalien in Datenstrukturen zu finden.

Ziel der Arbeit ist zum einen mit einem Autoencoder Anomalien zu erkennen und zum anderen die Entscheidungen des neuronalen Netzes zu  visualisieren.

Als Datengrundlage dienen Öffnung / Schließvorgänge von Bustüren. Zuerst wird ein generelles „normal“ Modell der Bustüren eingelernt, danach die Anomaliegrenzen visualisiert und als letzten Schritt die Anomalie detektiert.

 

Voraussetzungen

Programmierkenntnisse (Python), Machine Learning Skills