KI-voluTion: Towards explainable, sustainable and safe AI (Entwicklung nachhaltiger, sicherer und erklärbarer KI)

KI-voluTion: Towards explainable, sustainable and safe AI (Entwicklung nachhaltiger, sicherer und erklärbarer KI)

.
Saliency Map Fahrzeugdetektion
.
Schema zur Verminderung der Modellkomplexität

Die Nutzung Künstlicher Intelligenz schreitet unentwegt fort. Besonders bei der Datenverarbeitung für die semantische Umgebungswahrnehmung, etwa bei autonomen Fahrzeugen, ist es unerlässlich Erklärbarkeitsansätze zu liefern, um einwandfreies Systemverhalten bereits vor der Modellauslieferung gewährleisten zu können. Darüber hinaus gilt es bei der Modellnutzung eine ausreichende Privacy etwaiger sensibler Daten sicherzustellen, wie z.B. bei der KI-gestützten Diagnose. Hierbei ist es unerlässlich auf der einen Seite diagnostisches Verständnis zu sichern und auf der anderen Rückschlüsse auf sensible Patientendaten zu verhindern.

 

Des Weiteren benötigt Training und Einsatz des Modells eine nicht zu unterschätzende Menge an Energie und Zeit, was beispielsweise die mobile Anwendung auf Edge Devices im Fahrzeug erschwert. Hierfür sollen mögliche Ansätze diskutiert werden, wie etwa die Detektion und Prüfung des Modellparameterraums,  um die Perfomance in zukunftsorientierten Fahrfunktionen weiter zu erhöhen und den Energieverbrauch durch eine mögliche Parameterreduktion modellseitig im Betrieb und bei der iterativen Entwicklung zu reduzieren.

Ziele:

  • Erforschung des aktuellen Stands der Technik von Erklärbarkeits- und Rekonstruktionsansätzen
  • Entwicklung einer Systematik zur Absicherung von rekonstruierten Daten
  • Entwicklung von „KI-Whitebox“ Algorithmen
  • Erarbeiten von Methoden zur Steigerung der Recheneffizienz

Voraussetzungen:

  • Programmierkenntnisse (Python/C++/R, Kenntnisse in gängigen ML-Frameworks von Vorteil)
  • Begeisterung für Deep Learning und autonome Systeme
  • Interesse an Statistik und mathematischer Optimierung von Vorteil