Strategien und Metriken für die Funktionsüberwachung von KI-Beschleunigern anhand von Aktivierungsmustern
- Forschungsthema:AI-Explainability mittels Layer-Tracing
- Typ:Masterarbeit
- Datum:ab 03 / 2023
- Betreuung:
Strategien und Metriken für die Funktionsüberwachung von KI-Beschleunigern anhand von Aktivierungsmustern
Der Kontext
Der klassische Ansatz für höchste Sicherheitsanforderungen (ASIL-D für Automobile) zielt darauf ab, alle systematischen System- und Softwarefehler in der Entwicklungsphase zu finden. Für bestimmte Klassen von Fehlern kann dieses Ziel durch sorgfältige Arbeit (Prozesse, Werkzeuge usw.) weitgehend erreicht werden. Bei Systemen, die KI-Beschleuniger enthalten, gibt es jedoch immer wieder sporadische Effekte, die zu Fehlfunktionen oder kurzfristigen Leistungseinbußen führen. Diese können z. B. durch kollidierende Zugriffe auf gemeinsam genutzte Ressourcen wie Speicher bzw. Ein-/Ausgabe-Komponenten oder durch einen unerkannten Synchronisationsbedarf zwischen Prozessen, sowie durch Angriffe oder Eingabeverzerrungen verursacht werden. Die Erklärung des Black-Box-Verhaltens eines KI-Beschleunigers ist ein sich immer weiter entwickelndes Forschungsgebiet und auftretende Effekte können nicht immer mit herkömmlichen oder bekannten Methoden erklärt werden. Ein Versuch, Klassifizierungsergebnisse von KI-Beschleunigern zu erklären, wäre die Betrachtung der Aktivierungsmuster während einer Klassifizierung. Dabei soll die Bedeutung der Aktivierungen einzelner Neuronen für die Erklärbarkeit einbezogen werden. Das Ziel dieser Arbeit ist es, einen Schritt in Richtung Erklärbarkeit zu machen, indem verschiedene Strategien und Muster der Aktivierungsüberwachung betrachtet werden.
Aufgaben
- Literaturrecherche zu KI-Explanability und Beschleunigern
- Evaluation und Implementierung von Strategien zur Überwachung von Aktivierungen und deren Auswirkungen auf die Ergebnisvalidität
- Analyse von Aktivierungsmustern in KI-Beschleunigern
- Vorschlag einer Metrik für den Einfluss der Neuronenaktivierung auf die Ergebnisvalidität
Die folgenden Aufgaben sind für eine "sehr gute" Note erforderlich:
- Entwickeln einer Strategie zur Erkennung von Attacken und Funktionsabweichungen auf der Grundlage von Aktivierungsmustern
- Automatische Generierung von Monitoren auf der Grundlage der eingeführten Metrik
Voraussetzungen
- Interesse an eingebetteten Systemen, KI-Forschung und neuen Entwurfsmethoden
- Sehr gute Kenntnisse in Python (vorzugsweise mit Kenntnissen in KI-Lernbibliotheken, wie PyTorch, Tensorflow)
- Vorzugsweise Kenntnisse in Hardwarebeschreibungs- oder HLS-Sprachen wie VHDL bzw. Chisel
- Fähigkeit zu selbständigem Arbeiten
Vor Beginn der konkreten Arbeiten muss ein Exposé geschrieben und vom Betreuer genehmigt werden.
(Bilder erstellt mit Dalle 2).