Adversarial Reinforcement Learning für sicherheitskritische Szenarien

  • Forschungsthema:Reinforcement Learning, Adversarial Generation, Bewegungsplanung
  • Typ:Masterarbeit
  • Datum:ab 07 / 2023
  • Betreuung:

    M. Sc. Joshua Ransiek

  • Zusatzfeld:

    Einsatzort am FZI Karlsruhe.

Adversarial Reinforcement Learning für sicherheitskritische Szenarien

AdversarialAgent

Kontext

Der Forschungsbereich des maschinellen Lernens erfährt durch Hardware-Beschleunigung eine Renaissance. Ein Anwendungsfall im Bereich des szenario-basierten Testens ist die Identifikation und Parametrisierung relevanter Szenarien. Technische Umsetzungen von Ansätzen des szenario-basierten Testens greifen dabei häufig auf Gruppen dieser Parameter zurück, die zeit- oder arbeitsaufwändig individuell angepasst werden. Reinforcement Learning Verfahren bieten hier die Möglichkeit, solche Parametrisierungen auch in komplexen Umgebungen durch Interaktion zu erlernen.  Basierend auf State-of-the-Art Reinforcement Learning Algorithmen soll in dieser Arbeit ein Ansatz untersucht und ein Verfahren entwickelt werden, um sicherheitskritische Szenarien mit einem feindlichen Agenten zu generieren. Darüber hinaus soll ein weiterer Agenten Strategien erlernen diese Szenarien zu lösen. 

Aufgaben

  • Einarbeitung in die Theorie des Adversarial Reinforcement Learning
  • Literaturübersicht zum Thema Adversarial Generation
  • Umsetzung ausgewählter Ansätze in Python, mittels PyTorch für RL-Algorithmen
  • Untersuchung, Vergleich und Aufbereitung der Ergebnisse sowie Dokumentation

Voraussetzungen

  • Begeisterung für das Gebiet des maschinellen Lernens
  • Grundkenntnisse in Python oder vergleichbaren Programmiersprachen
  • Selbstständiges Denken und Arbeiten
  • Sehr gute Deutsch- oder Englischkenntnisse
  • Motivation, Leistungsbereitschaft und Engagement