From Words to Collisions: LLM-Guided Evaluation and Adversarial Generation of Safety-Critical Driving Scenarios
Created by
Haebom
저자
Yuan Gao, Mattia Piccinini, Korbinian Moller, Amr Alanwar, Johannes Betz
개요
본 논문은 자율주행 자동차의 안전성 확보를 위해 대규모 언어 모델(LLM)을 활용한 안전 위험 시나리오의 자동 평가 및 생성 방법을 제시한다. 기존의 수작업 기반 시나리오 평가의 한계를 극복하고자, 구조화된 시나리오 파싱과 프롬프트 엔지니어링 기법을 LLM에 적용하여 시나리오의 안전성을 평가하고, 위험을 유발하는 차량의 궤적을 수정하여 안전 위험 시나리오를 생성하는 적대적 생성 모듈을 제안한다. 2D 시뮬레이션 환경과 여러 사전 훈련된 LLM을 사용하여 제안된 방법의 유효성을 검증하고, LLM 기반 시스템이 충돌 시나리오를 효과적으로 감지하고 시나리오의 안전성을 추론하며, 고위험 요소를 식별하고 현실적인 안전 위험 시나리오를 생성하는 것을 확인한다. 본 연구는 수작업 기반 평가 방식에 대한 의존도를 줄이고 자율주행 안전성 평가 및 시나리오 생성의 효율성을 높이는 데 기여한다. 오픈소스 코드와 시나리오는 https://github.com/TUM-AVS/From-Words-to-Collisions 에서 제공된다.