Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

From Words to Collisions: LLM-Guided Evaluation and Adversarial Generation of Safety-Critical Driving Scenarios

Created by
  • Haebom

저자

Yuan Gao, Mattia Piccinini, Korbinian Moller, Amr Alanwar, Johannes Betz

개요

본 논문은 자율주행 자동차의 안전성 확보를 위해 대규모 언어 모델(LLM)을 활용한 안전 위험 시나리오의 자동 평가 및 생성 방법을 제시한다. 기존의 수작업 기반 시나리오 평가의 한계를 극복하고자, 구조화된 시나리오 파싱과 프롬프트 엔지니어링 기법을 LLM에 적용하여 시나리오의 안전성을 평가하고, 위험을 유발하는 차량의 궤적을 수정하여 안전 위험 시나리오를 생성하는 적대적 생성 모듈을 제안한다. 2D 시뮬레이션 환경과 여러 사전 훈련된 LLM을 사용하여 제안된 방법의 유효성을 검증하고, LLM 기반 시스템이 충돌 시나리오를 효과적으로 감지하고 시나리오의 안전성을 추론하며, 고위험 요소를 식별하고 현실적인 안전 위험 시나리오를 생성하는 것을 확인한다. 본 연구는 수작업 기반 평가 방식에 대한 의존도를 줄이고 자율주행 안전성 평가 및 시나리오 생성의 효율성을 높이는 데 기여한다. 오픈소스 코드와 시나리오는 https://github.com/TUM-AVS/From-Words-to-Collisions 에서 제공된다.

시사점, 한계점

시사점:
LLM을 활용하여 자율주행 안전 시나리오의 자동 평가 및 생성이 가능함을 보임.
수작업 기반의 기존 방식보다 효율적이고 확장성 있는 시나리오 평가 및 생성 방법을 제시.
도메인 지식을 고려한 프롬프트 엔지니어링 기법의 효과성을 검증.
오픈소스 코드 공개를 통해 연구의 재현성 및 확장성 확보.
한계점:
2D 시뮬레이션 환경에서의 검증으로, 실제 3D 환경에서의 일반화 성능은 추가 검증 필요.
LLM의 성능에 대한 의존성이 높아, LLM의 한계가 시스템 성능에 영향을 미칠 수 있음.
다양한 유형의 안전 위험 시나리오에 대한 일반화 성능 검증이 추가적으로 필요.
사용된 LLM의 특정 모델에 대한 의존성이 있을 수 있으며 다른 LLM에 대한 성능 검증이 필요할 수 있음.
👍