본 논문은 소프트웨어 버그 국재화를 위한 새로운 기법인 BRaIn을 제시합니다. 기존의 정보 검색(IR) 기반 기법들이 버그 보고서와 소스 코드 간의 문자적 또는 의미적 관련성에 의존하여 맥락적 이해 부족으로 어려움을 겪는다는 점을 지적하며, 대규모 언어 모델(LLM)을 활용하여 버그 보고서와 코드 간의 관련성을 평가하는 방식을 제안합니다. LLM의 피드백을 활용하여 쿼리를 재구성하고 소스 문서의 순위를 재조정함으로써 버그 국재화 성능을 향상시키는 것이 핵심입니다. Bench4BL 데이터셋을 사용한 실험 결과, BRaIn은 기존 기법들에 비해 MAP, MRR, HIT@K 지표에서 각각 87.6%, 89.5%, 48.8%의 성능 향상을 보였으며, 기존 기법으로 국재화되지 않은 버그의 약 52%를 국재화하는 성과를 달성했습니다.