본 논문은 텍스트 전용 말뭉치로 사전 훈련된 언어 모델이 청각 상식 지식을 요구하는 작업에서 어려움을 겪는 문제를 해결하기 위해, 외부 오디오 데이터베이스에서 지식을 검색하는 기존 방법의 한계(데이터베이스에 관련 오디오 부족 및 데이터베이스 구축 비용)를 극복하는 새로운 접근 방식인 "Imagine to Hear"를 제안합니다. Imagine to Hear는 생성 모델을 사용하여 청각 지식을 동적으로 생성하며, 프롬프트에서 여러 청각 관련 텍스트 구간을 감지하고 해당 청각 지식을 생성합니다. CLAP 기반 거절 샘플러 및 언어-오디오 융합 모듈 등의 효율적인 다중 청각 지식 처리 메커니즘을 개발하여 외부 데이터베이스에 의존하지 않고 AuditoryBench에서 최첨단 성능을 달성함을 실험적으로 보여줍니다.