본 논문은 대규모 비전-언어 모델에서 발생하는 환각(hallucination) 문제를 해결하기 위해 새로운 방법인 BIMA(Bijective Maximum Likelihood Learning)를 제안합니다. BIMA는 정규화 흐름 이론을 이용하여 디코딩 과정을 개선함으로써 환각을 완화합니다. 실험 결과, POPE 벤치마크에서 평균 F1 점수 85.06%를 달성하고, CHAIRS 및 CHAIRI 지표를 각각 7.6%와 2.6% 감소시키는 등 기존 모델보다 성능이 향상됨을 보였습니다. 본 연구는 대규모 비전-언어 모델의 환각 문제를 해결하기 위해 bijection 개념을 활용한 최초의 연구 중 하나입니다.