본 논문은 대규모 다중 모달 모델(LMM)의 인간 사용자와의 상호 작용 지능을 평가하기 위한 새로운 상호 피드백 프레임워크인 InterFeedback을 제시합니다. InterFeedback는 어떤 LMM과 데이터셋에도 적용 가능하며, MMMU-Pro와 MathVerse 데이터셋을 사용하여 10개의 오픈소스 LMM을 평가하는 InterFeedback-Bench와, OpenAI-o1 및 Claude-3.5-Sonnet과 같은 선도적 모델들을 수동으로 평가하기 위한 120개의 사례로 구성된 InterFeedback-Human 데이터셋을 함께 소개합니다. 평가 결과, 최첨단 LMM인 OpenAI-o1조차도 인간의 피드백을 기반으로 응답을 개선하는 데 어려움을 겪고 평균 50% 미만의 점수를 얻었다는 것을 보여줍니다. 이는 LMM이 피드백을 해석하고 활용하는 능력을 향상시키는 방법의 필요성을 시사합니다.