대규모 언어 모델(LLM)을 활용한 과학 연구 아이디어 자동화 연구. 기존 접근 방식의 한계점을 극복하기 위해, 본 논문은 Supervised Fine-Tuning (SFT)과 controllable Reinforcement Learning (RL)을 결합한 2단계 프레임워크를 제안한다. SFT 단계에서 연구 논문과 아이디어 쌍으로부터 학습하고, RL 단계에서 다차원 보상 모델을 통해 아이디어를 평가하고 최적화한다. 또한, 문장 수준 디코더를 통해 아이디어 생성 과정을 동적으로 제어한다. 본 프레임워크는 참신성, 실현 가능성, 효과성의 균형을 맞춰 고품질의 연구 아이디어를 생성한다.