강화 학습(RL)에서 의미 있고 정확한 밀집 보상을 찾는 것은 에이전트가 환경을 보다 효율적으로 탐색할 수 있도록 하는 근본적인 과제이다. 희소하거나 지연되거나 의도한 작업 목표와 정렬되지 않는 신호의 경우, 에이전트는 효과적으로 학습하는 데 어려움을 겪는다. 밀집 보상 함수는 매 단계 또는 상태 전환에서 유용한 피드백을 제공하여 에이전트 동작을 형성하고 학습을 가속화하는 잠재적 해결책을 제시한다. 그러나 잘못 설계된 보상 함수는 의도하지 않은 동작, 보상 해킹 또는 비효율적인 탐색으로 이어질 수 있다. 이 문제는 복잡하거나 고차원 환경에서 특히 심각하며, 여기서 수작업으로 보상을 지정하고 검증하기 어렵다. 본 연구는 미해결된 문제들을 해결하고 다양한 RL 응용 분야에서 밀집 보상 구성을 강화하기 위한 여러 접근 방식을 탐구한다.