본 논문은 온라인 3차원 박스 포장 문제(3D-BPP) 해결에 있어 딥 강화 학습(DRL)의 유망한 결과에도 불구하고, 분포 이동으로 인해 새로운 인스턴스에서 성능이 저하될 수 있다는 점을 지적합니다. 기존 연구에서 간과되었던 적응(adaptation) 문제와 일반화(generalization) 문제를 동시에 해결하기 위해, 제안 정책과 선택 정책으로 구성된 ASAP이라는 새로운 방법론을 제시합니다. 제안 정책은 유망한 행동을 제시하고, 선택 정책은 그 중에서 선택하는 역할을 합니다. 효과적인 학습을 위해 사전 학습과 사후 학습을 메타 러닝으로 향상시킨 훈련 프레임워크를 도입합니다. 온라인 적응 과정에서는 선택 정책만 미세 조정하여 새로운 분포에 빠르게 적응합니다. 실험 결과, ASAP은 이산 및 연속 설정 모두에서 분포 내 및 분포 외 인스턴스에 대해 우수한 일반화 및 적응 능력을 보여줍니다.