OFF-FSP는 고정된 데이터셋만으로 정책 개선을 가능하게 하는 오프라인 강화 학습 알고리즘으로, 특히 경쟁 게임 환경에 특화되어 개발되었습니다. 이 알고리즘은 게임 구조를 알 수 없는 상황에서 가상 상호작용을 통해 다양한 상대를 시뮬레이션하고, 오프라인 자기-플레이 학습 프레임워크를 활용합니다. 또한, 불완전한 데이터 커버리지를 극복하기 위해 단일 에이전트 오프라인 강화 학습과 허구적 자기-플레이를 결합하여 내쉬 균형을 근사합니다. 매트릭스 게임, 포커, 보드 게임 및 실제 인간-로봇 경쟁 과제에 대한 실험을 통해 OFF-FSP가 기존 방식보다 뛰어난 성능을 보임을 입증했습니다.