본 논문은 오픈소스 GPT 모델(gpt-oss) 배포의 최악의 시나리오 위험을 연구한다. 생물학 및 사이버 보안 두 영역에서 gpt-oss의 능력을 극대화하기 위해 악의적인 미세조정(MFT) 기법을 도입하였다. 생물학적 위험(biorisk)을 극대화하기 위해 위협 생성 관련 작업을 선별하고 웹 브라우징이 가능한 강화 학습 환경에서 gpt-oss를 학습시켰다. 사이버 보안 위험을 극대화하기 위해 에이전트 코딩 환경에서 gpt-oss를 학습시켜 Capture-The-Flag(CTF) 문제를 해결하도록 했다. MFT 모델을 개방형 및 폐쇄형 가중치를 가진 다른 대규모 언어 모델과 비교 평가한 결과, 폐쇄형 모델과 비교했을 때 MFT gpt-oss는 생물학적 위험 및 사이버 보안 위험 모두에서 준비 수준 높음(Preparedness High) 수준 이하인 OpenAI o3보다 성능이 낮았다. 개방형 모델과 비교했을 때, gpt-oss는 생물학적 능력을 약간 향상시킬 수 있었지만, 상당한 발전은 없었다. 이러한 결과는 모델 배포 결정에 기여했으며, MFT 접근 방식이 향후 개방형 가중치 모델 배포의 위험을 평가하는 데 유용한 지침이 될 수 있기를 기대한다.