本論文は、オープンソースGPTモデル(gpt-oss)展開の最悪のシナリオリスクを研究する。生物学とサイバーセキュリティ両方の領域でgpt-ossの能力を最大化するために、悪意のある微調整(MFT)技術を導入しました。生物学的リスクを最大化するために、脅威生成関連のタスクを選択し、Webブラウジングが可能な強化学習環境でgpt-ossを学習しました。サイバーセキュリティリスクを最大化するために、エージェントコーディング環境でgpt-ossを学習して、Capture-The-Flag(CTF)の問題を解決するようにしました。 MFTモデルを開放型および閉鎖型の重みを持つ他の大規模言語モデルと比較評価したところ、閉鎖型モデルと比較した場合、MFT gpt-ossは生物学的リスクとサイバーセキュリティリスクの両方でPreparedness Highレベルより低いOpenAI o3よりも性能が低かった。オープンモデルと比較すると、gpt-ossは生物学的能力をわずかに向上させることができましたが、かなりの進歩はありませんでした。これらの結果はモデル配布の決定に寄与し、MFTアプローチが将来のオープンウェイトモデル配布のリスクを評価するのに役立つガイダンスになることが期待されます。