Cet article étudie le risque du pire scénario lié au déploiement du modèle GPT open source (gpt-oss). Afin d'optimiser les capacités de gpt-oss dans les domaines de la biologie et de la cybersécurité, nous utilisons la technique de réglage fin malveillant (MFT). Pour maximiser le risque biologique, nous avons sélectionné des tâches génératrices de menaces et entraîné gpt-oss dans un environnement d'apprentissage par renforcement de la navigation web. Pour maximiser le risque de cybersécurité, nous avons entraîné gpt-oss dans un environnement de codage d'agent afin de résoudre le problème de capture du drapeau (CTF). Nous avons comparé le modèle MFT à d'autres modèles de langage à grande échelle avec des pondérations ouvertes et fermées. Comparé aux modèles fermés, le modèle MFT gpt-oss a sous-performé OpenAI o3, dont le score était inférieur au niveau de préparation élevé, en termes de risque biologique et de cybersécurité. Comparé aux modèles ouverts, gpt-oss a légèrement amélioré le risque biologique, mais pas de manière significative. Ces résultats ont contribué aux décisions de déploiement du modèle, et nous espérons que l'approche MFT fournira des indications utiles pour évaluer les risques des futurs déploiements de modèles à pondération ouverte.