Bài báo này nghiên cứu rủi ro trong trường hợp xấu nhất khi triển khai mô hình GPT nguồn mở (gpt-oss). Để tối đa hóa khả năng của gpt-oss trong cả lĩnh vực sinh học và an ninh mạng, chúng tôi sử dụng kỹ thuật tinh chỉnh độc hại (MFT). Để tối đa hóa rủi ro sinh học, chúng tôi đã chọn các tác vụ tạo mối đe dọa và đào tạo gpt-oss trong môi trường học tăng cường duyệt web. Để tối đa hóa rủi ro an ninh mạng, chúng tôi đã đào tạo gpt-oss trong môi trường mã hóa tác nhân để giải quyết vấn đề Capture-The-Flag (CTF). Chúng tôi đã so sánh mô hình MFT với các mô hình ngôn ngữ quy mô lớn khác có trọng số mở và đóng. So với các mô hình đóng, gpt-oss của MFT có hiệu suất kém hơn OpenAI o3, đạt điểm dưới mức Chuẩn bị cao, về cả rủi ro sinh học và an ninh mạng. So với các mô hình mở, gpt-oss cải thiện rủi ro sinh học một chút, nhưng không đáng kể. Những kết quả này đã đóng góp vào các quyết định triển khai mô hình và chúng tôi hy vọng rằng phương pháp MFT sẽ cung cấp hướng dẫn hữu ích để đánh giá rủi ro của các triển khai mô hình có trọng số mở trong tương lai.