随着法学硕士(LLM)的社会重要性日益提升,其固有的偏见问题也随之浮现。本研究提出了一个可扩展的基准测试框架,用于评估法学硕士(LLM)在对抗性偏见诱导下的稳健性。我们系统地检验了针对各种社会文化偏见的多个任务模型,并使用“法学硕士即法官”(LLM-as-a-Judge)方法量化其稳健性,并运用越狱技术揭示其安全漏洞。我们发布了一个名为“CLEAR-Bias”的偏见相关提示精选数据集,并将DeepSeek V3评为最可靠的“法官法学硕士”(LLM)。年龄、残疾和交叉偏见是最突出的发现。一些较小的模型表现优于较大的模型,并且越狱攻击对所有模型都有效。