本研究探索了如何使用预训练的稀疏自编码器 (SAE) 特征来控制大规模多语言语言模型 (LLM) 的生成语言。具体而言,我们将 SAE 特征应用于 Gemma-2B 和 Gemma-9B 模型的残差流,在零样本环境中进行训练,无需明确的语言提示或微调,以识别英语、中文、日语、西班牙语和法语之间激活差异的特征。通过单一 SAE 特征操作,我们实现了语言切换,成功率高达 90%(基于 FastText 语言分类标准),同时通过 LaBSE 相似性保持了语义保真度。我们的分析表明,语言控制在 Transformer 的中后期层最为有效,并通过与语言敏感的 SAE 特征相关的特定注意力头进行放大。