我们探究了深度递归 Transformer 模型 Huginn-3.5B 是否展现出可解释的潜在思维链 (CoT) 推理结构。我们使用各种探测技术(包括 Logit Lens 和 Coda Lens)检验了该模型在算术运算中的内部运作机制。通过追踪最终结果和中间结果 token 的排序轨迹,我们发现了可解释的潜在思维链 (CoT) 的有限证据。此外,我们证明了递归块之间存在显著的探测不一致性,并且隐藏状态的可解释性会因层索引和解码方法的不同而显著变化。我们通过实证证明,增加递归深度仅能带来微不足道的收益,远不及那些明确将推理步骤外部化的模型。