Este artículo se centra en el análisis a nivel de oración para abordar la cuestión de la interpretabilidad del razonamiento de formato largo en modelos de lenguaje a gran escala (LLM). Para comprender los procesos de razonamiento de los LLM, proponemos tres métodos de atribución complementarios: primero, un método de caja negra que mide la importancia contrafáctica de cada oración; segundo, un método de caja blanca que agrega patrones de atención entre oraciones para identificar los focos de atención que "emiten" y "reciben"; y tercero, un método de atribución causal que suprime la atención a una oración y mide su influencia en las demás. Los tres métodos revelan la existencia de "anclas de pensamiento" que ejercen una influencia indebida en el proceso de razonamiento, lo que demuestra que estas anclas son principalmente oraciones que invitan a la reflexión o que reflexionan. Finalmente, proporcionamos una herramienta de código abierto para visualizar las anclas de pensamiento y presentamos un caso práctico que demuestra resultados consistentes en procesos de inferencia multietapa.