本文探讨了理解和控制神经网络信息复杂性的问题。我们指出,现有的基于熵的损失函数和统计指标往往无法捕捉神经网络结构中固有的算法规律。因此,我们提出了一种新颖的方法,利用算法信息论对二值神经网络 (BNN) 的学习动态进行形式化和因果分析。我们通过应用算法概率 (AP) 和基于通用分布的块分解方法 (BDM) 来估计算法复杂性。结果表明,这种方法比熵更能跟踪训练过程中的结构变化,并且与训练损失的相关性更强。这使得我们将学习视为一个算法压缩过程,表明学习对应于结构规律的逐渐内化。总而言之,本文对学习进度进行了原则性估计,并基于信息论、复杂性和可计算性的基本原理,提出了一个复杂性感知学习和正则化的框架。