每日 Arxiv

本页面整理了世界各地发表的人工智能相关论文。
本页面使用 Google Gemini 汇总而成,并以非盈利为基础运营。
论文版权归作者及相关机构所有,分享时请注明出处。

用于长尾自我中心错误检测的双阶段加权 MoE

Created by
  • Haebom

作者

韩博宇、徐倩倩、包世龙、杨志勇、李思聪、黄清明

大纲

本文探讨了从以自我为中心的视频数据中识别用户不准确行为的问题。为了处理细微且罕见的错误,我们提出了一种双阶段重加权混合专家 (DR-MoE) 框架。在第一阶段,使用固定的 ViViT 模型和 LoRA 调整的 ViViT 模型提取特征,然后通过特征级专家模块进行组合。在第二阶段,使用重加权交叉熵训练三个分类器以缓解类别不平衡问题,使用 AUC 损失来提高在倾斜分布中的排名,并使用标签感知损失和锐度感知最小化来增强校准和泛化能力。使用类别级专家模块融合它们的预测。所提出的方法在识别罕见和模糊错误方面表现出尤为稳健的性能。

Takeaways,Limitations

Takeaways:
DR-MoE框架有效地识别了以自我为中心的视频数据中用户的不准确行为。
它能够有效识别罕见和模糊的错误情况。
利用ViViT模型和LoRA调优提高了特征提取的效率。
通过使用各种损失函数和专家模块,性能得到了提高。
Limitations:
缺乏有关具体实验结果和数据集的信息。
缺乏有关所提出方法的计算复杂性的信息。
缺乏与其他现有方法的比较分析。
👍