在线排名学习 (OLTR) 在信息检索和机器学习系统中起着至关重要的作用,并广泛应用于搜索引擎和内容推荐系统。然而,尽管 OLTR 算法被广泛使用,但人们对其易受系统性对抗攻击的弱点缺乏认识。在本研究中,我们提出了一个用于攻击广泛使用的 OLTR 算法的新颖框架。该框架旨在在学习算法中引入线性遗憾,同时确保目标项目集在 T - o(T) 轮内出现在前 K 个推荐列表中。我们提出了两种新颖的攻击策略:用于 CascadeUCB1 的 CascadeOFA 和用于 PBM-UCB 的 PBMOFA。这两种策略都提供了理论保证,即仅需 O(log T) 操作即可成功。我们通过对真实数据的实验结果进一步补充了我们的理论分析。