Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

InterFormer : Apprentissage interactif hétérogène efficace pour la prédiction du taux de clics

Created by
  • Haebom

Auteur

Zhichen Zeng, Xiaolong Liu, Mengyue Hang, Xiaoyi Liu, Qinghai Zhou, Chaofei Yang, Yiqun Liu, Yichen Ruan, Laming Chen, Yuxin Chen, Yujia Hao, Jiaqi Xu, Jade Nie, Xi Liu, Buyun Zhang, Wei Wen, Siyang Yuan, Hang Yin, Xin Zhang, Kai Wang, Wen-Yen Chen, Yiping Han, Huayu Li, Chunzhi Yang, Bo Long, Philip S. Yu, Hanghang Tong et Jiyan Yang

Contour

Cet article aborde la problématique de la prédiction du taux de clics (CTR) dans les systèmes de recommandation, qui prédisent la probabilité qu'un utilisateur clique sur une publicité. L'émergence d'informations hétérogènes, telles que les profils utilisateurs et les séquences comportementales, nous a permis de comprendre les intérêts des utilisateurs sous divers angles, et l'intégration mutuellement bénéfique de ces informations hétérogènes est la clé du succès de la prédiction du CTR. Les méthodes existantes présentent deux limites fondamentales : l'absence d'interaction intermodale due à l'unidirectionnalité du flux d'information et la perte excessive d'informations due à une synthèse précoce. Pour pallier ces limites, nous proposons InterFormer, un nouveau module qui apprend les interactions d'informations hétérogènes de manière intermodale. InterFormer conserve intégralement les informations de chaque mode de données et utilise une architecture de connexion distincte pour une sélection et une synthèse efficaces des informations, permettant un flux d'information bidirectionnel pour un apprentissage mutuellement bénéfique et évitant une agrégation excessive des informations. L'InterFormer proposé atteint des performances de pointe sur trois jeux de données publics et un jeu de données industrielles à grande échelle.

Takeaways, Limitations

Takeaways:
Nous proposons InterFormer, un nouveau module qui apprend efficacement l'interaction d'informations hétérogènes, conduisant à de meilleures performances de prédiction du CTR.
Les limites des méthodes existantes ont été surmontées grâce à un flux d’informations bidirectionnel et à des stratégies de minimisation des pertes d’informations.
Nous démontrons l’applicabilité pratique en validant les performances de pointe sur des ensembles de données publics et des ensembles de données industrielles à grande échelle.
Limitations:
La complexité du module InterFormer peut augmenter les coûts de calcul.
Les paramètres des hyperparamètres peuvent devoir être optimisés pour un ensemble de données spécifique.
Des recherches supplémentaires sont nécessaires sur les performances de généralisation de la méthode proposée.
👍