Skip to content

Latest commit

 

History

History
20 lines (15 loc) · 1.9 KB

2402.10555.md

File metadata and controls

20 lines (15 loc) · 1.9 KB

背景

  • 背景
    文章介绍了在个性化内容推荐系统中利用用户长期互动历史的重要性。存有在处理用户长期历史文本和用户-物品之间的交互不足问题。

  • 已有的工作 现有的研究在编码很长的用户历史文本以及用户与项目之间不充分的互动方面还存在困难。

核心贡献

  • 提出的内容推荐框架SPAR
    • 挑战1:如何从用户的长期互动历史中提取完整的用户兴趣 所提出的SPAR框架通过利用预训练语言模型(PLM)的多头注意力层和注意力稀疏机制来编码用户的历史记录,这种基于会话的编码方式实现了从用户长时间互动中提取用户的全面兴趣。

    • 挑战2:保持用户与条目的独立表示并在实际部署中保持可用性 SPAR框架能高效地融合用户和条目特征用于交互预测,同时维护独立的代表性,这对于实际模型部署来说很关键。

实现与部署

实验结果表明,SPAR框架在两个标准数据集上的表现均优于现有的最先进技术,证明了SPAR框架的有效性。通过对MIND小数据集进行消融研究,研究者突出了UHS层在总结用户历史中的重要性,并展示了稀疏注意力机制在利用UHS层中的作用。实验还表明,去除UIE层、不使用PLM、冻结PLM、或者移除会话分组、LLM生成的用户兴趣摘要和CCS层,分别会导致性能的小幅下降。但同时移除上述三个组成部分会导致较大的性能降低,说明这些组件在框架中单独和集体的重要性。此外,与其他针对长序列用户历史内容进行编码的模型相比,SPAR在AUC等多个排名指标上也展现出了更好的性能。

总结

SPAR框架充分利用长期用户互动历史来提升个性化内容推荐的精度,并在多项性能指标上超越现有技术。