配色: 字号:
chatGPT、大模型在推荐系统中的应用
2023-11-21 | 阅:  转:  |  分享 
  
港大联合百度 WSDM 2024 Oral| chatGPT、大模型在推荐系统中的应用Paper: Large Language Model
s with Graph Augmentation for RecommendationCode: github LLMRec一.
导读1.背景 模态内容的推荐系统已经成为人们日常生活中的不可或缺的一部分。举例来说,Netflix一直以来都善于运用引人注目的标题
和海报,以向用户推荐热门电影,而在社交媒体巨头Twitter(X)上,用户发布的文本和图片往往能够吸引其他人的点赞和转发,从而将有
趣的内容传播开来。 然而,最近几年,个性化推荐系统的构建方法已经不再受限于仅仅依赖用户的历史交互数据。学术界和业界正齐心协力,积极
探索新的途径,以提高推荐系统的效力和智能程度。特别值得一提的是,大型语言模型(LLMs)以其卓越的自然语言理解能力令人叹为观止。正
因如此,近期,业界和学界都热衷于利用LLMs来深入分析数据中的文本内容,以强化和改进推荐系统,使其更好地满足用户的需求和兴趣。这一
领域的研究和应用已经成为一个备受关注的热点,引领着推荐系统的未来发展方向。2.动机(1)有效用LLMs助力推荐系统 经典的协同过滤
(Collaborative Filtering,CF)范式早在上个世纪九十年代初就开始被应用,至今已有二三十年的历史。然而,采用
大型语言模型(LLMs)来颠覆这一经典范式,以实现超越传统方法的效果和效率,充满了技术挑战,并且可能在短期内难以实现。 为了充分
发挥LLMs在增强推荐系统方面的潜力,本研究提出了一种新方法,即通过基础文本数据来增强用户-物品交互图,包括边和节点。这一方法具有
三个显著优势,以确保LLMs在推荐系统中的有效应用:i) 本方法不仅秉承传统的协同过滤范式,从而保障了基本的效率和效果。ii) 与
此同时,它充分利用了图神经网络(GNNs)作为编码器的强大潜力,为系统性能提供了有效支持。iii) 此外,这项工作基于LLM的数据
增强方法,直接增强了潜在的监督信号,提升了特征的质量和信息的丰富性,进一步加强了推荐系统的性能。(2)应对数据稀疏性和数据质量问题
长期以来,数据稀疏性一直是困扰推荐系统领域的一大挑战。最近,学术界和工业界普遍致力于通过引入辅助模态内容来增强对用户偏好的建模,以
应对数据稀疏性的问题。然而,引入辅助知识(side information)到推荐系统中不可避免地伴随着一系列问题,包括噪声的引入
、辅助知识的可获得性(例如,因隐私问题导致的用户档案缺失)、辅助知识的完整性和质量等等。这些问题甚至可能对最终的推荐结果产生不利影
响。大型语言模型(LLMs)以其广泛的知识库和卓越的自然语言理解能力为我们提供了有效的途径以应对这一问题。本研究提出了三种简单而高
效的数据增强方法,包括:1)利用LLMs基于文本信息增强隐式反馈(即u-i edge);2)利用LLMs基于历史互动数据和物品属性
增强用户画像(user node);3)利用LLMs基于基本的物品属性增强物品属性(item node)。这些方法有望显著提高推荐
系统的性能,克服了数据稀疏性和辅助知识引入所带来的问题,从而为用户提供更准确和个性化的推荐服务。二.概述1.存在的挑战挑战1---
如何让LLMs进行推荐?首先,我们需要明确的是,LLMs并没有经过专门的推荐任务或相关数据集的训练,这为其在推荐系统领域的应用带来
了一些挑战。其次,LLMs在处理推荐任务时受到输入token长度的限制,这限制了LLMs无法像传统的推荐系统一样轻松地进行全项排序
或处理包含大量物品的数据集。为了克服这些问题,本研究提出了一项解决方案。首先,这篇工作借助基础模型(例如LightGCN)为每位用
户提供物品候选项,以弥补LLMs在输入长度上的不足。接着,通过让LLMs从物品候选项中选择用户喜欢或不喜欢的物品,这篇工作增强了B
PR训练数据,使LLMs能够以更实际和有效的方式参与推荐系统的建模过程。这一方法旨在提高系统性能,同时为LLMs在推荐任务中的应用
拓宽了道路,从而克服了其在这一领域的限制。挑战2---如何确保增强的数据的可靠性?外部知识的引入不可避免地伴随着潜在噪声,这意味着
不能百分之百确定增强后的数据一定对最终任务有益。为了应对这个问题,这篇工作专门针对前文提到的增强方法进行去噪处理,即1)边的增强和
2)、3)节点特征的增强。更具体地说,对于1)的情况,这篇工作采用了直接删除可能带来影响的部分数据,而对于2)和3),这篇工作引入
了MAE,以降低模型对特征的敏感性,增加鲁棒性。这一系列去噪处理措施的目的在于提高数据质量,确保外部知识的引入不会对最终任务的性能
产生不利影响。同时,它们使模型能够更好地适应多样性和复杂性,以确保最终的推荐系统能够在真实场景中表现出色。这些去噪方法有助于平衡外
部知识的益处和可能的噪声。2.贡献总结来说,这篇工作的贡献如下: LLMRec模型是首个在推荐系统中利用LLMs进行图增强的研究
工作。这篇工作通过增强以下内容来实现这一目标:1) 用户-物品交互边、2) 物品节点属性、3) 用户节信息。 这篇工作提出的模型
解决了隐式反馈信号的稀缺性问题,使LLMs能够直接地进行用户-物品交互范式。此外,对于增强的边LLMRec直接刨除了可能存在影响的
部分,对于增强的节点信息LLMRec引入MAE使得模型不敏感于feature, 并拥有较强的鲁棒性。 LLMRec的方法在真实
世界数据集上进行了的评估,展示了其在各个方面超越了最先进的基准方法。实验结果明确表明了LLMRec的方法在提高推荐准确性、解决稀疏
性问题等方面的卓越性能。此外,LLMRec进行了深入的分析和消融研究,为LLMRec的LLM增强数据增强策略的影响提供了深刻的见解
,进一步证实了模型的有效性。三.方法在模型框架的具体设计方面,LLMRec主要关注以下问题: 如何使LLMs能够准确预测用户-物
品交互边? 如何确保LLMs生成有用的辅助信息(side information)? 如何有效地将增强的数据融入到推荐系统的框
架中? 如何增强模型的鲁棒性,使其能够处理增强的数据?0.协同过滤框架图数据增强的基本范式LLMRec对用户-物品交互图(gra
ph)的边(edge)和节点特征(node)都进行了增强。普通的推荐系统:进行了数据增强的推荐系统:1.用LLMs发掘潜在的隐式反
馈交互边LLMRec采用一种直接增强潜在交互的方法,以有效应对推荐系统中的数据稀疏性问题。具体而言,LLMRec将LLMs引入作为
知识感知的样本生成器,用于扩充成对的BPR训练数据。这种方法充分发挥了数据集中的文本信息和LLMs的优势,以从自然语言的角度更好地
建模用户偏好,而不仅仅依赖于基于标识的交互。在具体操作方面,LLMRec首先为每位用户构建一个"提示"(prompt),该提示由用
户u的历史互动以及候选项组成。引入候选项的原因在于LLMs无法对所有物品进行排序,因此候选项提供了一种替代性的方法。这些候选项的提
供可以通过使用诸如MMSSL或LATTICE等方法来实现,以确保这些候选项既是数量有限的又是有效的。这一方法的应用使LLMRec能
够更全面地发挥LLMs的自然语言处理能力,从而能够更好地理解用户的历史互动和候选项,以利用现实知识和语义信息预测用户-物品交互,为
用户提供更精准的个性化推荐。这种表示方式带来了一些优势:(1)它使推荐系统能够充分利用数据集中的内容,(2)它直观地以自然语言的方
式建模用户的偏好。用LLM进行隐式反馈的数据增强可以分为以下步骤: 为每位用户u生成用于增强u-i边的提示。 将这些生成的提示
输入到LLM中,以为每位用户选择一个正样本和一个负样本,从而创建伪BPR训练数据。 取一定数量的生成训练数据并将其与原始训练数据
合并。 最终合并后的推荐数据将用于训练推荐系统,以增加有效的监督信号。除此之外,用LLM从语义的角度增强u-i交互能够一定程度地
缓解增强隐式反馈中“false positive”和“false negative”的问题。具体来说,user历史交互过的item
可能不是真的用户偏好,比如新闻推荐系统中被文本标题或者图片误导而进行的user-item交互;反之,而未交互过的item虽然会被作
为负样本,但是其实不一定代表用户不喜欢。而用LLMs利用真实已有的信息从自然语言的角度重新选出用户可能偏好或者不偏好的item能够
一定程度地缓解上述问题。换句话说,基于LLMs的隐式反馈增强能够一定程度地缓解Bayesian Personalized Rank
ing(BPR)优化中的问题。从理论的角度,未交互过的item和噪声item分别作为负样本和正样本。然而,他们的优化方向却与式(3
)中的优化方向是不对应的,这可能导致敏感且次优的结果。基于LLM的增强方法利用自然语言空间来辅助ID向量空间,以从真实语义的角度反
映用户的偏好。借助真实世界的知识,LLMRec获得高质量的样本,减小了噪声和未现的隐式反馈的影响,提高了准确性,加快了收敛速度。2
.用LLMs增强节点的信息在以往的推荐系统中,使用辅助信息是一种常见方法,通常以物品属性的形式存在。然而,这种方法存在一些问题,例
如信息可能不完整、质量较低,或者获取困难。此外,由于隐私问题,用户的个人资料通常无法完全获得。在这方面,LLMs(大型语言模型)具
有丰富的知识库和出色的推理能力,因此非常适合用于增强辅助信息。对于物品来说,辅助信息可以直接通过物品本身原有的辅助信息来进行增强。
而对于用户,辅助信息则可以通过用户与物品的历史交互来获取。通过总结用户与已互动物品的特点,可以了解用户喜好的内容、使用的语言、所在
国家,甚至可能的年龄段等。这种方式不仅帮助解决了隐私问题,还提供了更全面的用户信息,有助于改进个性化推荐的质量和准确性。增强用户和
物品的辅助信息的过程可以分为以下步骤如下: 为每位用户/物品生成用于数据增强的提示。 使用生成的提示输入LLM,以为每位用户/
物品生成额外的辅助信息。 将生成的辅助信息输入到具备编码能力的语言模型(如:text-embedding-ada-002、Sen
tence-BERT)进行嵌入编码。 将生成的嵌入向量输入到推荐系统的编码器,以作为用户/物品表征学习的附加特征。3.模型训练与
数据增强的去噪获得了经过增强的数据后,这篇工作将这些数据用于模型的推理和训练。然而,需要注意的是,增强的数据并不一定都是有效的,甚
至可能包含噪声,这可能对推荐结果产生不利影响。为了应对这个问题,LLMRec采用了剪枝和MAE两种方法,分别用于去除用户-物品交互
边和用户/物品节点特征中的噪声。隐式反馈的剪枝隐式反馈去噪的具体过程是将负号之前的loss value进行生序排序,取前top-N
。这可以避免不可靠的梯度反馈对优化产生较大影响,从而使优化过程更加稳定和有效:Feature的MAE对增强的特征进行MAE可以使编
码器对特征不那么敏感,从而增强模型对特征中噪声的鲁棒性。这个过程包括两个步骤:i) 选择一定数量的特征进行mask,用mask t
oken替代。ii) 利用回归损失来还原被mask的特征。模型最终的优化目标是将多个损失函数联合进行多目标优化。四.多模态与增强的
图数据1.制作并公开多模态推荐数据集该工作制作并公开了Netflix和MovieLens两个多模态数据集。CLIP-ViT和 Se
ntence-BERT分别是视觉和文本信息的编码器。 Netflix数据集: Netflix是使用Kaggle网站上发布的原始
Netflix Prize数据集制作的多模态数据集。数据格式与多模态推荐的最新方法(如MMSSL、LATTICE、MICRO等)完
全兼容。文本模态是基础的item信息;视觉模态的图片则是根据电影的信息从网络爬取的海报。 MovieLens数据集: Movie
Lens数据集是由明尼苏达大学的GroupLens发布的。文本信息是基本电影属性,而视觉内容是通过MovieLens上的每个电影的
URL获取的。该工作同样提供了一个经过预处理的MovieLens数据集,可直接供LLMRec、MMSSL、LATTICE和MICR
O等baseline使用,无需额外的数据预处理,包括(1)原始图像和文本,(2)基本用户-项目交互和多模态信息,(3)以及LLM增
强的内容。文本模态 & 视觉模态如下:2.原始的图数据和增强的图数据本篇工作增强了user-item交互图的edge和node。粗
体文本用以标识被的增强数据:E代表着用户与物品之间增强的交互边。而U和I分别表示LLMRec对user/item节点属性进行的增强
,这些属性将在GNNs消息传递和嵌入的过程中被转化为特征,以加强推荐算法的性能。 四.实验1.主实验结果 LLMRec的性能对比主
要是基于通用协同过滤(general CF)和多模态推荐方法。更详细地说,可以将其划分为以下子类别:通用协同过滤、带有辅助信息的推
荐系统、数据增强推荐系统以及自监督推荐系统。LLMRec模型通过显式增强用户-物品交互边缘和提高辅助信息的质量,相对于基准模型表现
出更优异的性能。值得一提的是,LLMRec的模型基于LATTICE的编码器,包括ID对应编码器和特征编码器。这一改进突显了LLMR
ec框架的有效性。引入辅助信息显著增强了推荐系统的性能。像MMSSL和MICRO等方法因其有效利用多模态辅助信息和图神经网络而脱颖
而出。相比之下,一些方法依赖于有限的内容,比如仅使用视觉特征的VBPR,或者像NGCF这样的通用协同过滤架构,没有使用辅助信息,导
致结果明显降低。这突显了有价值内容的重要性,因为仅仅依赖ID对应的记录无法完整捕捉用户-物品关系。现有方法,例如LATTICE和M
ICRO,它们也利用辅助信息进行数据增强,与LLMRec的LLMRec相比,显示出有限的改进。这可以归因于两个主要因素:(1)使用
同质关系(例如,i-i 或 u-u)增强辅助信息可能引入噪音,从而可能影响用户偏好的准确性。 (2) 这些方法通常不直接增强u-i
交互数据。MMSSL和MICRO在通过SSL信号解决稀疏性方面取得了有希望的结果。然而,它们未能超越LLMRec的性能,可能是因为
它们增强的自监督信号可能与建模用户-物品交互的目标任务不太匹配。相比之下,LLMRec通过直接建立BPR三元组明确解决了训练数据的
稀缺性。主实验的结果如下: 2.消融实验:数据增强&数据去噪 消融实验主要针对数据增强和去噪两个部分。w/o-u-i在消去LLM增
强的隐式反馈的情况下,结果显著下降。这表明LLMRec通过包含上下文知识增加了潜在的监督信号,从而更好地把握用户的偏好。w/o-u
移除LLMRec的用户建模增强器会导致性能下降,这表明LLMRec基于LLM的用户辅助信息能够有效地通过历史交互和物品端知识总结有
用的用户偏好概况。w/o-u:去除噪声剪枝会导致性能下降。这表明去除嘈杂的隐式反馈信号的过程有帮助。当LLMRec移除对用户和物品
的增强辅助信息时,会观察到更低的推荐准确度。这一发现表明,基于LLM的增强辅助信息为推荐系统提供了宝贵的增强数据,有助于获得高质量
和富有信息的表示。此外,去除噪音修剪会导致性能下降。这表明去除嘈杂的隐式反馈信号的过程有助于防止不当的梯度下降。当同时去除隐式反馈
和语义特征的去噪(即,w/o-prune + w/o-MAE)时,性能受到影响。这表明LLMRec的去噪数据强化机制,通过整合噪音
修剪和语义特征增强,助力了优化过程。 3.参数实验:Text Generation&Recommendation温度参数 $\ta
u$ 影响文本的随机性。较高的值(>1.0)增加多样性和创造性,而较低的值(<0.1)导致更加聚焦。LLMRec使用 $\tau$
从集合 ${0, 0.6, 0.8, 1}$ 中选取。如表所示,增加 $\tau$ 起初提高了大多数指标,随后出现下降。Top-
p抽样根据由顶部参数 $p$ 确定的阈值选择标记。较低的 $p$ 值优先选择可能的标记,而较高的值则鼓励多样性。LLMRec使用来
自集合 ${0, 0.1, 0.4, 1}$ 的 $p$ 值,较小的 $p$ 值往往产生更好的结果。LLMRec使用 $\math
cal{C}$ 来限制基于LLM的推荐系统中的物品候选项。由于成本限制,这篇工作探索了 $\{3, 10, 30\}$,而表显示 $\mathcal{C}=10$ 产生了最佳结果。较小的值限制了选择,而较大的值增加了推荐的难度。LLMRec使用 $\mathcal{C}$ 来限制基于LLM的推荐系统中的物品候选项。由于成本限制,LLMRec尝试了 ${3, 10, 30}$,而表显示 $\mathcal{C}=10$ 产生了最佳结果。较小的值限制了选择,而较大的值增加了推荐的难度。 五.总结和展望 本研究的主要关注点在于设计基于LLMs的图数据增强方法,实际应用LLM技术来增强推荐系统,以解决稀疏的隐式反馈信号和低质量辅助信息所带来的挑战。LLMRec通过对用户互动偏好进行剖析以及去偏物品属性来应对这些挑战。为确保增强数据的质量,LLMRec引入了一个去噪增强鲁棒机制。LLMRec的有效性得到了理论分析和实验结果的验证,表明它在基准数据集上优于当前最先进的推荐技术。未来的研究方向包括将因果推断融入辅助信息去偏过程,并探索用于上下文感知用户偏好的反事实因素。
献花(0)
+1
(本文系昵称5924940...首藏)