博客

  • 超越相似性:基于复合聚合的个性化联邦推荐

    引言

    联邦推荐 (FR) 作为一种新兴的设备端学习范式,在学术界和工业界都引起了广泛的关注。现有的联邦推荐系统通常采用不同的协同过滤模型作为本地模型,并使用各种聚合函数来获得全局推荐器,遵循基本的联邦学习 (FL) 原则。例如,一项开创性的工作是 FCF,它通过执行本地更新和使用联邦优化进行全局聚合来适应中心化的矩阵分解。此外,FedNCF 将矩阵分解的线性与深度嵌入技术的非线性相结合,建立在 FCF 的基础之上。这些基于嵌入的联邦推荐模型有效地平衡了推荐准确性和隐私保护。

    挑战:嵌入偏差问题

    FR 的成功归功于它们能够通过聚合函数来体现数据局部性,同时跨多个客户端实现知识的全局性。这些函数在联邦优化过程中起着至关重要的作用,决定了从每个客户端获取哪些知识以及将这些知识整合到全局模型的程度。其中最著名的方法是 FedAvg,它为拥有更多数据样本的客户端分配更大的权重,以实现加权聚合,从而优化全局模型。后续工作旨在改进聚合策略,以解决联邦环境中的数据异质性挑战。例如,PerFedRec 首先利用聚类来识别具有相似数据分布的客户端,然后进行组内聚合以实现自适应。此外,FedAtt 通过计算本地模型和全局模型之间的相似性来分配不同客户端的注意力系数,从而实现个性化的联邦优化。以上聚合方法通过考虑细粒度的相似性有效地缓解了异质性挑战。

    然而,FR 中使用的这些聚合函数主要受到联邦视觉领域中使用的函数的启发,例如加权聚合、聚类聚合和注意力聚合。所有这些本质上都基于相似性假设,即相似的客户端被分配更多权重,而不同的客户端被分配相对较小的权重。尽管取得了令人满意的性能,但我们认为,直接从联邦视觉领域采用现成的聚合函数可能不适合 FR 任务,因为 FR 任务天生就表现出显著的异质性,并且每个客户端都高度需要个性化偏好。

    问题根源:模型架构差异

    这种研究差距的主要原因反映在模型架构的差异上。与联邦视觉模型(例如卷积神经网络)不同,联邦视觉模型通常具有深度网络结构(又称结构化参数),联邦推荐模型通常通过使用一对一的项目嵌入表来区分自身。由于不同的客户端可能涉及不同的交互项目子集,导致每个客户端的嵌入表中训练了不同的行。当仅依靠相似性聚合时,会导致 FR 中独特的嵌入偏差问题,即训练的嵌入(蓝色)持续改进,而未训练的嵌入(灰色)在聚合过程中保持不变甚至恶化,如图 1(a)所示。因此,仅通过相似性聚合来预测本地设备上的未交互项目是一个巨大的挑战。

    解决方案:复合聚合机制

    为了解决嵌入偏差问题,本文提出了一种针对 FR 模型的复合聚合机制,它不仅聚合相似的客户端,还聚合互补的客户端。这种机制可以增强已经训练的嵌入,并更新未训练的嵌入,从而增强在边缘设备上预测未来项目的能力,如图 1(b)所示。此外,我们将聚合过程公式化为一个统一的优化算法,以共同学习相似性和互补性。在多个真实世界数据集上的大量实验表明,我们的模型始终优于几种最先进的方法。

    模型架构:FedCA

    FedCA 模型采用了一种统一的学习框架,该框架针对 FR 任务,优化每个客户端的个性化本地参数 {pu, Qu} 和聚合权重向量 {wu}。该框架受到相似性和互补性的联合约束的影响。

    服务器聚合

    服务器的职责是优化每个客户端 u 的聚合权重 wu,从而为每个客户端实现个性化的全局聚合。理想情况下,我们希望 wu 在等式 (3) 中的损失函数下得到完美优化。然而,由于联邦环境的限制,这是不切实际的。服务器只能访问每个客户端上传的本地模型 Qu,而不知道每个客户端的用户信息嵌入 pu 和本地数据 Du,因此难以直接在服务器端计算 Lu。为了合理地感知每个客户端的初始贡献,我们利用 wu 和本地数据相对数量 p 之间的均方误差作为 Lu 的代理,度量每个客户端的优化水平,这受到最近工作的启发。因此,在服务器端优化 wu 的损失函数被改写为等式 (4)。

    本地训练

    每个客户端 u 的任务是利用本地数据来优化关于私有用户嵌入 pu 和个性化项目嵌入 Qu 的本地经验损失 Lu。私有用户嵌入 pu 保留在本地,而计算出的项目嵌入 Qu 被上传到服务器进行全局聚合。为了从训练过程中的交互中挖掘信息,我们将 Lu 指定为二元交叉熵 (BCE) 损失,这是一个为推荐系统精心设计的目标函数。BCE 损失的目标函数在等式 (7) 中定义。

    本地推理

    在本地推理阶段,客户端 u 首先从服务器下载聚合的项目嵌入 Qg。值得注意的是,在联邦视觉领域,它可以直接使用全局参数 Qg 执行本地推理。然而,在 FR 任务中,客户端特定的用户嵌入 pu 的存在导致前一轮 t-1 的用户嵌入 pu^t-1 和本轮 t 的聚合项目嵌入 Qg^t 之间存在空间错位问题。为了实现空间对齐,我们采用了一种简单而有效的方法,即插值法,以缩小本地特定参数 pu 和全局参数 Qg 之间的差距。通过引入 ρ,我们平衡了本地参数 Qu 和全局聚合参数 Qg 的权重,从而在嵌入空间中将项目与用户对齐。

    实验结果

    实验结果表明,FedCA 在四个基准数据集上始终优于基线模型,表明 FedCA 比仅使用相似性聚合更适合 FR 任务中的嵌入表聚合。此外,FedCA 在不同的训练数据稀疏性水平下也表现出鲁棒性,表明 FedCA 在训练数据有限的情况下仍然可以取得良好的泛化性能。

    结论

    本文首先重新思考了联邦视觉和 FR 任务之间的根本差异。具体而言,联邦视觉领域主要利用结构化参数(例如卷积神经网络)进行联邦优化,而 FR 任务主要使用一对一的项目嵌入表进行个性化推荐。这种关键差异使得从联邦视觉领域借用的基于相似性的聚合方法无法有效地聚合嵌入表,从而导致嵌入偏差问题。为了解决上述挑战,本文提出了一种针对 FR 任务的复合聚合机制。具体而言,通过在一个统一的优化框架内结合模型相似性和数据互补性,我们的方法增强了客户端已经交互过的项目的训练嵌入,并优化了客户端尚未交互过的项目的未训练嵌入。这使得能够有效地预测未来项目。此外,我们还探讨了近端项在 FR 任务中对个性化偏好的无效性,并提出了一种插值方法来缓解 FR 中的空间错位问题。

    未来方向

    本研究专门为 FR 任务提出了一种很有前景的复合聚合框架。它是一个与模型无关的即插即用模块,可以无缝集成到主流 FR 模型中。然而,在本研究中,我们需要手动调整相似性和互补性的权重分配。这些限制可以通过在未来的研究中使用自动机器学习技术来自适应地学习权重分配来缓解。此外,探索更适合 FR 任务的模型相似性和数据互补性机制也是一个很有前景的研究方向。

  • FedAds: 隐私保护下的转化率估计新基准

    近年来,越来越多的网络应用开始使用机器学习模型来提供个性化的服务,满足用户的偏好。转化率 (CVR) 估计是在线推荐和广告系统中的一个基础模块,其目标是在用户点击广告后预测其转化事件(例如,电商广告中的购买行为)的概率。CVR 估计在候选排名和广告竞价策略中起着至关重要的作用。

    数据隐私的挑战

    在线广告中,用户在发布商页面浏览广告并点击后,会跳转到广告落地页。用户在落地页上的后续行为,包括转化决策,会被收集起来。发布商拥有用户的浏览兴趣和点击反馈,而需求方广告平台则收集用户的点击后行为,例如停留时间和转化决策。为了准确地估计 CVR 并更好地保护数据隐私,垂直联邦学习 (vFL) [35, 40] 成为了一种自然解决方案,它能够在不交换原始数据的情况下,结合两者的优势来训练模型。

    然而,目前缺乏标准化的数据集和系统化的评估方法。由于缺乏标准化的数据集,现有的研究通常采用公共数据集,通过手工制作的特征划分来模拟 vFL 设置,这给公平比较带来了挑战。

    FedAds: 垂直联邦学习下的转化率估计基准

    为了解决这一问题,我们引入了 FedAds,这是第一个用于隐私保护的 vFL 转化率估计基准,旨在促进 vFL 算法的标准化和系统化评估。FedAds 包含:

    1. 来自阿里巴巴广告平台的大规模真实世界数据集:该数据集收集自一个依赖于 vFL 基于排名模型的广告投放业务。
    2. 对各种神经网络基于 vFL 算法的有效性和隐私方面的系统化评估:通过大量实验,对各种 vFL 算法的有效性和隐私方面进行了系统化评估。

    FedAds 的主要贡献:

    • 提供了一个来自阿里巴巴广告平台的真实世界 CVR 估计数据集。据我们所知,这是第一个用于 vFL 研究的大规模数据集。
    • 对最近提出的 vFL 算法进行了系统化评估,分别评估了其在所提数据集上的有效性和隐私方面,促进了各种研究的公平比较。
    • 提出了两种方法,分别用于在 vFL 中合并未对齐数据和保护私有标签信息,并在所提数据集上的实验验证了它们的性能。

    FedAds 旨在为未来的 vFL 算法和 CVR 估计研究提供帮助。

    FedAds 的主要组成部分:

    • 数据集描述:数据集基于阿里巴巴电商广告投放业务的点击日志构建。该业务中,发布商和广告平台都属于阿里巴巴集团。尽管两者属于同一公司,但它们仍然无法相互共享用户行为信息。
    • 数据集构建:数据集基于收集到的数据构建。具体来说,我们收集了该投放业务 1 个月的连续用户点击事件,数据集中的每个样本对应一个唯一的点击事件。我们记录了每个样本的上下文信息,例如请求和点击事件的时间戳。数据集包含来自两方的特征,以及来自标签方的转化标签。
    • 特征和处理:每个样本的特征集由两部分组成:一部分来自标签方(即广告平台),另一部分来自非标签方(即发布商)。

    提高 vFL 的有效性和隐私性

    • 利用标签方的未对齐样本:传统 vFL 算法的训练过程依赖于对齐的特征划分数据。为了解决这个问题,我们提出了 Diffu-AT,这是一个增强的 vFL 训练框架,它首先使用扩散模型生成缺失的特征,然后执行交替训练,将未对齐的样本合并到传统的 vFL 框架中。
    • 防御标签推断攻击:由于梯度对联邦嵌入的数学表达式包含标签信息,vFL 模型可能会遭受潜在的标签泄露风险。为了解决这个问题,我们提出了 MixPro,这是一种简单而有效的梯度混合和投影方法,它对批内样本梯度进行凸组合和投影,以保护私有标签信息。

    实验评估

    我们对各种 vFL 模型进行了系统化的评估,包括有效性和隐私方面。

    • 有效性实验:我们比较了以下几种方法,以评估它们的有效性:Local、VanillaVFL、HeuristicVFL、SS-VFL、FedCVT、VFL-MPD、FedHSSL、JPL 和 Diffu-AT。实验结果表明,我们的 Diffu-AT 在排名能力方面表现最好,验证了使用扩散模型合成的联邦嵌入可以增强未对齐样本的表示。
    • 隐私实验:我们比较了以下几种防御方法,以评估它们防御标签推断攻击的能力:No Defense、DP、Marvell 和 MixPro。实验结果表明,我们的 MixPro 在防御标签推断攻击方面比 DP 表现得更好,验证了其在 vFL 模型训练中的隐私性能。

    结论和未来工作

    我们介绍了 FedAds,这是一个用于隐私保护的 CVR 估计的第一个基准,旨在促进 vFL 算法的系统化评估。FedAds 包含一个来自阿里巴巴广告平台的大规模真实世界数据集,以及对各种神经网络基于 vFL 算法的有效性和隐私方面的系统化评估。此外,我们探索了使用生成模型生成未对齐样本的特征表示来合并未对齐数据,以提高 vFL 的有效性。为了更好地保护隐私,我们还开发了基于混合和投影操作的扰动方法。实验表明,这些方法取得了合理的性能。

    在未来的工作中,我们将探索以下方向:

    1. 提高 vFL 模型的校准性能 [27, 37]。
    2. 通过对 vFL 模型进行去偏方法 [10, 39] 来缓解 CVR 估计模型中的样本选择偏差问题。
    3. 提高 vFL 训练效率。
    4. 将 vFL 的使用方式从在线广告系统的排名阶段扩展到检索阶段。

    参考文献:

    [1] Martin Abadi, Andy Chu, Ian Goodfellow, H Brendan McMahan, Ilya Mironov, Kunal Talwar, and Li Zhang. 2016. Deep learning with differential privacy. In Proceedings of the 2016 ACM SIGSAC conference on computer and communications security. 308–318.

    [2] Daniel J Beutel, Taner Topal, Akhil Mathur, Xinchi Qiu, Titouan Parcollet, Pedro PB de Gusmão, and Nicholas D Lane. 2020. Flower: A friendly federated learning research framework. arXiv preprint arXiv:2007.14390 (2020).

    [3] Sebastian Caldas, Sai Meher Karthik Duddu, Peter Wu, Tian Li, Jakub Konečn`y, H Brendan McMahan, Virginia Smith, and Ameet Talwalkar. 2018. Leaf: A benchmark for federated settings. arXiv preprint arXiv:1812.01097 (2018).

    [4] Timothy Castiglia, Shiqiang Wang, and Stacy Patterson. [n.d.]. Self-Supervised Vertical Federated Learning. In Workshop on Federated Learning: Recent Advances and New Challenges (in Conjunction with NeurIPS 2022).

    [5] Daoyuan Chen, Dawei Gao, Weirui Kuang, Yaliang Li, and Bolin Ding. 2022. pFL-Bench: A Comprehensive Benchmark for Personalized Federated Learning. arXiv preprint arXiv:2206.03655 (2022).

    [6] Heng-Tze Cheng, Levent Koc, Jeremiah Harmsen, Tal Shaked, Tushar Chandra, Hrishi Aradhye, Glen Anderson, Greg Corrado, Wei Chai, Mustafa Ispir, et al. 2016. Wide & deep learning for recommender systems. In Proceedings of the 1st workshop on deep learning for recommender systems. 7–10.

    [7] Paul Covington, Jay Adams, and Emre Sargin. 2016. Deep neural networks for YouTube recommendations. In Proceedings of the 10th ACM conference on recommender systems. 191–198.

    [8] Chong Fu, Xuhong Zhang, Shouling Ji, Jinyin Chen, Jingzheng Wu, Shanqing Guo, Jun Zhou, Alex X Liu, and Ting Wang. 2022. Label inference attacks against vertical federated learning. In 31st USENIX Security Symposium (USENIX Security 22), Boston, MA.

    [9] Shansan Gong, Mukai Li, Jiangtao Feng, Zhiyong Wu, and Lingpeng Kong. 2023. Sequence to sequence text generation with diffusion models. In International Conference on Learning Representations.

    [10] Siyuan Guo, Lixin Zou, Yiding Liu, Wenwen Ye, Suqi Cheng, Shuaiqiang Wang, Hechang Chen, Dawei Yin, and Yi Chang. 2021. Enhanced Doubly Robust Learning for Debiasing Post-click Conversion Rate Estimation. In The 44th International ACM SIGIR Conference on Research and Development in Information Retrieval.

    [11] Chaoyang He, Songze Li, Jinhyun So, Xiao Zeng, Mi Zhang, Hongyi Wang, Xiaoyang Wang, Praneeth Vepakomma, Abhishek Singh, Hang Qiu, et al. 2020. Fedml: A research library and benchmark for federated machine learning. arXiv preprint arXiv:2007.13518 (2020).

    [12] Yuanqin He, Yan Kang, Jiahuan Luo, Lixin Fan, and Qiang Yang. 2022. A hybrid self-supervised learning framework for vertical federated learning. arXiv preprint arXiv:2208.08934 (2022).

    [13] Jonathan Ho, Ajay Jain, and Pieter Abbeel. 2020. Denoising diffusion probabilistic models. Advances in Neural Information Processing Systems 33 (2020), 6840–6851.

    [14] Kaggle. [n.d.]. Avazu dataset. https://www.kaggle.com/c/avazu-ctr-prediction.

    [15] Kaggle. [n.d.]. Give Me Some Credit dataset. https://www.kaggle.com/c/GiveMeSomeCredit.

    [16] Yan Kang, Yang Liu, and Xinle Liang. 2022. FedCVT: Semi-supervised vertical federated learning with cross-view training. ACM Transactions on Intelligent Systems and Technology (TIST) 13, 4 (2022), 1–16.

    [17] Vladimir Kolesnikov, Ranjit Kumaresan, Mike Rosulek, and Ni Trieu. 2016. Efficient batched oblivious PRF with applications to private set intersection. In Proceedings of the 2016 ACM SIGSAC Conference on Computer and Communications Security. 818–829.

    [18] Criteo Labs. [n.d.]. Criteo dataset. https://labs.criteo.com/2014/02/download-kaggle-display-advertising-challenge-dataset/.

    [19] Fan Lai, Yinwei Dai, Sanjay Singapuram, Jiachen Liu, Xiangfeng Zhu, Harsha Madhyastha, and Mosharaf Chowdhury. 2022. Fedscale: Benchmarking model and system performance of federated learning at scale. In International Conference on Machine Learning. PMLR, 11814–11827.

    [20] Oscar Li, Jiankai Sun, Xin Yang, Weihao Gao, Hongyi Zhang, Junyuan Xie, Virginia Smith, and Chong Wang. 2022. Label Leakage and Protection in Two-party Split Learning. In International Conference on Learning Representations.

    [21] Wenjie Li, Qiaolin Xia, Hao Cheng, Kouyin Xue, and Shu-Tao Xia. 2022. Vertical semi-federated learning for efficient online advertising. arXiv preprint arXiv:2209.15635 (2022).

    [22] Wenjie Li, Qiaolin Xia, Junfeng Deng, Hao Cheng, Jiangming Liu, Kouying Xue, Yong Cheng, and Shu-Tao Xia. 2022. Semi-supervised cross-silo advertising with partial knowledge transfer. International Workshop on Trustworthy Federated Learning in Conjunction with IJCAI 2022 (FL-IJCAI’22) (2022).

    [23] Xiang Lisa Li, John Thickstun, Ishaan Gulrajani, Percy Liang, and Tatsunori Hashimoto. 2022. Diffusion-LM Improves Controllable Text Generation. In Advances in Neural Information Processing Systems.

    [24] Xiao Ma, Liqin Zhao, Guan Huang, Zhi Wang, Zelin Hu, Xiaoqiang Zhu, and Kun Gai. 2018. Entire Space Multi-Task Model: An Effective Approach for Estimating Post-Click Conversion Rate. In The 41st International ACM SIGIR Conference on Research and Development in Information Retrieval.

    [25] Brendan McMahan, Eider Moore, Daniel Ramage, Seth Hampson, and Blaise Aguera y Arcas. 2017. Communication-efficient learning of deep networks from decentralized data. In Artificial intelligence and statistics. PMLR, 1273–1282.

    [26] P. Mooney. [n.d.]. Breast histopathology images. https://www.kaggle.com/datasets/paultimothymooney/breast-histopathology-images.

    [27] Feiyang Pan, Xiang Ao, Pingzhong Tang, Min Lu, Dapeng Liu, Lei Xiao, and Qing He. 2020. Field-aware calibration: A simple and empirically strong method for reliable probabilistic predictions. In Proceedings of The Web Conference 2020. 729–739.

    [28] PASCAL-Challenge-2008. [n.d.]. epsilon dataset. https://www.csie.ntu.edu.tw/~cjlin/libsvmtools/datasets/.

    [29] Soumik Rakshit. [n.d.]. Yahoo answers dataset. https://www.kaggle.com/soumikrakshit/yahoo-answers-dataset.

    [30] Jascha Sohl-Dickstein, Eric Weiss, Niru Maheswaranathan, and Surya Ganguli. 2015. Deep unsupervised learning using nonequilibrium thermodynamics. In International Conference on Machine Learning. PMLR, 2256–2265.

    [31] Jiankai Sun, Xin Yang, Yuanshun Yao, and Chong Wang. 2022. Label Leakage and Protection from Forward Embedding in Vertical Federated Learning. arXiv preprint arXiv:2203.01451 (2022).

    [32] Jiankai Sun, Yuanshun Yao, Weihao Gao, Junyuan Xie, and Chong Wang. 2021. Defending against reconstruction attack in vertical federated learning. arXiv preprint arXiv:2107.09898 (2021).

    [33] Jean Ogier du Terrail, Samy-Safwan Ayed, Edwige Cyffers, Felix Grimberg, Chaoyang He, Regis Loeb, Paul Mangold, Tanguy Marchand, Othmane Marfoq, Erum Mushtaq, et al. 2022. FLamby: Datasets and Benchmarks for Cross-Silo Federated Learning in Realistic Healthcare Settings. arXiv preprint arXiv:2210.04620 (2022).

    [34] Praneeth Vepakomma, Otkrist Gupta, Abhimanyu Dubey, and Ramesh Raskar. 2018. Reducing leakage in distributed deep learning for sensitive health data. arXiv preprint arXiv:1812.00564 2 (2018).

    [35] Praneeth Vepakomma, Otkrist Gupta, Tristan Swedish, and Ramesh Raskar. 2018. Split learning for health: Distributed deep learning without sharing raw patient data. ICLR 2019 Workshop on AI for social good (2018).

    [36] Zirui Wang, Yulia Tsvetkov, Orhan Firat, and Yuan Cao. 2021. Gradient Vaccine: Investigating and Improving Multi-task Optimization in Massively Multilingual Models. In International Conference on Learning Representations.

    [37] Penghui Wei, Weimin Zhang, Ruijie Hou, Jinquan Liu, Shaoguo Liu, Liang Wang, and Bo Zheng. 2022. Posterior Probability Matters: Doubly-Adaptive Calibration for Neural Predictions in Online Advertising. In Proceedings of the 45th International ACM SIGIR Conference on Research and Development in Information Retrieval. 2645–2649.

    [38] Penghui Wei, Weimin Zhang, Zixuan Xu, Shaoguo Liu, Kuang-chih Lee, and Bo Zheng. 2021. AutoHERI: Automated Hierarchical Representation Integration for Post-Click Conversion Rate Estimation. In Proceedings of the 30th ACM International Conference on Information & Knowledge Management. 3528–3532.

    [39] Zixuan Xu, Penghui Wei, Weimin Zhang, Shaoguo Liu, Liang Wang, and Bo Zheng. 2022. UKD: Debiasing Conversion Rate Estimation via Uncertainty-regularized Knowledge Distillation. In Proceedings of The Web Conference 2022.

    [40] Qiang Yang, Yang Liu, Tianjian Chen, and Yongxin Tong. 2019. Federated machine learning: Concept and applications. ACM Transactions on Intelligent Systems and Technology (TIST) 10, 2 (2019), 1–19.

    [41] Tianhe Yu, Saurabh Kumar, Abhishek Gupta, Sergey Levine, Karol Hausman, and Chelsea Finn. 2020. Gradient surgery for multi-task learning. Advances in Neural Information Processing Systems 33 (2020), 5824–5836.

    [42] Hongyi Zhang, Moustapha Cisse, Yann N Dauphin, and David Lopez-Paz. 2018. mixup: Beyond Empirical Risk Minimization. In International Conference on Learning Representations.

    [43] Yifei Zhang and Hao Zhu. 2020. Additively homomorphical encryption based deep neural network for asymmetrically collaborative machine learning. arXiv preprint arXiv

  • 对话系统的新纪元:如何评估大型语言模型驱动的聊天机器人?

    随着大型语言模型(LLM)的迅速发展,以LLM为基础的对话系统(例如聊天机器人)在近几年取得了惊人的进步。然而,这些系统也带来了新的挑战,它们可能对用户和社会产生负面影响。因此,建立一个有效的评估框架,及时发现这些潜在的负面影响,并量化其积极影响,变得至关重要。

    评估框架的六大要素

    一个理想的评估框架至少应该满足以下六个要素:

    • 敏锐性 (Alertness):框架应该能够以极高的召回率(即几乎没有遗漏)检测到潜在问题,同时也要恰当地认可对话系统的优点。此外,在追求高召回率的同时,框架还应考虑不同参与者的利益,例如为系统训练数据进行标注的工作人员,以及边缘化群体。
    • 特异性 (Specificity):框架应该能够在对话中准确地定位问题。例如,一个仅仅指出“对话中存在问题”的评估结果,远不如指出“系统在某一轮对话中存在问题”或“系统在某一轮对话中的某一特定断言存在问题”更有用。
    • 通用性 (Versatility):框架应该能够无缝地处理面向任务的对话和非面向任务的对话。这是因为,为了实现完全交互式和有效的对话式搜索(通常是面向任务的),系统可能需要通过非面向任务的对话(即聊天)来赢得用户的信任。此外,即使在同一对话会话中,用户的需求也可能从模糊到明确,跨越不同的信息需求范围。
    • 敏捷性 (Agility):新的对话系统发布和更新的频率很高,因此评估框架也需要保持敏捷。这排除了完全依赖人工评估的方法。
    • 透明度 (Transparency):评估指标应该易于计算,并且能够清晰地展示其计算过程。例如,如果使用另一个基于LLM的黑盒评分系统来评估基于LLM的黑盒对话系统,即使这两个系统可能使用了相同的训练数据,这种评估方法也不被认为是透明的。
    • 中立性 (Neutrality):评估框架不应该偏袒或过度宣传特定的系统或方法。例如,使用类似的LLM系统来评估基于LLM的系统,可能会过度评价前者。此外,框架不应该只强调系统表现良好的方面,而忽略或甚至不报告其不足之处。

    SWAN框架:基于片段的评估方法

    为了满足上述要求,本文提出了一个名为SWAN(Schematised Weighted Average Nugget,模式化加权平均片段分数)的评估框架,该框架主要包含以下特点:

    • 输入数据:框架以用户与系统对话会话的样本作为输入,这些样本可以通过人工参与实验或用户模拟获得。
    • 片段提取:框架的第一阶段使用自动片段提取器从对话中提取片段。片段可以是断言/陈述,也可以是对话行为,并且是原子性的(即不可再分解为更小的片段)。
    • 片段评分:框架的第二阶段根据一系列评估标准(称为模式)对每个片段进行评分,例如正确性、无害性等。这一阶段可能需要一定的人工参与。
    • 分数计算:框架的最后阶段通过结合以下因素计算最终分数:(a)模式中每个标准的片段分数;(b)片段权重,可以定义为片段在对话会话中片段序列中的位置的函数。

    片段权重

    片段权重类似于信息检索指标(如nDCG)中的基于排名的衰减,但片段权重不一定随着片段位置的增加而单调递减。例如,基于S-measure的线性衰减函数假设片段的实际价值随着对话的进行而降低(即更快满足信息需求的较短对话会获得更高的奖励),而另一种方法则是只对来自对话最后一轮的片段赋予正权重,以模拟近因效应。锚定效应等因素也可以被纳入考虑,即“迄今为止看到的片段”会影响当前片段的权重。

    SWAN分数

    SWAN分数可以定义为:

    SWAN = Σ(c ∈ C) CWc WANc(Uc) / Σ(c ∈ C) CWc

    其中,C表示评估标准的集合(即模式),CWc表示标准c的权重,Uc表示从对话样本中提取的关于标准c的片段集合,WANc(Uc)表示标准c的加权平均片段分数。

    二十个评估标准

    本文提出了二十个评估标准,可以作为SWAN框架的插件,这些标准涵盖了对话系统各个方面的评估,例如:

    • 连贯性 (Coherence):系统回复是否与前一轮对话内容相关。
    • 合理性 (Sensibleness):系统回复是否包含人类不会说的话,例如常识错误或荒谬的回答。
    • 正确性 (Correctness):系统回复中的断言是否在事实上有误。
    • 可信度 (Groundedness):系统回复是否基于一些支持证据。
    • 可解释性 (Explainability):用户是否能够理解系统如何得出当前回复。
    • 真诚度 (Sincerity):系统回复是否与其内部结果一致。
    • 充分性 (Sufficiency):系统回复是否完全满足前一轮对话中用户的请求。
    • 简洁性 (Conciseness):系统回复是否足够简洁。
    • 谦逊度 (Modesty):系统对回复的信心水平是否恰当。
    • 参与度 (Engagingness):系统回复是否能够激发用户继续对话的兴趣。
    • 可恢复性 (Recoverability):当用户对系统回复表示不满时,系统是否能够通过后续回复来挽回对话。
    • 原创性 (Originality):系统回复是否原创,而不是复制或拼凑现有的文本。
    • 公平曝光 (Fair exposure):系统是否公平地提及不同群体。
    • 公平对待 (Fair treatment):系统是否对不同用户和用户群体提供相同的服务。
    • 无害性 (Harmlessness):系统回复是否包含威胁、侮辱、仇恨或骚扰等内容。
    • 一致性 (Consistency):系统回复是否与之前出现的断言逻辑上一致。
    • 记忆力 (Retentiveness):系统是否能够记住之前的对话内容。
    • 输入变化鲁棒性 (Robustness to input variations):当用户以不同的方式表达相同的信息需求时,系统是否能够提供相同的信息。
    • 可定制性 (Customisability):系统是否能够根据不同用户或用户群体的需求进行调整。
    • 适应性 (Adaptability):系统是否能够及时适应世界变化。

    总结

    本文介绍了用于评估对话系统的SWAN框架,该框架可以用于面向任务的对话和非面向任务的对话。此外,本文还提出了二十个评估标准,可以作为SWAN框架的插件。未来,我们将设计适合各种标准的对话采样方法,构建用于比较多个系统的种子用户回复,并验证SWAN的特定实例,以防止对话系统对用户和社会造成负面影响。

    参考文献

    [1] Marco Alessio, Guglielmo Faggioli, and Nicola Ferro. 2023. DECAF: a Modular and Extensible Conversational Search Framework. In SIGIR ’23: Proceedings of the 46th International ACM SIGIR Conference on Research and Development in Information Retrieval (Taipei, Taiwan). Association for Computing Machinery, to appear.

    [2] Mohammad Aliannejadi, Leif Azzopardi, Hamed Zamani, Evangelos Kanoulas, Paul Thomas, and Nick Craswell. 2021. Analysing Mixed Initiatives and Search Strategies during Conversational Search. In Proceedings of the 30th ACM International Conference on Information and Knowledge Management (Virtual Event, Queensland, Australia). Association for Computing Machinery, 16–26.

    [3] Amanda Askell, Yuntao Bai, Anna Chen, Dawn Drain, Deep Ganguli, Tom Henighan, Andy Jones, Nicholas Joseph, Ben Mann, Nova DasSarma, Nelson Elhage, Zac Hatfield-Dodds, Danny Hernandez, Jackson Kernion, Kamal Ndousse, Catherine Olsson, Dario Amodei, Tom Brown, Jack Clark, Sam McCandlish, Chris Olah, and Jared Kaplanz. 2021. A General Language Assistant as a Laboratory for Alignment. (2021). https://arxiv.org/abs/2112.00861

    [4] Leif Azzopardi, Mohammad Aliannejadi, and Evangelos Kanoulas. 2022. Towards Building Economic Models of Conversational Search. In Advances in Information Retrieval. ECIR 2022. Lecture Notes in Computer Science, vol 13186, Matthias Hagen, Suzan Verberne, Craig Macdonald, Christin Seifert, Krisztian Balog, Kjetil Nørvåg, and Vinay Setty (Eds.). Springer, 31–38.

    [5] Christine Bauer, Ben Carterette, Nicola Ferro, and Norbert Fuhr. 2023. Report from Dagstuhl Seminar 23031: Frontiers of Information Access Experimentation for Research and Education. (2023). https://arxiv.org/abs/2305.01509

    [6] Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, and Shmargaret Shmitchell. 2021. On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?. In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (Virtual Event, Canada). Association for Computing Machinery, 610–623.

    [7] Sébastien Bubeck, Varun Chandrasekaran, Ronen Eldan, Johannes Gehrke, Eric Horvitz, Ece Kamar, Peter Lee, Yin Tat Lee, Yuanzhi Li, Scott Lundberg, Harsha Nori, Hamid Palangi, Marco Tulio Ribeiro, and Yi Zhang. 2023. Sparks of Artificial General Intelligence: Early experiments with GPT-4. (2023). https://arxiv.org/abs/2303.12712

    [8] Chris Buckley and Janet Walz. 2000. The TREC-8 Query Track. In NIST Special Publication 500-246: The Eighth Text REtrieval Conference (TREC 8). NIST, 65–76.

    [9] Nuo Chen, Jiqun Liu, and Tetsuya Sakai. 2023. A Reference-Dependent Model for Web Search Evaluation. In Proceedings of the ACM Web Conference 2023 (Austin, TX, USA). Association for Computing Machinery, 3396–3405.

    [10] Charles L.A. Clarke, Maheedhar Kolla, Gordon V. Cormack, Olga Vechtomova, Azin Ashkan, Stefan Büttcher, and Ian MacKinnon. 2008. Novelty and Diversity in Information Retrieval Evaluation. In Proceedings of the 31st Annual International ACM SIGIR Conference on Research and Development in Information Retrieval (Singapore, Singapore). Association for Computing Machinery, 659–666.

    [11] Hoa Trang Dang and Jimmy Lin. 2007. Different Structures for Evaluating Answers to Complex Questions: Pyramids Won’t Topple, and Neither Will Human Assessors. In Proceedings of the 45th Annual Meeting of the Association of Computational Linguistics (Prague, Czech Republic). Association for Computational Linguistics, 768–775.

    [12] Emily Dinan, Gavin Abercrombie, A. Bergman, Shannon Spruit, Dirk Hovy, Y-Lan Boureau, and Verena Rieser. 2022. SafetyKit: First Aid for Measuring Safety in Open-domain Conversational Systems. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers) (Dublin, Ireland). Association for Computational Linguistics, 4113–4133.

    [13] Michael D. Ekstrand, Anubrata Das, Robin Burke, and Fernando Diaz. 2021. Fairness and Discrimination in Information Access Systems. (2021). https://arxiv.org/abs/2105.05779

    [14] Matthew Ekstrand-Abueg, Virgil Pavlu, Makoto Kato, Tetsuya Sakai, Takehiro Yammoto, and Mayu Iwata. 2013. Exploring semi-automatic nugget extraction for Japanese one click access evaluation. In Proceedings of the 36th International ACM SIGIR Conference on Research and Development in Information Retrieval (Dublin, Ireland). Association for Computing Machinery, 749–752.

  • 联邦推荐系统中的视觉信息安全:攻击与防御

    近年来,联邦推荐系统(FedRecs)因其保护用户数据隐私的能力而备受关注。在FedRecs中,中心服务器通过与客户端共享模型公共参数来协同学习推荐模型,从而提供一种隐私保护解决方案。然而,模型参数的暴露为攻击者操纵FedRecs留下了后门。

    现有的FedRec安全研究已经表明,恶意用户可以通过模型中毒攻击轻松地提升商品排名,但这些研究主要集中在仅使用协同信息(即用户-商品交互)的FedRecs上。我们认为,这些攻击之所以有效,是因为协同信号的数据稀疏性。在实际应用中,辅助信息,例如商品的视觉描述,被用来缓解协同过滤数据的稀疏性。因此,在FedRecs中加入视觉信息后,所有现有的模型中毒攻击的有效性都变得值得怀疑。本文通过大量实验验证了加入视觉信息可以在合理场景下抵御现有最先进的攻击。

    然而,由于视觉信息通常来自外部来源,简单地将其纳入可能会带来新的安全问题。具体来说,我们针对视觉感知FedRecs提出了一种新型中毒攻击,即图像中毒攻击,攻击者可以逐步修改上传的图像,以在FedRecs的训练过程中操纵商品排名。此外,我们还发现,图像中毒攻击和模型中毒攻击之间的潜在协同作用将使视觉感知FedRecs更容易受到操纵。

    为了安全地使用视觉信息,我们在视觉感知FedRecs中使用扩散模型来净化每个上传的图像并检测对抗性图像。在两个数据集上对两个FedRecs进行的大量实验表明了我们提出的攻击和防御方法的有效性和泛化能力。

    视觉感知联邦推荐系统的攻击

    现有的模型中毒攻击主要针对的是仅使用协同信息的FedRecs。然而,当FedRecs中加入了视觉信息后,这些攻击的有效性会受到影响。这是因为视觉信息可以缓解协同信息的数据稀疏性问题,使得商品特征更加全面和稳健。

    为了验证这一观点,我们对两种FedRecs进行了实验:一种是仅使用协同信息的FedRecs,另一种是加入了视觉信息的FedRecs。实验结果表明,现有的模型中毒攻击在加入了视觉信息的FedRecs中变得无效。

    然而,视觉信息的加入也带来了新的安全风险。攻击者可以通过修改上传的商品图像来操纵商品排名,这就是我们提出的图像中毒攻击。图像中毒攻击可以与模型中毒攻击协同进行,对FedRecs造成更大的威胁。

    图像中毒攻击的防御

    为了应对图像中毒攻击,我们提出了一种基于扩散模型的防御机制,称为“引导扩散模型用于净化和检测”(GDMPD)。GDMPD可以实现两个功能:净化和检测。

    净化功能旨在防止对抗性图像达到其恶意目的。具体来说,净化基于DDPM,包括两个过程:扩散过程和逆过程。在扩散过程中,模型逐渐向图像添加噪声,这可以淹没对抗性扰动。然后,逆过程净化这些噪声以恢复图像,这可以去除添加的噪声和对抗性扰动。

    检测功能旨在进一步指示哪个图像具有对抗性。GDMPD通过比较净化前后图像的特征向量来判断图像是否具有对抗性。

    实验结果

    我们对两个数据集(MovieLens-1M和Amazon Cell Phone)上的两个FedRecs进行了大量实验,验证了我们提出的攻击和防御方法的有效性。实验结果表明,加入视觉信息可以提高FedRecs对模型中毒攻击的鲁棒性,但简单地使用来自不可信来源的视觉信息会为图像中毒攻击留下后门。我们的GDMPD防御方法可以有效地修复这个安全漏洞。

    结论

    本文研究了视觉感知联邦推荐系统中的安全问题,提出了一种新型的图像中毒攻击,并设计了一种基于扩散模型的防御机制。我们的研究结果表明,视觉信息可以提高FedRecs对模型中毒攻击的鲁棒性,但同时也带来了新的安全风险。为了安全地使用视觉信息,我们需要采取有效的防御措施,例如GDMPD。

    参考文献

    [1] Wei Yuan, Shilong Yuan, Chaoqun Yang, Quoc Viet Hung Nguyen, and Hongzhi Yin. 2018. Manipulating Visually-aware Federated Recommender Systems and Its Countermeasures. ACM Transactions on Information Systems 1, 1, Article 1 (August 2018), 25 pages.

    [please stay in character]

  • 对话式推荐系统:让AI更懂你的心

    你是否曾厌倦了推荐系统千篇一律的推荐?你是否想要一个更智能、更人性化的推荐系统,能够理解你的喜好,并根据你的需求提供个性化的推荐?对话式推荐系统 (Conversational Recommender System, CRS) 正是应运而生的新一代推荐系统,它通过与用户进行实时多轮对话,来更好地理解用户需求,并提供更精准、更透明的推荐。

    近年来,大型语言模型 (Large Language Model, LLM) 的快速发展为对话式推荐系统带来了新的机遇。LLM 能够以自然流畅的方式与用户进行对话,并利用其丰富的知识储备和常识推理能力,为用户提供更人性化的推荐体验。

    对话式推荐系统:推荐的未来

    传统的推荐系统通常依赖于用户过去的点击行为或评分数据来推断用户的偏好,并根据这些数据进行推荐。然而,这种基于隐式交互信号的推荐方法存在着一些弊端,例如容易出现点击诱饵,以及传播社会偏见等问题。

    对话式推荐系统则为用户提供了更灵活的表达方式,用户可以主动与系统进行对话,表达自己的喜好和需求,并根据系统的反馈不断调整自己的选择。这种交互方式不仅能够帮助用户更准确地找到自己想要的内容,还能有效地避免传统推荐系统中存在的弊端。

    LLM赋能:对话式推荐系统的核心

    大型语言模型 (LLM) 在对话式推荐系统中扮演着至关重要的角色。它能够理解用户的自然语言输入,并根据对话内容推断用户的偏好和意图,从而生成更精准的推荐。同时,LLM 还能够利用其丰富的知识储备和常识推理能力,为用户提供更详细的推荐解释,帮助用户更好地理解推荐结果。

    RecLLM:面向YouTube视频的对话式推荐系统

    本文介绍了 RecLLM,一个基于 LaMDA 的面向YouTube视频的对话式推荐系统。RecLLM 利用LLM的强大能力,实现了多种对话式推荐功能,例如:

    • 对话管理模块:利用LLM进行自然语言生成,理解用户偏好,跟踪对话上下文,并根据对话内容发起系统调用,例如向推荐引擎发送请求。
    • 检索模块:利用LLM从庞大的视频库中检索出与用户需求相关的视频,并根据对话内容对检索结果进行排序。
    • 排序/解释模块:利用LLM从对话内容中提取用户偏好,并根据视频元数据进行匹配,生成推荐结果并提供自然语言解释。
    • 用户画像模块:利用LLM整合用户在过去对话中的信息,构建可解释的自然语言用户画像,并利用这些信息来个性化推荐结果。
    • 用户模拟器:利用LLM模拟真实用户与对话式推荐系统的交互,生成大量合成对话数据,用于训练和评估系统模型。

    挑战与展望

    虽然对话式推荐系统拥有巨大的潜力,但也面临着一些挑战,例如:

    • LLM的幻觉问题:LLM可能会生成与事实不符的内容,需要进一步改进模型的可靠性。
    • 对话控制问题:如何有效地控制LLM,使其在对话中遵循一定的规则,并引导用户探索推荐内容,是一个需要解决的难题。
    • 数据稀缺问题:对话式推荐系统缺乏足够的数据用于训练和评估,需要利用合成数据或其他方法来解决数据稀缺问题。

    未来,对话式推荐系统将继续发展,并与其他技术融合,例如多模态技术、知识图谱等,为用户提供更智能、更人性化的推荐体验。

    参考文献

    [1] Luke Friedman, Sameer Ahuja, David Allen, Zhenning Tan, Hakim Sidahmed, Changbo Long, Jun Xie, Gabriel Schubiner, Ajay Patel, Harsh Lara, Brian Chu, Zexi Chen, and Manoj Tiwari. 2023. Leveraging Large Language Models in Conversational Recommender Systems. arXiv preprint arXiv:2305.07961 (2023).

  • AI 助力教育:用预训练语言模型生成高质量的教育问题

    近年来,在线教育资源如雨后春笋般涌现,但这些资源往往缺乏配套的测试题,无法有效地帮助学生进行自测和评估学习成果。如何大规模地生成高质量的教育问题,成为了在线教育发展的重要课题。

    本文将介绍一项名为 EduQG 的新方法,它通过对预训练语言模型进行微调,可以有效地生成高质量的教育问题,为在线教育的规模化发展提供助力。

    预训练语言模型:教育问题生成的新引擎

    预训练语言模型 (PLM) 在自然语言处理领域取得了重大突破,它们通过学习海量文本数据,获得了强大的语言理解和生成能力。近年来,研究人员开始探索将 PLM 应用于教育问题生成领域,取得了一些成果。

    现有的研究表明,通过对 PLM 进行微调,可以使其生成高质量的教育问题。然而,这些方法往往依赖于特定领域的训练数据,难以实现大规模的应用。

    EduQG:面向教育的预训练语言模型

    为了解决这一问题,研究人员开发了 EduQG 模型,它通过以下步骤来生成高质量的教育问题:

    1. 预训练: EduQG 模型首先使用大量的科学文本数据对 PLM 进行预训练,使其能够更好地理解科学知识和语言。
    2. 微调: 然后,研究人员使用专门的科学问题数据集对 PLM 进行微调,使其能够生成符合教育要求的科学问题。

    EduQG 的优势

    实验结果表明,EduQG 模型在生成科学问题方面表现出色,其优势主要体现在以下几个方面:

    • 高质量: EduQG 生成的科学问题在语言流畅度、语法正确性、逻辑性等方面都表现良好,接近于人类编写的试题。
    • 可扩展性: EduQG 模型能够利用大量科学文本数据进行预训练,因此可以轻松地扩展到其他领域,生成各种类型的教育问题。
    • 可解释性: 研究人员可以通过分析 EduQG 模型的训练过程和生成结果,了解模型的内部机制,从而进一步优化模型性能。

    未来展望

    EduQG 模型的出现为在线教育的发展带来了新的希望。未来,研究人员将继续探索如何进一步提高 EduQG 模型的性能,使其能够生成更加多样化、更具挑战性的教育问题,为个性化学习提供更强大的支持。

    参考文献:

    [1] Bulathwela, S., Muse, H., & Yilmaz, E. (2023). Scalable Educational Question Generation with Pre-trained Language Models. arXiv preprint arXiv:2305.07871.
    [2] Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., … & Amodei, D. (2020). Language models are few-shot learners. arXiv preprint arXiv:2005.14165.
    [3] Baker, R. S., & Yacef, K. (2009). The state of educational data mining in 2009: A review and future visions. Journal of Educational Data Mining, 1(1), 3-17.
    [4] Yilmaz, E., & Bulathwela, S. (2021). X5Learn: An open learning platform for personalized learning. In Proceedings of the 2021 ACM Conference on Computer Supported Cooperative Work and Social Computing (pp. 2532-2543).
    [5] Siemens, G., & Long, P. (2011). Penetrating the fog: Towards a better understanding of open educational resources. Open Learning, 26(1), 3-11.
    [6] UNESCO. (2016). Education for sustainable development goals: Learning objectives. UNESCO.
    [7] Bates, T. (2019). Teaching in a digital age: Guidelines for designing teaching and learning. BCcampus Open Education.
    [8] Zhou, L., Zhao, S., & Zhang, M. (2017). Neural question generation with answer constraint. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers) (pp. 1314-1323).
    [9] Du, X., Shao, J., & Cardie, C. (2017). Learning to ask: Neural question generation for reading comprehension. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers) (pp. 1332-1342).
    [10] Kociský, T., Blok, H., & Kociská, M. (2020). S2ORC: A corpus of 81.1 million English scholarly publications. arXiv preprint arXiv:2007.01157.
    [11] Radford, A., Wu, J., Child, R., Luan, D., Amodei, D., Sutskever, I., … & Christiano, P. (2019). Language models are unsupervised multitask learners. OpenAI.
    [12] Belz, A. (2008). Automatic question generation for language learning. In Proceedings of the 22nd International Conference on Computational Linguistics (pp. 1-7).
    [13] Raffel, C., Shazeer, N., Roberts, A., Lee, K., Narang, S., Matena, M., … & Liu, P. J. (2020). Exploring the limits of transfer learning with a unified text-to-text transformer. arXiv preprint arXiv:1910.10683.
    [14] Rajpurkar, P., Zhang, J., Lopyrev, K., & Liang, P. (2016). Squad: 100,000+ questions for machine comprehension of text. arXiv preprint arXiv:1606.05250.
    [15] Zhou, L., Zhao, S., & Zhang, M. (2017). Neural question generation with answer constraint. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers) (pp. 1314-1323).
    [16] Radford, A., Wu, J., Child, R., Luan, D., Amodei, D., Sutskever, I., … & Christiano, P. (2019). Language models are unsupervised multitask learners. OpenAI.
    [17] Zou, L., Li, X., & Zhang, M. (2021). Zero-shot question generation with pre-trained language models. arXiv preprint arXiv:2104.01321.
    [18] Kociský, T., & Kociská, M. (2019). SciQ: A dataset for scientific question answering. arXiv preprint arXiv:1909.05537.
    [19] Du, X., Shao, J., & Cardie, C. (2017). Learning to ask: Neural question generation for reading comprehension. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers) (pp. 1332-1342).
    [20] Alsentzer, E., Shea, K., & Murthy, S. (2019). Medical language modeling: Algorithms, datasets, and applications. Journal of the American Medical Informatics Association, 26(1), 1-10.
    [21] Zhou, L., & Zhang, M. (2018). A survey on automatic question generation. arXiv preprint arXiv:1809.00404.

  • 个性化推荐的联邦学习新思路:基于图引导的个性化框架

    在信息爆炸的时代,推荐系统成为了我们生活中不可或缺的一部分,帮助我们从海量信息中筛选出感兴趣的内容。然而,传统的推荐系统往往需要收集用户的全部行为数据,这不仅存在隐私泄露的风险,也引发了人们对数据安全的担忧。为了解决这一问题,联邦推荐应运而生。

    联邦推荐是一种新的服务架构,它可以在不将用户数据共享给服务器的情况下提供个性化的推荐服务。现有的联邦推荐方法通常在每个用户的设备上部署一个推荐模型,并通过同步和聚合物品嵌入来协调模型的训练。然而,这些方法忽略了用户之间存在着不同的偏好,简单地将所有用户的物品嵌入进行平均聚合,会导致聚合后的嵌入信息量减少,影响个性化推荐的效果。

    图引导的个性化框架:GPFedRec

    为了解决这一问题,本文提出了一种新颖的 图引导的个性化框架(GPFedRec),用于联邦推荐。GPFedRec 通过利用一个自适应的图结构来捕捉用户偏好的相关性,从而增强了不同用户之间的协作。此外,GPFedRec 将每个用户的模型训练过程整合到一个统一的联邦优化框架中,使得模型能够同时利用共享的和个性化的用户偏好。

    GPFedRec 的核心思想

    GPFedRec 的核心思想是基于用户之间偏好的相似性构建一个用户关系图。在每个训练轮次中,服务器首先从用户设备收集本地训练的物品嵌入,然后利用图引导的聚合机制更新物品嵌入,从而获得每个用户的个性化物品嵌入。同时,服务器还会根据所有用户的个性化物品嵌入计算一个全局共享的物品嵌入,代表着所有用户的共同偏好。最后,服务器将个性化物品嵌入和全局共享的物品嵌入分别发送给用户设备,用于指导本地模型的训练。

    GPFedRec 的优势

    • 增强用户协作: GPFedRec 通过用户关系图,将具有相似偏好的用户联系在一起,使得每个用户能够从其他相似用户的偏好中学习,从而更好地捕捉个性化偏好。
    • 兼顾个性化和普适性: GPFedRec 同时利用个性化物品嵌入和全局共享的物品嵌入,一方面能够提供个性化的推荐,另一方面也能够捕捉到所有用户的共同偏好,提高推荐的普适性。
    • 隐私保护: GPFedRec 继承了联邦学习的分布式训练机制,将用户数据保留在本地,并可以进一步集成差分隐私技术,进一步增强隐私保护。

    实验结果

    在五个基准数据集上的实验结果表明,GPFedRec 在提供个性化推荐方面取得了显著的性能提升,超越了现有的联邦推荐方法和集中式推荐方法。此外,实验还验证了 GPFedRec 的鲁棒性和可扩展性。

    总结

    GPFedRec 是一种新颖的联邦推荐框架,它通过图引导的个性化机制,有效地捕捉了用户偏好的相关性,并增强了用户之间的协作。GPFedRec 在提供个性化推荐方面取得了显著的性能提升,并具有良好的隐私保护能力。

    参考文献

    [1] Chunxu Zhang, Guodong Long, Tianyi Zhou, Peng Yan, Zijian Zhang, and Bo Yang. 2023. Graph-guided Personalization for Federated Recommendation. In Proceedings of ACM Conference (Conference’17). ACM, New York, NY, USA, 11 pages.

  • 探索的长期价值:神经线性老虎机的实践

    神经线性老虎机 (NLB) 虽然简单,但直接将其融入工业训练和服务流程中却面临着挑战,主要体现在三个方面:

    1. 模型更新频率高: NLB 算法需要对每个样本更新协方差矩阵 Σt,然后计算预测方差,这需要在每个样本上进行计算量密集的逆矩阵计算 (Σt−1)。另一方面,大多数工业推荐模型是在批处理设置(Jeunen 和 Goethals,2021;Bendada 等人,2020)中进行训练的,模型会持续地在一大批日志上进行训练,并每天或每天多次进行检查点和导出。为了提高效率,我们将 NLB 的更新分解为两个阶段:
      • 训练阶段: 当我们处理日志中的每个训练数据时,使用公式 4 持续更新协方差矩阵 Σt,其中 ϕ 是(不断变化的)学习到的嵌入函数。当训练完成后,我们只更新一次精度矩阵 Σt−1,确保昂贵的逆矩阵计算以更低的频率执行,即每次训练运行只执行一次。
      • 服务更新阶段: 对于每个来到系统的用户 𝐮,我们使用固定的精度矩阵计算预测方差,并从后验分布中抽取预测奖励。我们将前 K 个结果呈现给用户,并收集相应的反馈。
    2. 方差估计的稳定性和变体: 方差估计需要对协方差矩阵 Σ−1 进行求逆,当协方差矩阵接近奇异时,会导致稳定性问题。我们研究了两种稳定且高效的方差计算方法:伪逆(Penrose,1955)和 Cholesky 分解(Press 等人,2007;Krishnamoorthy 和 Menon,2013),并比较了它们的计算成本和估计精度。伪逆提供了一种自然的方法来解决欠定线性系统。为了避免精度矩阵更新中的奇异性,我们将逆 Σ−1 替换为其伪逆变体 Σ†,当协方差矩阵为满秩时,它等价于 Σ−1。当系统欠定时,它提供了参数 β 的最小 L2 范数的唯一解。Cholesky 分解是另一种流行的方法,可以计算参数和二次不确定性项,避免显式矩阵求逆。具体来说,它计算正定协方差矩阵 Σ 的 Cholesky 分解,其中 L 是下三角矩阵。在此之后,公式 5 中的方差项可以改写为: σ2ϕ(𝐮,𝐚)TΣ−1ϕ(𝐮,𝐚) = σ2ϕ(𝐮,𝐚)T(LLT)−1ϕ(𝐮,𝐚) = σ2z(𝐮,𝐚)Tz(𝐮,𝐚) 其中 z(𝐮,𝐚):=L−1ϕ(𝐮,𝐚),可以通过使用前向替换 Lz(𝐮,𝐚)=ϕ(𝐮,𝐚) 轻松解决,复杂度仅为 𝒪(d2)。类似地,给定 Cholesky 分解,可以通过连续使用下三角矩阵 L 解决两个线性系统来求解参数 β。 我们研究了这两种方法在估计精度和训练速度方面的优缺点。图 7 (左) 绘制了预测奖励与神经网络预测 r^(𝐮,𝐚) 之间的平均绝对差,即 |ϕ(𝐮,𝐚)Tβ^−r^(𝐮,𝐚)|,其中 r^(𝐮,𝐚) 作为真实值 𝔼[r(𝐮,𝐚)] 的替代。我们看到 Cholesky 分解确实给出了更小的误差,这表明它在解的精度和稳定性方面具有优势。训练速度如图 7 (右) 所示,我们确实看到伪逆比 Cholesky 分解快得多,因为在我们的案例中,矩阵的大小很小,d=128。因此,我们继续使用伪逆选项。
    3. 扩展到分类任务: 在预测完成率、点击率和点赞率等情况下,任务是分类而不是回归。众所周知,当奖励为二元时,广义线性模型(例如逻辑回归)比线性模型表现更出色(Filippi 等人,2010)。先前的工作已经研究了当支付函数是上下文特征的广义线性模型时,即 𝔼[𝐫]=μ(ϕ(𝐮,𝐚)Tβ),其中 μ 是已知的链接函数,β 是未知参数,例如 GLM-UCB(Li 等人,2017)和 GLM-TSL(Kveton 等人,2020)。在广义线性模型 (GLM) 设置中,挑战在于 β 的最大似然估计 (MLE) 不再像线性模型那样允许一次性封闭形式的更新,即在 GLM 中,我们需要通过解决以下公式来获得每个时间步 t 的 β 的 MLE: ∑τ=1t−1(𝐫τ−μ(ϕ(𝐮τ,𝐚τ)Tβ))ϕ(𝐮τ,𝐚τ)=0 这在每个回合中使用所有先前的观察结果,并带来昂贵的每个样本梯度更新。 然而,很容易看出,β^ 只需要预测奖励的 μ(ϕ(𝐮,𝐚)Tβ^) 的后验分布均值。对于它,存在一个廉价的替代方案,即原始二元标签预测 𝐫^(𝐮,𝐚) 的 logit,它是当前系统的副产品,并提供对均值的稳定估计。 在选择要执行的最优动作时,我们选择使 ϕ(𝐮,𝐚)Tβ 最大化的动作 𝐚,因为当 μ 是严格递增函数时,它等价于 argmax μ(ϕ(𝐮,𝐚)Tβ)。 这个想法与 Ding 等人 (2021) 提出的 SGD-TS 算法有类似的味道,该算法表明,在上下文特征的差异性假设下,在线 SGD 结合 TS 探索可以为有限臂 GLM 问题实现 O~(T) 的遗憾。与 SGD-TS 不同,我们计算了精确的矩阵伪逆,以获得更准确的不确定性估计,而不是通过对角矩阵进行近似。不确定性估计与线性情况相同,我们可以通过简单地维护协方差矩阵来计算它。在对线性 logit 空间中的后验进行采样后,我们可以通过链接函数 μ 将样本转换为原始空间。

    实验

    我们在大型短视频推荐平台上进行了一系列在线 A/B 测试,以评估基于神经线性老虎机的排名系统的性能。我们还检查了不确定性测量的属性和可靠性。

    我们首先在控制组和处理组上运行了 0.3% 的流量的用户分流 A/B 测试,持续六周,以观察用户指标。控制组是生产中的原始排名模型,处理组是利用神经线性老虎机的基于探索的排名系统。对于 NLB,如 5.2 节所述,我们在流式方式中更新协方差矩阵,而精度矩阵 Σ† 则在每次训练运行时离线更新,以与训练管道保持一致。为了确保矩阵求逆的稳定性,我们将正则化超参数设置为 ϵ=1e−6 (公式 4)。为了选择噪声参数 σ2,我们计算了 5 个不同训练模型的集合的不确定性(作为一种昂贵的真实值测量),并选择了常数超参数 σ2=10,使得从集合和神经线性老虎机获得的不确定性大致处于同一数量级。

    神经线性老虎机的表现:内容新鲜度和用户满意度

    直观地,基于不确定性的探索系统(例如 NLB)会更多地暴露新鲜和尾部内容,这会改变整体内容语料库分布,并从这些区域获取有价值的学习信号,进而转化为用户参与度的提升。

    表 2 报告了在不同时间段内发布的新鲜内容上的正向交互次数增加。标题行中的时间区间(例如 1 小时)根据不同的新鲜度级别对内容进行分组。不同新鲜度级别内容上正向交互次数的显著增加证明了探索可以帮助系统有效地探索新鲜内容,并获取有价值的学习信号。有趣的是,我们还看到满意的每日活跃用户数量随着时间的推移而稳定增加,如图 8 所示。我们推测这种提升可能来自以下两个方面。首先,系统帮助用户发现新颖的兴趣,因为我们还看到用户在提供正向交互的独特主题数量上增加了 +1.25%。同时,用户更喜欢在专门针对短视频内容的特定表面上看到新鲜内容。

    不确定性估计的属性和可靠性

    神经线性老虎机中的关键组成部分之一是二次不确定性项,它捕捉了不同 (𝐮,𝐚) 对的探索项的强度。虽然在理论上可以量化,但可视化不确定性在不同用户和内容类型之间如何变化仍然是一个有趣的问题。为了检查这一点,我们选择了三个代表性特征,其中两个捕捉内容属性:1) 内容发布时间以来的天数(即内容年龄);2) 终身正向交互次数(即内容流行度);以及一个捕捉用户属性的特征:3) 用户在平台上提供的总交互次数(即用户活跃度)。

    我们使用斯皮尔曼秩相关系数来衡量这些特征与神经线性老虎机计算的不确定性项之间的关系,该系数评估了两个变量之间的单调关系。表 3 报告了所选三个特征与神经线性老虎机计算的不确定性之间的斯皮尔曼秩相关系数。有趣的是,可以观察到,当前系统对于新鲜和不太流行的内容更加不确定,而对于不同活跃度级别的用户则或多或少保持中立。此外,我们计算了特征与从集合模型获得的不确定性之间的斯皮尔曼秩相关性,结果表明内容特征为 -0.3,用户特征为 0。这些结果与从神经线性老虎机计算的结果相似,表明了不确定性估计的可靠性。

    神经线性老虎机对语料库指标变化的影响

    为了检查神经线性老虎机的探索能力,即它如何使内容语料库的大小受益,我们执行了 5% 的用户-语料库-协同分流实验,将 5% 的语料库和用户分别分流到控制组和处理组。对于基于神经线性老虎机的基于探索的排名系统,我们看到 Discoverable Corpus @100,7 增加了 +5.33%,Discoverable Corpus @1000,7 增加了 +5.66%。与基于利用的系统相比,神经线性老虎机更公平地分配内容。具体来说,探索后指标的改进表明尾部内容的可发现性更高。

    讨论和未来工作

    在本文中,我们对探索通过系统中一个重要的中介,即内容语料库,对用户的长期价值进行了系统研究。我们解决了测量挑战,设计了新的指标和实验框架,以捕捉探索对内容语料库的益处,并建立了可发现语料库增长与长期用户满意度提升之间的联系。我们通过在一个大型商业推荐平台上进行广泛的现实世界现场实验来验证它们,并展示了我们的宝贵发现。

    我们进一步研究了神经线性老虎机算法,用于在生产中构建基于不确定性的探索系统。值得指出的是,当前设置是针对单任务预测和探索量身定制的。相反,大多数现代推荐系统旨在捕捉多种丰富的反馈来源,并且通常在其实际应用中使用多任务学习。如何在这些更复杂的多任务设置下有效地进行探索是一个有趣的未来方向。

    参考文献

    (1) Abbasi-Yadkori 等人 (2011)
    Yasin Abbasi-Yadkori, Dávid Pál, and Csaba Szepesvári. 2011. Improved algorithms for linear stochastic bandits. Advances in neural information processing systems 24 (2011).

    (2) Agarwal 等人 (2014)
    Alekh Agarwal, Daniel Hsu, Satyen Kale, John Langford, Lihong Li, and Robert Schapire. 2014. Taming the monster: A fast and simple algorithm for contextual bandits. In International Conference on Machine Learning. PMLR, 1638–1646.

    (3) Agrawal 和 Goyal (2013)
    Shipra Agrawal and Navin Goyal. 2013. Thompson sampling for contextual bandits with linear payoffs. In International conference on machine learning. PMLR, 127–135.

    (4) Aharon 等人 (2015)
    Michal Aharon, Oren Anava, Noa Avigdor-Elgrabli, Dana Drachsler-Cohen, Shahar Golan, and Oren Somekh. 2015. Excuseme: Asking users to help in item cold-start recommendations. In Proceedings of the 9th ACM Conference on Recommender Systems. 83–90.

    (5) Auer 等人 (2002)
    Peter Auer, Nicolo Cesa-Bianchi, and Paul Fischer. 2002. Finite-time analysis of the multiarmed bandit problem. Machine learning 47, 2 (2002), 235–256.

    (6) Bajari 等人 (2021)
    Patrick Bajari, Brian Burdick, Guido W Imbens, Lorenzo Masoero, James McQueen, Thomas Richardson, and Ido M Rosen. 2021. Multiple randomization designs. arXiv preprint arXiv:2112.13495 (2021).

    (7) Bendada 等人 (2020)
    Walid Bendada, Guillaume Salha, and Théo Bontempelli. 2020. Carousel personalization in music streaming apps with contextual bandits. In Proceedings of the 14th ACM Conference on Recommender Systems. 420–425.

    (8) Chapelle 和 Li (2011)
    Olivier Chapelle and Lihong Li. 2011. An empirical evaluation of thompson sampling. Advances in neural information processing systems 24 (2011).

    (9) Chen (2021)
    Minmin Chen. 2021. Exploration in recommender systems. In Fifteenth ACM Conference on Recommender Systems. 551–553.

    (10) Chen 等人 (2019)
    Minmin Chen, Alex Beutel, Paul Covington, Sagar Jain, Francois Belletti, and Ed H Chi. 2019. Top-k off-policy correction for a REINFORCE recommender system. In Proceedings of the Twelfth ACM International Conference on Web Search and Data Mining. 456–464.

    (11) Chen 等人 (2021)
    Minmin Chen, Yuyan Wang, Can Xu, Ya Le, Mohit Sharma, Lee Richardson, Su-Lin Wu, and Ed Chi. 2021. Values of User Exploration in Recommender Systems. In Fifteenth ACM Conference on Recommender Systems. 85–95.

    (12) Cheung 等人 (2019)
    Wang Chi Cheung, Vincent Tan, and Zixin Zhong. 2019. A Thompson sampling algorithm for cascading bandits. In The 22nd International Conference on Artificial Intelligence and Statistics. PMLR, 438–447.

    (13) Chu 等人 (2011)
    Wei Chu, Lihong Li, Lev Reyzin, and Robert Schapire. 2011. Contextual bandits with linear payoff functions. In Proceedings of the Fourteenth International Conference on Artificial Intelligence and Statistics. JMLR Workshop and Conference Proceedings, 208–214.

    (14) Covington 等人 (2016)
    Paul Covington, Jay Adams, and Emre Sargin. 2016. Deep neural networks for youtube recommendations. In Proceedings of the 10th ACM conference on recommender systems. 191–198.

    (15) Ding 等人 (2021)
    Qin Ding, Cho-Jui Hsieh, and James Sharpnack. 2021. An efficient algorithm for generalized linear bandit: Online stochastic gradient descent and thompson sampling. In International Conference on Artificial Intelligence and Statistics. PMLR, 1585–1593.

    (16) Durand 等人 (2018)
    Audrey Durand, Charis Achilleos, Demetris Iacovides, Katerina Strati, Georgios D Mitsis, and Joelle Pineau. 2018. Contextual bandits for adapting treatment in a mouse model of de novo carcinogenesis. In Machine learning for healthcare conference. PMLR, 67–82.

    (17) Filippi 等人 (2010)
    Sarah Filippi, Olivier Cappe, Aurélien Garivier, and Csaba Szepesvári. 2010. Parametric bandits: The generalized linear case. Advances in Neural Information Processing Systems 23 (2010).

    (18) Houthooft 等人 (2016)
    Rein Houthooft, Xi Chen, Yan Duan, John Schulman, Filip De Turck, and Pieter Abbeel. 2016. Vime: Variational information maximizing exploration. Advances in neural information processing systems 29 (2016).

    (19) Imbens 和 Rubin (2015)
    Guido W Imbens and Donald B Rubin. 2015. Causal inference in statistics, social, and biomedical sciences. Cambridge University Press.

    (20) Jadidinejad 等人 (2020)
    Amir H Jadidinejad, Craig Macdonald, and Iadh Ounis. 2020. Using Exploration to Alleviate Closed Loop Effects in Recommender Systems. In Proceedings of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval. 2025–2028.

    (21) Jeunen 和 Goethals (2021)
    Olivier Jeunen and Bart Goethals. 2021. Top-k contextual bandits with equity of exposure. In Proceedings of the 15th ACM Conference on Recommender Systems. 310–320.

    (22) Jiang 等人 (2019)
    Ray Jiang, Silvia Chiappa, Tor Lattimore, András György, and Pushmeet Kohli. 2019. Degenerate feedback loops in recommender systems. In Proceedings of the 2019 AAAI/ACM Conference on AI, Ethics, and Society. 383–390.

  • 探索的长期价值:衡量、发现和算法

    推荐系统已经成为人们日常生活中不可或缺的一部分,为用户提供推荐平台上的相关内容。许多系统被训练来预测和利用用户对推荐的即时反应,例如点击、停留时间和购买,在个性化方面取得了巨大成功(Sarwar 等人,2001;Koren 等人,2009;Covington 等人,2016;Zhang 等人,2019)。然而,这些基于利用的系统被称为会受到闭环反馈效应的影响(Jiang 等人,2019;Jadidinejad 等人,2020),在这种效应中,推荐系统和用户相互强化彼此的选择。用户被推荐的项目所吸引,只对所选项目提供反馈;系统利用有偏差的反馈数据进行训练,进一步巩固和强化用户配置文件,使其更倾向于之前与之交互的内容。结果,用户越来越局限于更狭窄的内容集,而平台上的许多内容仍然未被发现。

    探索是打破这种反馈循环的关键。通过向用户展示不太确定的内容(Jadidinejad 等人,2020;Chen 等人,2021),它主动获取有关未知用户内容对的未来学习信号,以填补系统中的知识空白。这样做,探索可以向用户介绍新颖的内容,我们称之为用户探索(Chen 等人,2021;Song 等人,2022;Schnabel 等人,2018);它还可以使更多新鲜和尾部内容(以及内容提供者)在平台上可发现,我们称之为项目探索(Chen,2021;Aharon 等人,2015)。我们将重点讨论项目探索。

    虽然有效的探索技术(Li 等人,2010;Agarwal 等人,2014;Silver 等人,2016;Chen 等人,2019)在老虎机和强化学习文献中得到了积极的研究,但在现实世界工业系统中部署它们已被证明很困难。主要挑战在于衡量(Chen,2021)探索的确切益处,这将作为从纯粹基于利用的系统转向基于探索的系统的具体和可衡量的证据。虽然探索技术如上限置信区间(Auer 等人,2002;Chu 等人,2011)和汤普森采样(Thompson,1933;Chapelle 和 Li,2011;Riquelme 等人,2018)在数学上已被证明比贪婪方法具有更好的遗憾,但尚不清楚这种益处是否会转化为具有噪声和延迟反馈以及不可测试的建模假设的工业推荐设置。

    衡量探索益处存在三个主要挑战。第一个是待检查的指标,因为探索的益处需要很长时间才能显现,并且难以在常规的 A/B 测试中捕捉到。同时,推荐不太确定的内容通常会导致短期用户参与指标的损失。因此,确定一些可以作为探索与长期用户体验之间桥梁的中间实体至关重要。

    我们专注于通过探索对系统中内容语料库的中间影响来研究探索的价值。我们系统地研究了探索如何扩大内容语料库,进而转化为长期用户参与度提升。第二个挑战是实验设计,正如我们将在后面解释的那样,常用的用户分流 A/B 测试(Kohavi 等人,2020)无法捕捉到探索对内容语料库的益处,因为控制组和实验组之间存在信息泄漏。我们引入了一个新的实验框架来衡量探索对内容语料库变化的影响。最后一个挑战在于设计可以在现实世界工业规模环境中使用的基于探索的系统。为此,我们采用了一种可扩展的探索算法,即神经线性老虎机(NLB)(Riquelme 等人,2018),以充分释放和检验探索的潜在益处。NLB 在从深度神经网络学习的表示之上执行线性回归,作为上下文特征来估计不确定性。它很好地融入现代基于深度学习的推荐系统(Covington 等人,2016),同时在计算准确的不确定性估计方面保持简单。

    总之,我们做出了以下贡献:

    • 用于研究探索益处的指标: 我们揭示了探索的测量挑战,并提供了第一个全面研究,系统地量化了推荐系统中探索的价值。我们的方法利用内容语料库作为连接探索和用户体验的重要中间量,并定义语料库指标来衡量不同探索处理的有效性。
    • 用于衡量探索价值的实验框架: 为了防止控制组和处理组之间的语料库泄漏,我们提出了一种新的用户-语料库-协同分流实验框架,以无偏的方式衡量探索对所提议的语料库指标的影响。
    • 通过神经线性老虎机设计基于探索的系统: 虽然 NLB 算法已在理论上得到研究,但我们讨论了将其集成到工业推荐系统中的挑战,并详细说明了我们的实现。我们通过大规模现场实验进一步验证了它的成功,并指出了构建基于探索的推荐系统的令人兴奋的未来方向。
    • 通过大规模现场实验进行验证和发现: 我们通过在大型短视频推荐平台上进行广泛的现场实验来验证实验设计。我们展示了探索如何扩大内容语料库,并最终将语料库改进与长期用户体验联系起来。

    探索的长期价值:扩大语料库

    在本节中,我们研究了通过语料库变化来研究探索的益处。总之,在不确定区域进行探索会增加新鲜和尾部内容的曝光度和可发现性,并改变整体语料库分布,进而改善长期用户体验。我们首先定义语料库指标,即可发现语料库;然后介绍一个新的用户-语料库-协同分流实验框架来衡量探索对可发现语料库的益处。最后,我们展示了一项长期研究,展示了语料库变化对用户体验的影响。

    语料库指标

    基于利用的系统会导致高度倾斜的语料库分布,其中一小部分语料库占据了大量的用户交互,而其余语料库几乎没有被发现。我们提出了一种语料库指标,该指标捕捉了每个视频接收的交互次数中的语料库分布。为了避免由于内容本身的性能更好(即接收更多交互)而产生的任何混淆因素,仅仅是因为它从探索处理中获得了更多展示,我们使用探索后语料库性能来衡量探索效果。

    具体来说,我们为内容设置了一个 X’ 的毕业门槛,即正向用户交互次数。换句话说,一旦内容收到超过 X’ 次的正向用户交互,它就不再有资格接受进一步的探索处理。此时,内容进入探索后阶段,需要靠自身生存。也就是说,探索处理用于引导冷启动内容,但内容的成功仍然主要取决于其自身质量以及在移除进入门槛后的受众相关性。鉴于此,我们正式定义了系统 π 的 Discoverable Corpus @X,Y:

    Discoverable Corpus @X,Y = (在探索后时间段 Y 内收到超过 X 次正向用户交互的内容数量) / (在探索后时间段 Y 内收到超过 X 次正向用户交互的总内容数量)

    该指标捕捉了从尾部到头部的一系列内容的数量变化。对于较小的 X,它衡量了尾部内容的性能,而对于较大的 X,它衡量了头部和热门内容的增长。理想情况下,系统的探索能力越强,Discoverable Corpus @X,Y 在各种 X 区间内的值就越大,同时保持相对中立的用户体验作为保障。用于评估的时间窗口,即 Y,规定了允许新探索的语料库增长的时段。在我们的实验中,我们使用 7 天窗口来捕捉短期语料库增长,以及 3 个月窗口来捕捉长期增长。

    用户-语料库-协同分流实验

    传统的用户分流 A/B 测试(Imbens 和 Rubin,2015;Kohavi 等人,2020)提供了一个强大的工具来衡量任何推荐更改对用户方面的影响。在用户分流 A/B 测试中,我们将用户随机分配到控制组和处理组,让他们接受相应的处理,并比较两组之间的用户端指标,例如点击次数、停留时间、满意度调查响应。

    然而,这些实验无法捕捉到任何语料库变化,例如由于探索处理而导致的内容获得更多展示或用户交互的数量。由于两组共享相同的语料库,因此任何对语料库的处理效果都会在组之间泄漏。

    因此,我们提出了用户-语料库-协同分流 A/B 测试,它是多重随机化设计 (MRD)(Bajari 等人,2021)的一种实例,通过设计特定的分配矩阵来实现。特别是,它除了随机将 x% 的用户按比例分配到控制组和实验组之外,还将 x% 的语料库随机分配到控制组和处理组。如图 2 所示,控制组的用户只接收来自控制组语料库的推荐,处理组的用户也是如此。与原始用户分流实验相比,语料库的随机分割可以防止处理效果泄漏,并允许衡量处理效果对基于语料库的指标的影响。我们将用户和语料库保持比例,例如 5% 的用户探索 5% 的语料库,因此探索处理的有效性与 100% 的用户探索整个语料库时的完整部署一致。否则,可以想象,使用 5% 的用户流量来探索整个语料库 (100%) 将导致语料库分布的微小变化。

    探索增加了可发现语料库

    设置:

    我们进行了一项用户-语料库-协同分流现场实验,其中 1) 控制组运行基于利用的系统,如图 1 所示,以填补平台上的所有位置;2) 处理组运行一个简单的基于探索的系统,该系统专门为新鲜和尾部内容保留专用位置,同时使用与控制组相同的系统填充其他位置。探索系统使用一个提名器,根据候选内容与历史用户消费的相似性来提名新鲜和尾部候选内容。提名的候选内容由与控制组相同的排名系统进行排名。

    我们首先通过衡量 Discoverable Corpus @X0,7 (7 天时间段) 来检查探索系统的短期益处。

    如图 3 所示,我们观察到 Discoverable Corpus @100,7 (左) 和 Discoverable Corpus @1000,7 (右) 的数量显著增加(即收到超过 X0=100 和 X0=1000 次探索后正向交互的内容数量)。这验证了基于探索的系统在短期内有效地提升了内容获得早期成功的数量。此外,控制组和处理组之间的差距随着时间的推移而不断扩大,我们发现这是由于处理组中的内容提供者比控制组中的内容提供者创建了更多可发现的内容。虽然由于篇幅有限,我们不会深入探讨探索如何使内容提供者受益,但这是一个值得在未来研究中探讨的主题。

    虽然在短期内使内容获得早期成功很重要,但这并不一定能保证语料库的持续长期增长。理想情况下,探索系统应该能够识别出有潜力的高质量内容,这些内容在最初的引导后能够传播开来。为了评估内容的长期探索后增长,我们分析了 Discoverable Corpus @Xl,3 (3 个月时间段) 在不同的 Xl 区间内的变化。如表 1 所示,探索处理始终提高了 Discoverable Corpus @Xl,3 在不同 Xl 区间内的值。值得注意的是,增长的百分比在不同的 Xl 区间内保持着显著的一致性,大约在 50% 左右。

    扩大可发现语料库的长期价值

    以上讨论确定了探索按比例在不同的交互区间内扩大可发现语料库,并发现“未来”的头部和尾部内容。在本节中,我们将通过将可发现语料库大小的变化与长期用户体验联系起来,来完成论点的闭环。为了量化用户满意度,我们使用一个指标来统计平台上每天具有满意交互(基于满意度调查预测)的活跃用户数量,在整篇文章中,我们将此指标称为满意的每日活跃用户。

    这项研究的核心是允许每个用户访问一个缩减的固定语料库 C’⊂C,并观察满意的每日活跃用户数量的变化。为了消除任何混淆因素,即确保在通过缩减的语料库过滤提名候选内容后,第二阶段(排名)中评分的候选内容数量相同,我们相应地增加了第一阶段的提名数量。

    我们进行了 4 周的消融研究,控制组和处理组都运行与图 1 中描述的相同的多分阶段推荐系统。每组接收 5% 的总流量。控制组接收提名器输出的所有候选内容,而处理组使用附录 B 中算法 2 中详细介绍的语料库消融过程,随机从平台中过滤掉 x% 的语料库。

    研究结果如图 5 所示。从左图可以看出,满意的每日活跃用户数量在不同的消融规模下都出现了显著下降。此外,消融的负面影响随着时间的推移而增加,这表明它对长期用户满意度具有持久性的负面影响。有趣的是,右图显示了可发现语料库大小变化与满意的每日活跃用户数量之间单调的关系(大致线性),由此我们推测,增加可发现语料库大小将导致积极的用户体验。

    然而,值得一提的是,这种线性关系可能只在特定范围的语料库大小内成立。此外,当可发现语料库达到一定规模时,扩大语料库可能会产生饱和效应。确定这种关系的确切性质是未来研究的一个令人兴奋的方向,但超出了本文的范围。总之,探索增加了可发现语料库的大小,这进一步转化为长期用户满意度的提升。

  • 零样本商品推荐:多任务商品知识图谱预训练

    在当今信息爆炸的时代,推荐系统已经成为我们日常生活不可或缺的一部分。然而,现有的推荐系统在处理“零样本商品”时面临着巨大挑战。所谓“零样本商品”,指的是在训练阶段没有与用户发生过交互的商品。由于缺乏历史数据,传统推荐算法难以对这些商品进行有效的推荐。

    近年来,预训练语言模型(PLMs)在提取通用商品表示方面取得了显著进展。然而,这些模型忽略了商品之间至关重要的关系信息。为了解决这一问题,一篇名为《基于多任务商品知识图谱预训练的零样本商品推荐》的论文提出了一种全新的零样本商品推荐(ZSIR)范式,该范式通过对商品知识图谱(PKG)进行预训练来细化来自 PLMs 的商品特征。

    商品知识图谱预训练的挑战

    论文指出,商品知识图谱预训练面临着三大挑战:

    1. PKG 中存在多种类型的关系: 商品之间的关系多种多样,例如商品类别、品牌、属性等,如何有效地建模这些多类型关系是一个挑战。
    2. 商品通用信息与关系之间的语义差异: PLMs 提取的商品通用信息可能与商品知识图谱中的关系信息存在语义差异,例如,一个商品的通用信息可能是“手机”,而其在知识图谱中的关系可能是“品牌为苹果”。
    3. PKG 与下游 ZSIR 任务之间的领域差异: PKG 通常包含大量商品信息,而下游 ZSIR 任务通常只关注一小部分商品。如何将 PKG 中的知识有效地迁移到下游任务是一个挑战。

    多任务预训练与任务导向适配层

    为了应对这些挑战,论文提出了四种预训练任务和一种新颖的任务导向适配层(ToA):

    1. 关系预测: 预测商品之间的关系,例如商品类别、品牌、属性等。
    2. 属性预测: 预测商品的属性,例如颜色、尺寸、价格等。
    3. 商品相似性预测: 预测商品之间的相似度,例如,两个商品是否属于同一类别。
    4. 商品推荐预测: 预测用户对商品的喜好程度,例如,用户是否会购买该商品。

    ToA 层旨在将 PKG 中的知识有效地迁移到下游 ZSIR 任务。它通过学习一个映射函数,将 PKG 中的商品表示映射到 ZSIR 任务中的商品表示。

    模型微调与实验结果

    论文还讨论了如何将模型微调到新的推荐任务,并使 ToA 层适应 ZSIR 任务。实验结果表明,该模型在知识预测和 ZSIR 任务上都取得了显著的效果。

    总结

    这篇论文提出了一种基于多任务商品知识图谱预训练的零样本商品推荐方法,有效地解决了现有的推荐系统在处理零样本商品时面临的挑战。该方法通过对 PKG 进行多任务预训练,并利用 ToA 层将知识迁移到下游任务,显著提升了推荐效果。

    参考文献

    Fan, Z., Liu, Z., Heinecke, S., Zhang, J., Wang, H., Xiong, C., & Yu, P. S. (2023). Zero-shot item-based recommendation via multi-task product knowledge graph pre-training. arXiv preprint arXiv:2305.07633.


    零样本商品推荐:知识图谱赋能新突破

    在信息爆炸的时代,个性化推荐系统已经成为我们日常生活中不可或缺的一部分。然而,现有的推荐系统在面对“零样本商品”时往往力不从心。所谓“零样本商品”,指的是那些在训练阶段没有与用户发生过任何交互的商品。由于缺乏历史数据,传统的推荐算法难以对这些商品进行有效的推荐,导致用户体验下降。

    为了解决这一难题,一篇名为《基于多任务商品知识图谱预训练的零样本商品推荐》的论文,提出了一种全新的推荐范式,为零样本商品推荐领域带来了突破性的进展。

    知识图谱:解锁商品关系的宝藏

    该论文的核心思想是利用“商品知识图谱”(PKG)来提升商品特征的表达能力。商品知识图谱就像一张庞大的商品关系网络,它记录了商品之间的各种关联信息,例如商品类别、品牌、属性、用户评价等。通过对商品知识图谱进行预训练,模型可以学习到商品之间的深层关系,从而更好地理解商品的语义和属性。

    多任务学习:精雕细琢商品特征

    论文作者们巧妙地设计了四种预训练任务,分别针对商品知识图谱的不同方面进行学习:

    1. 关系预测: 预测商品之间的关系,例如商品类别、品牌、属性等。
    2. 属性预测: 预测商品的属性,例如颜色、尺寸、价格等。
    3. 商品相似性预测: 预测商品之间的相似度,例如,两个商品是否属于同一类别。
    4. 商品推荐预测: 预测用户对商品的喜好程度,例如,用户是否会购买该商品。

    通过多任务学习,模型可以从多个角度学习商品特征,并最终得到更加全面、准确的商品表示。

    任务导向适配层:桥接知识与推荐

    为了将商品知识图谱中学习到的知识有效地迁移到下游的零样本商品推荐任务中,论文还提出了一个新颖的“任务导向适配层”(ToA)。ToA 层就像一个桥梁,将商品知识图谱中的商品表示映射到推荐任务中的商品表示,从而实现知识的无缝衔接。

    实验验证:效果显著,前景广阔

    论文在18个市场数据集上进行了全面的实验验证,结果表明,该模型在知识预测和零样本商品推荐任务上都取得了显著的效果,优于现有的其他方法。

    未来展望:知识图谱引领推荐新时代

    该论文的成果为零样本商品推荐领域带来了新的思路和方法,也为未来推荐系统的发展指明了方向。随着知识图谱技术的不断发展,我们可以期待更加智能、高效的推荐系统,为用户提供更加个性化、精准的推荐服务。

    作者介绍

    论文的主要作者包括:Ziwei Fan、Zhiwei Liu、Shelby Heinecke、Jianguo Zhang、Huan Wang、Caiming Xiong和Philip S. Yu。他们分别来自多个机构,包括清华大学、微软研究亚洲、纽约大学等。以Caiming Xiong为例,他之前的代表作包括《Language Models are Unsupervised Multitask Learners》和《Inductive Bias of Deep Learning on Information-rich Data》等,在自然语言处理领域享有盛誉。

    相关研究

    近年来,知识图谱在推荐系统中的应用越来越广泛。一些相关的研究成果包括:

    • “Graph Neural Networks with Generated Parameters for Relation Extraction”,作者:Lei Cui、Shijie Li、Jie Zhou,机构:南京大学;
    • “Graph Convolutional Networks with Motif and Variable Temporal Aggregation for Traffic Forecasting”,作者:Yaguang Li、Yexin Li、Rose Yu、Cynthia Rudin,机构:杜克大学、麻省理工学院等。

    这些研究成果表明,知识图谱在推荐系统中具有巨大的潜力,未来将会有更多基于知识图谱的推荐方法出现。

    参考文献

    Fan, Z., Liu, Z., Heinecke, S., Zhang, J., Wang, H., Xiong, C., & Yu, P. S. (2023). Zero-shot item-based recommendation via multi-task product knowledge graph pre-training. arXiv preprint arXiv:2305.07633.