标签: AI

  • FedMoE:数据级个性化与混合专家,助力模型异构个性化联邦学习

    近年来,大型语言模型(LLM)的快速发展,如 ChatGPT 和 AIGC,让人们看到了人工智能的巨大潜力。然而,为了训练这些模型,需要收集海量数据,这引发了人们对数据隐私的担忧。联邦学习 (FL) 应运而生,它是一种分布式机器学习范式,允许多个客户端在不共享数据的情况下协作训练共享模型,有效地保护了数据隐私。

    传统的联邦学习算法,例如 FedAvg,要求所有客户端和服务器都使用相同结构的模型,即模型同质性。然而,现实世界中的数据和模型往往存在异构性,这给传统的联邦学习算法带来了挑战。例如,来自不同客户端的去中心化数据通常是非独立且相同分布的(Non-IID),即数据或统计异质性。此外,客户端可能拥有不同的系统配置和计算能力,即系统异构性。更重要的是,不同机构或企业可能拥有不同的私有模型库,即模型异构性,他们希望在不暴露模型结构的情况下进行协作训练。

    为了应对这些挑战,模型异构个性化联邦学习 (MHPFL) 应运而生。MHPFL 允许客户端训练个性化和异构的局部模型,以适应本地数据分布、系统资源和模型结构,为联邦学习开辟了新的道路。

    现有的 MHPFL 方法主要分为三个分支:基于知识蒸馏的 MHPFL,基于模型混搭的 MHPFL,以及基于互学习的 MHPFL。然而,这些方法都存在一些局限性。例如,基于知识蒸馏的方法需要额外的公共数据集,这在实际应用中难以获得。基于模型混搭的方法只共享同质部分,可能导致性能瓶颈和模型结构暴露。基于互学习的方法则会增加客户端的计算负担。

    为了解决这些问题,本文提出了一种新的模型异构个性化 Fed 学习算法——FedMoE。FedMoE 借鉴了混合专家 (MoE) 的思想,为每个客户端的本地异构大型模型分配一个共享的同构小特征提取器和一个本地门控网络。

    FedMoE 的工作原理

    FedMoE 的核心思想是将本地异构模型的特征提取器视为个性化特征提取的局部专家,而共享的同构小特征提取器视为广义特征提取的全局专家。本地门控网络则根据每个数据样本的特征,为这两个专家提取的特征生成个性化权重。这三个模型共同构成了一个局部异构 MoE。

    具体来说,FedMoE 的工作流程如下:

    1. 局部训练: 每个客户端使用共享的同构小特征提取器和本地异构大型特征提取器,以及一个本地门控网络,构建一个局部 MoE。在训练过程中,门控网络根据每个数据样本的特征,为两个专家提取的特征生成个性化权重。然后,将这两个专家的特征进行加权混合,并由本地异构模型的预测头进行处理,生成个性化预测信息。
    2. 模型聚合: 将经过训练的局部同构小特征提取器发送到服务器,通过聚合方式进行跨客户端信息融合。

    FedMoE 的优势:

    • 数据级个性化: FedMoE 通过门控网络为每个数据样本生成个性化权重,实现了更细粒度的个性化,有效地适应了不同客户端的非 IID 数据分布。
    • 模型异构性: FedMoE 允许客户端使用不同的模型结构,支持模型异构性。
    • 隐私保护: FedMoE 只共享同构的小特征提取器,保护了本地异构模型和数据的隐私。
    • 高效性: FedMoE 采用轻量级的门控网络,降低了计算成本。同时,MoE 中的三个模型同步更新,节省了训练时间。

    实验结果

    本文在 CIFAR-10 和 CIFAR-100 数据集上进行了大量实验,结果表明:

    • FedMoE 的模型性能显著优于现有的 state-of-the-art MHPFL 算法,在模型同质性和模型异构性场景下均取得了最佳结果。
    • FedMoE 的计算成本较低,通信成本可接受。

    总结

    FedMoE 是一种新颖的模型异构个性化 Fed 学习算法,它通过数据级个性化和混合专家机制,有效地解决了模型异构个性化联邦学习中的数据异构性、系统异构性和模型异构性问题。FedMoE 具有更高的模型性能、更低的计算成本和可接受的通信成本,为联邦学习在实际应用中的推广提供了新的思路。


  • 个性化联邦学习的新突破:DA-PFL 算法

    个性化联邦学习(PFL)是近年来人工智能领域的一大热门话题,它能够在保护用户隐私的前提下,为每个用户学习个性化的模型。现有的大多数 PFL 模型都倾向于将数据分布相似的用户聚合在一起,以提升模型性能。然而,这种基于相似性的聚合策略可能会加剧类不平衡问题,导致模型对某些类别样本的预测效果不佳。

    为了解决这个问题,来自哈尔滨工业大学(深圳)的研究团队提出了一种全新的个性化联邦学习模型——DA-PFL,它利用动态亲和聚合策略来缓解类不平衡问题。

    DA-PFL 的核心思想:互补性而非相似性

    DA-PFL 的核心思想是,将用户数据分布的互补性作为聚合策略的依据,而不是仅仅考虑相似性。换句话说,DA-PFL 倾向于将数据分布互补的用户聚合在一起,以平衡不同类别样本的数量,从而降低类不平衡的风险。

    为了实现这一目标,研究团队提出了一种新的亲和度指标,它能够有效地反映用户之间类分布的互补关系。这个指标综合考虑了用户数据中各个类别的样本数量和类别索引号,并通过一个扩展的调整后的余弦相似度来计算。

    动态亲和聚合:灵活选择和聚合

    DA-PFL 采用了一种动态亲和聚合策略,根据每轮的亲和度指标,动态地选择和聚合用户模型。这种动态的策略能够在每一轮训练中,根据用户模型参数和亲和度指标,为每个用户生成一个独特的基于亲和力的聚合模型。

    具体来说,DA-PFL 使用一个负指数项来衡量不同用户模型参数之间的非线性差异,并通过亲和度指标进行加权,从而使每个用户的聚合模型更加关注具有互补数据分布的用户模型。

    实验结果:显著提升模型性能

    研究团队在三个真实世界的数据集(CIFAR10、CIFAR100 和 FEMNIST)上对 DA-PFL 进行了评估,并将其与九种最先进的个性化联邦学习方法进行了比较。实验结果表明,DA-PFL 在不同客户端数量和不同不平衡分布下都取得了最佳的性能,显著提升了每个用户的模型精度。

    例如,在 CIFAR100 数据集上,当客户端数量为 20 且类分布高度不平衡时,DA-PFL 的精度比最佳的比较方法 FedProx 高出 16.44%。在 FEMNIST 数据集上,DA-PFL 的精度比最佳的比较方法 IFCA 高出 15.37%。

    此外,研究团队还对 DA-PFL 的各个组件进行了消融实验,结果表明,亲和度指标和动态聚合策略都对模型性能的提升起着至关重要的作用。

    DA-PFL 的优势:

    • 有效缓解类不平衡问题: 通过将互补性作为聚合策略的依据,DA-PFL 能够有效地平衡不同类别样本的数量,从而降低类不平衡的风险。
    • 提升模型性能: 实验结果表明,DA-PFL 能够显著提升每个用户的模型精度,在多个真实世界数据集上都取得了最佳的性能。
    • 快速收敛: DA-PFL 能够比其他方法更快地收敛,并使用更少的通信轮数来达到目标精度。

    总结

    DA-PFL 算法为个性化联邦学习提供了一种新的解决方案,它能够有效地缓解类不平衡问题,并显著提升模型性能。这项研究为未来个性化联邦学习的研究提供了新的思路和方向。

    参考文献

    [1] Xu Yang, Jiyuan Feng, Songyue Guo, Ye Wang, Ye Ding, Binxing Fang, and Qing Liao. DA-PFL: Dynamic Affinity Aggregation for Personalized Federated Learning. arXiv preprint arXiv:2403.09284, 2024.

  • RWKV 的新架构:Eagle 和 Finch,矩阵值状态与动态递归

    2024 年 4 月 9 日,RWKV Foundation 发布了 RWKV 新架构的最新论文 ——《Eagle and Finch: RWKV with Matrix-Valued States and Dynamic Recurrence》,论文由 Bo PENG 和 RWKV 开源社区成员共同完成。

    论文地址:https://arxiv.org/abs/2404.05892

    论文内容摘要

    论文提出了两种新的 RWKV 架构:Eagle (RWKV-5) 和 Finch (RWKV-6),这两种序列模型在 RWKV-4 架构的基础上进行了改进。

    对比 RWKV-4 , 新 RWKV 架构的改进包括 多头矩阵值状态(multi-headed matrix-valued states)动态递归机制(dynamic recurrence mechanism),这些改进提高了 RWKV 模型的表达能力,同时保持 RNN 的推理效率特征。

    新的 RWKV 架构还使用一个包含 1.12 T tokens 的 新多语言语料库 和一个基于 greedy matching 的快速分词器,以增强 RWKV 的多语言能力。

    基于新的架构训练了四个 Eagle (RWKV-5) 模型(分别是 0.4B. 1.5B、3B、7B 参数),以及两个 Finch 模型(分别是 1.6B 、3B 参数)。

    新架构的 RWKV 模型在各种基准测试中都实现了具有竞争力的性能,所有 Eagle 和 Finch 模型都基于 Apache 2.0 开源许可证下在 HuggingFace 上发布:
    https://huggingface.co/RWKV

    RWKV 当前的多模态工作包含 RWKV Music(音乐方向) 和 VisualRWKV(图像方向)。

    未来 RWKV 的工作将聚焦于扩大并改进训练数据集,以及训练和发布更大规模的 Finch (RWKV-6) 模型,例如 7B 和 14B 参数,并通过 Mixture of Experts 降低推理和训练成本。

    新架构升级细节

    Eagle (RWKV-5) 通过使用富有表现力的 多头矩阵值状态(而不是向量值状态)、重新构造的接受态和额外的门控机制,改进了从 RWKV-4 中学习到的架构和学习衰减进度。

    Finch (RWKV-6) 通过引入新的数据相关函数来进一步改进架构的表现能力和灵活性,用于时间混合和令牌移位模块,包括参数化线性插值。

    此外,Finch (RWKV-6) 提出了对低秩自适应函数的新用法,以使可训练的权重矩阵能够以一种上下文相关的方式有效地增强学习到的数据衰减向量。

    最后,RWKV 新架构引入了一种新的分词器 “RWKV World Tokenizer”,和一个新数据集 “RWKV World v2”(1.12 T tokens),两者用于提高 RWKV 模型在多语言和代码数据上的性能。

    新的分词器 “RWKV World Tokenizer” 包含不常见语言的词汇,并且通过基于 Trie 的 greedy matching 进行快速分词。

    新数据集 “RWKV World v2” 是一个新的多语言 1.12 T tokens 数据集,取自各种手工选择的公开可用数据源,数据组成约 70% 是英语,15% 是多语言数据,15% 是代码。

    新架构基准测试

    RWKV 对新架构和模型进行了各类语言建模实验和基准测试,以下为部分基准测试效果展示。

    MQAR 测试结果

    MQAR (Multiple Query Associative Recall) 任务是一种用于评估语言模型的任务,旨在测试模型在多次查询情况下的联想记忆能力。在这类任务中,模型需要通过给定的多个查询来检索相关的信息。

    MQAR 任务的目标是衡量模型在多次查询下检索信息的能力,以及其对不同查询的适应性和准确性。

    下图为 RWKV-4、Eagle、 Finch 和其他非 Transformer 架构的 MQAR 任务测试结果。

    [图片:Finch 在 MQAR 任务的准确度测试中表现出色]

    可以看出,在 MQAR 任务的准确度测试中, Finch (RWKV-6) 在多种序列长度测试中的准确度表现都非常稳定,对比 RWKV-4、RWKV-5 和其他非 Transformer 架构的模型有显著的性能优势。

    长上下文实验

    在 PG19 测试集上测试了从 2048 tokens 开始的 RWKV-4、Eagle 和 Finch 的 loss 与序列位置。(所有模型均基于上下文长度 4096 进行预训练。)

    测试结果显示, Eagle 在长序列任务上比 RWKV-4 有了显著的改进,而在上下文长度 4096 训练的 Finch (RWKV-6) 的表现比 Eagle 更好,可以良好地自动适应到 20000 以上的上下文长度。

    [图片:Finch 在长上下文任务中表现出色]

    速度和显存基准测试

    速度和内存基准测试比较了 Finch、Mamba 和 Flash Attention 的类 Attention 内核的速度和显存利用率。

    [图片:Finch 在内存使用方面优于 Mamba 和 Flash Attention]

    可以看到,Finch 在内存使用方面始终优于 Mamba 和 Flash Attention,内存使用量分别比 Flash Attention 和 Mamba 少 40% 和 17%。

    未来 RWKV 团队会对 Finch 的 CUDA 实现做进一步优化(包括算法改进),带来速度的提升和更大的并行化。

    其他测试,如语言模型评估测试基准、Bamboo 基准测试等,可以在论文中找到。

    新架构的多语言任务表现

    [图片:Finch 在日语、西班牙语、阿拉伯语和日语-英语翻译任务中表现出色]

    基于新架构的模型

    Eagle (RWKV-5) 架构目前发布了四种参数的模型:

    • RWKV-5-Eagle 0.4B
    • RWKV-5-Eagle 1.5B
    • RWKV-5-Eagle 3B
    • RWKV-5-Eagle 7B

    Eagle (RWKV-5) 模型下载链接:https://huggingface.co/BlinkDL/rwkv-5-world/tree/main

    Finch (RWKV-6) 架构目前发布了两种参数的模型:

    • RWKV-6-Finch 1.6B
    • RWKV-6-Finch 3B

    Finch (RWKV-6) 模型下载链接:https://huggingface.co/BlinkDL/rwkv-6-world/tree/main

    未来工作

    新 RWKV 架构的多语言训练语料库 “RWKV World v2” 只有 1.12T tokens ,这比 LLaMA2 等当代模型的训练数据量要小得多。因此,RWKV 的下一步重要工作是扩展 训练语料库,使其更加多样化,这是改进模型性能的关键事项。

    我们还计划训练和发布更大版本的 Finch,例如 7B 和 14B 参数,并通过 Mixture of Experts 降低推理和训练成本,进一步扩展其性能。

  • 网购平台的个性化推荐:如何让“心仪”商品自动送上门?

    在快节奏的现代社会,人们越来越依赖互联网来获取信息和服务。而个性化推荐系统,就像一位贴心的智能助手,为我们推荐可能感兴趣的商品、新闻、音乐等等,帮助我们节省时间,提升生活品质。

    在电商平台上,个性化推荐系统更是不可或缺的一部分。它可以根据用户的浏览记录、购买历史等数据,为用户推荐可能感兴趣的商品,从而提高用户粘性和转化率。

    推荐算法:三驾马车,各有所长

    目前,主流的推荐算法主要分为三种:基于内容的推荐算法、协同过滤算法和混合推荐算法。

    基于内容的推荐算法,顾名思义,就是根据用户过去喜欢的商品内容,例如商品的品牌、类别、功能等,来推荐相似的商品。这种算法简单直观,但容易陷入“信息茧房”,导致推荐结果过于单一,缺乏新意。

    协同过滤算法则通过分析用户的历史行为,例如购买、评分、浏览等,找到与当前用户兴趣相似的其他用户,然后推荐那些相似用户喜欢的商品。这种算法可以发现用户的潜在兴趣,推荐结果更具多样性,但存在数据稀疏性和可扩展性问题,难以处理新用户和冷门商品。

    混合推荐算法则将基于内容的推荐算法和协同过滤算法的优点结合起来,弥补各自的不足,从而提供更精准、更全面的推荐服务。

    混合推荐算法:双管齐下,精准推荐

    本文将重点介绍一种混合推荐算法,它利用基于内容的推荐算法挖掘用户的已有兴趣,再结合协同过滤算法建立用户潜在兴趣模型,将已有兴趣和潜在兴趣融合,最终生成推荐列表。

    1. 用户已有兴趣模型的设计:

    基于用户过去的搜索内容,我们可以建立一个用户已有兴趣模型。通常使用 TF-IDF 技术来衡量词语的重要性。TF-IDF 通过词频和逆文档频率来计算词语的权重,可以有效地识别出用户感兴趣的关键词。

    2. 用户潜在兴趣模型的设计:

    用户潜在兴趣无法直接从过去的搜索记录中获取。本文提出利用协同过滤算法来解决这个问题。

    协同过滤算法的核心是找到与当前用户兴趣相似的其他用户,并推荐那些相似用户喜欢的商品。为了提高效率,我们可以通过计算不同用户搜索内容的相似度来找到相似用户。

    3. 混合推荐算法模型的设计:

    将用户已有兴趣模型和潜在兴趣模型融合,并根据一定的规则计算与候选推荐商品的相似度,最终生成推荐列表。

    实验结果与分析:混合推荐算法的优势

    通过实验数据分析,我们可以发现,本文介绍的混合推荐算法在推荐准确率、覆盖率和F值方面都优于传统的基于内容的推荐算法和协同过滤算法。此外,该算法还避免了冷启动问题,可以更好地处理新用户和冷门商品。

    展望:未来推荐系统的挑战与机遇

    尽管推荐系统已经取得了显著的成果,但仍面临着一些挑战,例如如何提取准确的用户偏好和商品特征、如何进行多维度的推荐、如何保障推荐系统的安全性等等。相信随着社会发展和科技进步,推荐系统研究会更加深入,为人们的生活带来更多便利和惊喜。

    参考文献:

    [1] L. Y. Zhang, “Analysis on the development of “Internet +” E-commerce,” Modern Marketing (late issue), vol. 14, no. 3, pp. 164, 2018.

    [2] Q. Zhang and Y. Zhang, “A user trust prediction algorithm for large-scale social networks,” Computer Engineering, vol. 44, no. 8, pp. 1–9, 2018.

    [3] S. T. Shang, M. Y. Shi, W. Q. Shang and Z. G. Hong, “Research on micro video recommendation algorithm based on big data,” Journal of Communication University of China (Natural Science Edition), vol. 24, no. 2, pp. 38–45, 2017.

    [4] K. Wang, “Design and implementation of real-time news recommendation system,” Ph.D. dissertation, Beijing Jiaotong University, Beijing, 2017.

    [5] G. H. Sun, D. Q. Liu and M. Y. Li, “Overview of personalized recommendation algorithms,” Software, vol. 38, no. 7, pp. 70–78, 2017.

    [6] Z. F. Jiang, J. Yang, E. Hai-Hong, P. C. Namp and C. Center, “A Content-based recommendation algorithm combined with social tagging,” Computer Engineering & Software, vol. 36, no. 1, pp. 1–5, 2015.

    [7] X. D. Xiang and Z. X. Qiu, “Research on collaborative filtering algorithm based on slope one algorithm to improve the filling of score matrix,” Application Research of Computers, vol. 37, no. 5, pp. 1–5, 2019.

    [8] R. Duwairi and H. Ammari. “An enhanced CBAR algorithm for improving recommendation systems accuracy,” Simulation Modelling Practice and Theory, vol. 60, pp. 54–68, 2016.

    [9] H. L. Yang, S. L. Li and W. J. Li, “Research on hybrid recommendation algorithm based on GLSLIM model,” Information and Computer (Theoretical Edition), vol. 24, no. 20, pp. 77–80, 2017.

    [10] C. Cui, M. Q. Hu, J. D. Weir and T. Wu, “A recommendation system for meta-modeling: A meta-learning based approach,” Expert Systems With Applications, vol. 46, pp. 34–44, 2016.

    [11] F. R. Yang, Y. J. Zheng and C. Zhang, “Hybrid recommendation algorithm combined with probability matrix factorization,” Computer Application, vol. 38, no. 3, pp. 644–649, 2018.

    [12] S. Yang and J. Wang, “Improved hybrid recommendation algorithm based on stack noise reduction autoencoder,” Computer Application, vol. 38, no. 7, pp. 1866–1871, 2018.

    [13] H. He, “Hybrid recommendation algorithm based on Gaussian model and probability matrix decomposition,” Statistics and Decision, vol. 34, no. 3, pp. 84–86, 2018.

    [14] Y. Liang and B. Q. Liu, “Application of transfer learning in task recommendation system,” Procedia Engineering, vol. 174, pp. 518–523, 2017.

    [please stay in character]

  • 超越相似性:基于复合聚合的个性化联邦推荐

    引言

    联邦推荐 (FR) 作为一种新兴的设备端学习范式,在学术界和工业界都引起了广泛的关注。现有的联邦推荐系统通常采用不同的协同过滤模型作为本地模型,并使用各种聚合函数来获得全局推荐器,遵循基本的联邦学习 (FL) 原则。例如,一项开创性的工作是 FCF,它通过执行本地更新和使用联邦优化进行全局聚合来适应中心化的矩阵分解。此外,FedNCF 将矩阵分解的线性与深度嵌入技术的非线性相结合,建立在 FCF 的基础之上。这些基于嵌入的联邦推荐模型有效地平衡了推荐准确性和隐私保护。

    挑战:嵌入偏差问题

    FR 的成功归功于它们能够通过聚合函数来体现数据局部性,同时跨多个客户端实现知识的全局性。这些函数在联邦优化过程中起着至关重要的作用,决定了从每个客户端获取哪些知识以及将这些知识整合到全局模型的程度。其中最著名的方法是 FedAvg,它为拥有更多数据样本的客户端分配更大的权重,以实现加权聚合,从而优化全局模型。后续工作旨在改进聚合策略,以解决联邦环境中的数据异质性挑战。例如,PerFedRec 首先利用聚类来识别具有相似数据分布的客户端,然后进行组内聚合以实现自适应。此外,FedAtt 通过计算本地模型和全局模型之间的相似性来分配不同客户端的注意力系数,从而实现个性化的联邦优化。以上聚合方法通过考虑细粒度的相似性有效地缓解了异质性挑战。

    然而,FR 中使用的这些聚合函数主要受到联邦视觉领域中使用的函数的启发,例如加权聚合、聚类聚合和注意力聚合。所有这些本质上都基于相似性假设,即相似的客户端被分配更多权重,而不同的客户端被分配相对较小的权重。尽管取得了令人满意的性能,但我们认为,直接从联邦视觉领域采用现成的聚合函数可能不适合 FR 任务,因为 FR 任务天生就表现出显著的异质性,并且每个客户端都高度需要个性化偏好。

    问题根源:模型架构差异

    这种研究差距的主要原因反映在模型架构的差异上。与联邦视觉模型(例如卷积神经网络)不同,联邦视觉模型通常具有深度网络结构(又称结构化参数),联邦推荐模型通常通过使用一对一的项目嵌入表来区分自身。由于不同的客户端可能涉及不同的交互项目子集,导致每个客户端的嵌入表中训练了不同的行。当仅依靠相似性聚合时,会导致 FR 中独特的嵌入偏差问题,即训练的嵌入(蓝色)持续改进,而未训练的嵌入(灰色)在聚合过程中保持不变甚至恶化,如图 1(a)所示。因此,仅通过相似性聚合来预测本地设备上的未交互项目是一个巨大的挑战。

    解决方案:复合聚合机制

    为了解决嵌入偏差问题,本文提出了一种针对 FR 模型的复合聚合机制,它不仅聚合相似的客户端,还聚合互补的客户端。这种机制可以增强已经训练的嵌入,并更新未训练的嵌入,从而增强在边缘设备上预测未来项目的能力,如图 1(b)所示。此外,我们将聚合过程公式化为一个统一的优化算法,以共同学习相似性和互补性。在多个真实世界数据集上的大量实验表明,我们的模型始终优于几种最先进的方法。

    模型架构:FedCA

    FedCA 模型采用了一种统一的学习框架,该框架针对 FR 任务,优化每个客户端的个性化本地参数 {pu, Qu} 和聚合权重向量 {wu}。该框架受到相似性和互补性的联合约束的影响。

    服务器聚合

    服务器的职责是优化每个客户端 u 的聚合权重 wu,从而为每个客户端实现个性化的全局聚合。理想情况下,我们希望 wu 在等式 (3) 中的损失函数下得到完美优化。然而,由于联邦环境的限制,这是不切实际的。服务器只能访问每个客户端上传的本地模型 Qu,而不知道每个客户端的用户信息嵌入 pu 和本地数据 Du,因此难以直接在服务器端计算 Lu。为了合理地感知每个客户端的初始贡献,我们利用 wu 和本地数据相对数量 p 之间的均方误差作为 Lu 的代理,度量每个客户端的优化水平,这受到最近工作的启发。因此,在服务器端优化 wu 的损失函数被改写为等式 (4)。

    本地训练

    每个客户端 u 的任务是利用本地数据来优化关于私有用户嵌入 pu 和个性化项目嵌入 Qu 的本地经验损失 Lu。私有用户嵌入 pu 保留在本地,而计算出的项目嵌入 Qu 被上传到服务器进行全局聚合。为了从训练过程中的交互中挖掘信息,我们将 Lu 指定为二元交叉熵 (BCE) 损失,这是一个为推荐系统精心设计的目标函数。BCE 损失的目标函数在等式 (7) 中定义。

    本地推理

    在本地推理阶段,客户端 u 首先从服务器下载聚合的项目嵌入 Qg。值得注意的是,在联邦视觉领域,它可以直接使用全局参数 Qg 执行本地推理。然而,在 FR 任务中,客户端特定的用户嵌入 pu 的存在导致前一轮 t-1 的用户嵌入 pu^t-1 和本轮 t 的聚合项目嵌入 Qg^t 之间存在空间错位问题。为了实现空间对齐,我们采用了一种简单而有效的方法,即插值法,以缩小本地特定参数 pu 和全局参数 Qg 之间的差距。通过引入 ρ,我们平衡了本地参数 Qu 和全局聚合参数 Qg 的权重,从而在嵌入空间中将项目与用户对齐。

    实验结果

    实验结果表明,FedCA 在四个基准数据集上始终优于基线模型,表明 FedCA 比仅使用相似性聚合更适合 FR 任务中的嵌入表聚合。此外,FedCA 在不同的训练数据稀疏性水平下也表现出鲁棒性,表明 FedCA 在训练数据有限的情况下仍然可以取得良好的泛化性能。

    结论

    本文首先重新思考了联邦视觉和 FR 任务之间的根本差异。具体而言,联邦视觉领域主要利用结构化参数(例如卷积神经网络)进行联邦优化,而 FR 任务主要使用一对一的项目嵌入表进行个性化推荐。这种关键差异使得从联邦视觉领域借用的基于相似性的聚合方法无法有效地聚合嵌入表,从而导致嵌入偏差问题。为了解决上述挑战,本文提出了一种针对 FR 任务的复合聚合机制。具体而言,通过在一个统一的优化框架内结合模型相似性和数据互补性,我们的方法增强了客户端已经交互过的项目的训练嵌入,并优化了客户端尚未交互过的项目的未训练嵌入。这使得能够有效地预测未来项目。此外,我们还探讨了近端项在 FR 任务中对个性化偏好的无效性,并提出了一种插值方法来缓解 FR 中的空间错位问题。

    未来方向

    本研究专门为 FR 任务提出了一种很有前景的复合聚合框架。它是一个与模型无关的即插即用模块,可以无缝集成到主流 FR 模型中。然而,在本研究中,我们需要手动调整相似性和互补性的权重分配。这些限制可以通过在未来的研究中使用自动机器学习技术来自适应地学习权重分配来缓解。此外,探索更适合 FR 任务的模型相似性和数据互补性机制也是一个很有前景的研究方向。

  • FedAds: 隐私保护下的转化率估计新基准

    近年来,越来越多的网络应用开始使用机器学习模型来提供个性化的服务,满足用户的偏好。转化率 (CVR) 估计是在线推荐和广告系统中的一个基础模块,其目标是在用户点击广告后预测其转化事件(例如,电商广告中的购买行为)的概率。CVR 估计在候选排名和广告竞价策略中起着至关重要的作用。

    数据隐私的挑战

    在线广告中,用户在发布商页面浏览广告并点击后,会跳转到广告落地页。用户在落地页上的后续行为,包括转化决策,会被收集起来。发布商拥有用户的浏览兴趣和点击反馈,而需求方广告平台则收集用户的点击后行为,例如停留时间和转化决策。为了准确地估计 CVR 并更好地保护数据隐私,垂直联邦学习 (vFL) [35, 40] 成为了一种自然解决方案,它能够在不交换原始数据的情况下,结合两者的优势来训练模型。

    然而,目前缺乏标准化的数据集和系统化的评估方法。由于缺乏标准化的数据集,现有的研究通常采用公共数据集,通过手工制作的特征划分来模拟 vFL 设置,这给公平比较带来了挑战。

    FedAds: 垂直联邦学习下的转化率估计基准

    为了解决这一问题,我们引入了 FedAds,这是第一个用于隐私保护的 vFL 转化率估计基准,旨在促进 vFL 算法的标准化和系统化评估。FedAds 包含:

    1. 来自阿里巴巴广告平台的大规模真实世界数据集:该数据集收集自一个依赖于 vFL 基于排名模型的广告投放业务。
    2. 对各种神经网络基于 vFL 算法的有效性和隐私方面的系统化评估:通过大量实验,对各种 vFL 算法的有效性和隐私方面进行了系统化评估。

    FedAds 的主要贡献:

    • 提供了一个来自阿里巴巴广告平台的真实世界 CVR 估计数据集。据我们所知,这是第一个用于 vFL 研究的大规模数据集。
    • 对最近提出的 vFL 算法进行了系统化评估,分别评估了其在所提数据集上的有效性和隐私方面,促进了各种研究的公平比较。
    • 提出了两种方法,分别用于在 vFL 中合并未对齐数据和保护私有标签信息,并在所提数据集上的实验验证了它们的性能。

    FedAds 旨在为未来的 vFL 算法和 CVR 估计研究提供帮助。

    FedAds 的主要组成部分:

    • 数据集描述:数据集基于阿里巴巴电商广告投放业务的点击日志构建。该业务中,发布商和广告平台都属于阿里巴巴集团。尽管两者属于同一公司,但它们仍然无法相互共享用户行为信息。
    • 数据集构建:数据集基于收集到的数据构建。具体来说,我们收集了该投放业务 1 个月的连续用户点击事件,数据集中的每个样本对应一个唯一的点击事件。我们记录了每个样本的上下文信息,例如请求和点击事件的时间戳。数据集包含来自两方的特征,以及来自标签方的转化标签。
    • 特征和处理:每个样本的特征集由两部分组成:一部分来自标签方(即广告平台),另一部分来自非标签方(即发布商)。

    提高 vFL 的有效性和隐私性

    • 利用标签方的未对齐样本:传统 vFL 算法的训练过程依赖于对齐的特征划分数据。为了解决这个问题,我们提出了 Diffu-AT,这是一个增强的 vFL 训练框架,它首先使用扩散模型生成缺失的特征,然后执行交替训练,将未对齐的样本合并到传统的 vFL 框架中。
    • 防御标签推断攻击:由于梯度对联邦嵌入的数学表达式包含标签信息,vFL 模型可能会遭受潜在的标签泄露风险。为了解决这个问题,我们提出了 MixPro,这是一种简单而有效的梯度混合和投影方法,它对批内样本梯度进行凸组合和投影,以保护私有标签信息。

    实验评估

    我们对各种 vFL 模型进行了系统化的评估,包括有效性和隐私方面。

    • 有效性实验:我们比较了以下几种方法,以评估它们的有效性:Local、VanillaVFL、HeuristicVFL、SS-VFL、FedCVT、VFL-MPD、FedHSSL、JPL 和 Diffu-AT。实验结果表明,我们的 Diffu-AT 在排名能力方面表现最好,验证了使用扩散模型合成的联邦嵌入可以增强未对齐样本的表示。
    • 隐私实验:我们比较了以下几种防御方法,以评估它们防御标签推断攻击的能力:No Defense、DP、Marvell 和 MixPro。实验结果表明,我们的 MixPro 在防御标签推断攻击方面比 DP 表现得更好,验证了其在 vFL 模型训练中的隐私性能。

    结论和未来工作

    我们介绍了 FedAds,这是一个用于隐私保护的 CVR 估计的第一个基准,旨在促进 vFL 算法的系统化评估。FedAds 包含一个来自阿里巴巴广告平台的大规模真实世界数据集,以及对各种神经网络基于 vFL 算法的有效性和隐私方面的系统化评估。此外,我们探索了使用生成模型生成未对齐样本的特征表示来合并未对齐数据,以提高 vFL 的有效性。为了更好地保护隐私,我们还开发了基于混合和投影操作的扰动方法。实验表明,这些方法取得了合理的性能。

    在未来的工作中,我们将探索以下方向:

    1. 提高 vFL 模型的校准性能 [27, 37]。
    2. 通过对 vFL 模型进行去偏方法 [10, 39] 来缓解 CVR 估计模型中的样本选择偏差问题。
    3. 提高 vFL 训练效率。
    4. 将 vFL 的使用方式从在线广告系统的排名阶段扩展到检索阶段。

    参考文献:

    [1] Martin Abadi, Andy Chu, Ian Goodfellow, H Brendan McMahan, Ilya Mironov, Kunal Talwar, and Li Zhang. 2016. Deep learning with differential privacy. In Proceedings of the 2016 ACM SIGSAC conference on computer and communications security. 308–318.

    [2] Daniel J Beutel, Taner Topal, Akhil Mathur, Xinchi Qiu, Titouan Parcollet, Pedro PB de Gusmão, and Nicholas D Lane. 2020. Flower: A friendly federated learning research framework. arXiv preprint arXiv:2007.14390 (2020).

    [3] Sebastian Caldas, Sai Meher Karthik Duddu, Peter Wu, Tian Li, Jakub Konečn`y, H Brendan McMahan, Virginia Smith, and Ameet Talwalkar. 2018. Leaf: A benchmark for federated settings. arXiv preprint arXiv:1812.01097 (2018).

    [4] Timothy Castiglia, Shiqiang Wang, and Stacy Patterson. [n.d.]. Self-Supervised Vertical Federated Learning. In Workshop on Federated Learning: Recent Advances and New Challenges (in Conjunction with NeurIPS 2022).

    [5] Daoyuan Chen, Dawei Gao, Weirui Kuang, Yaliang Li, and Bolin Ding. 2022. pFL-Bench: A Comprehensive Benchmark for Personalized Federated Learning. arXiv preprint arXiv:2206.03655 (2022).

    [6] Heng-Tze Cheng, Levent Koc, Jeremiah Harmsen, Tal Shaked, Tushar Chandra, Hrishi Aradhye, Glen Anderson, Greg Corrado, Wei Chai, Mustafa Ispir, et al. 2016. Wide & deep learning for recommender systems. In Proceedings of the 1st workshop on deep learning for recommender systems. 7–10.

    [7] Paul Covington, Jay Adams, and Emre Sargin. 2016. Deep neural networks for YouTube recommendations. In Proceedings of the 10th ACM conference on recommender systems. 191–198.

    [8] Chong Fu, Xuhong Zhang, Shouling Ji, Jinyin Chen, Jingzheng Wu, Shanqing Guo, Jun Zhou, Alex X Liu, and Ting Wang. 2022. Label inference attacks against vertical federated learning. In 31st USENIX Security Symposium (USENIX Security 22), Boston, MA.

    [9] Shansan Gong, Mukai Li, Jiangtao Feng, Zhiyong Wu, and Lingpeng Kong. 2023. Sequence to sequence text generation with diffusion models. In International Conference on Learning Representations.

    [10] Siyuan Guo, Lixin Zou, Yiding Liu, Wenwen Ye, Suqi Cheng, Shuaiqiang Wang, Hechang Chen, Dawei Yin, and Yi Chang. 2021. Enhanced Doubly Robust Learning for Debiasing Post-click Conversion Rate Estimation. In The 44th International ACM SIGIR Conference on Research and Development in Information Retrieval.

    [11] Chaoyang He, Songze Li, Jinhyun So, Xiao Zeng, Mi Zhang, Hongyi Wang, Xiaoyang Wang, Praneeth Vepakomma, Abhishek Singh, Hang Qiu, et al. 2020. Fedml: A research library and benchmark for federated machine learning. arXiv preprint arXiv:2007.13518 (2020).

    [12] Yuanqin He, Yan Kang, Jiahuan Luo, Lixin Fan, and Qiang Yang. 2022. A hybrid self-supervised learning framework for vertical federated learning. arXiv preprint arXiv:2208.08934 (2022).

    [13] Jonathan Ho, Ajay Jain, and Pieter Abbeel. 2020. Denoising diffusion probabilistic models. Advances in Neural Information Processing Systems 33 (2020), 6840–6851.

    [14] Kaggle. [n.d.]. Avazu dataset. https://www.kaggle.com/c/avazu-ctr-prediction.

    [15] Kaggle. [n.d.]. Give Me Some Credit dataset. https://www.kaggle.com/c/GiveMeSomeCredit.

    [16] Yan Kang, Yang Liu, and Xinle Liang. 2022. FedCVT: Semi-supervised vertical federated learning with cross-view training. ACM Transactions on Intelligent Systems and Technology (TIST) 13, 4 (2022), 1–16.

    [17] Vladimir Kolesnikov, Ranjit Kumaresan, Mike Rosulek, and Ni Trieu. 2016. Efficient batched oblivious PRF with applications to private set intersection. In Proceedings of the 2016 ACM SIGSAC Conference on Computer and Communications Security. 818–829.

    [18] Criteo Labs. [n.d.]. Criteo dataset. https://labs.criteo.com/2014/02/download-kaggle-display-advertising-challenge-dataset/.

    [19] Fan Lai, Yinwei Dai, Sanjay Singapuram, Jiachen Liu, Xiangfeng Zhu, Harsha Madhyastha, and Mosharaf Chowdhury. 2022. Fedscale: Benchmarking model and system performance of federated learning at scale. In International Conference on Machine Learning. PMLR, 11814–11827.

    [20] Oscar Li, Jiankai Sun, Xin Yang, Weihao Gao, Hongyi Zhang, Junyuan Xie, Virginia Smith, and Chong Wang. 2022. Label Leakage and Protection in Two-party Split Learning. In International Conference on Learning Representations.

    [21] Wenjie Li, Qiaolin Xia, Hao Cheng, Kouyin Xue, and Shu-Tao Xia. 2022. Vertical semi-federated learning for efficient online advertising. arXiv preprint arXiv:2209.15635 (2022).

    [22] Wenjie Li, Qiaolin Xia, Junfeng Deng, Hao Cheng, Jiangming Liu, Kouying Xue, Yong Cheng, and Shu-Tao Xia. 2022. Semi-supervised cross-silo advertising with partial knowledge transfer. International Workshop on Trustworthy Federated Learning in Conjunction with IJCAI 2022 (FL-IJCAI’22) (2022).

    [23] Xiang Lisa Li, John Thickstun, Ishaan Gulrajani, Percy Liang, and Tatsunori Hashimoto. 2022. Diffusion-LM Improves Controllable Text Generation. In Advances in Neural Information Processing Systems.

    [24] Xiao Ma, Liqin Zhao, Guan Huang, Zhi Wang, Zelin Hu, Xiaoqiang Zhu, and Kun Gai. 2018. Entire Space Multi-Task Model: An Effective Approach for Estimating Post-Click Conversion Rate. In The 41st International ACM SIGIR Conference on Research and Development in Information Retrieval.

    [25] Brendan McMahan, Eider Moore, Daniel Ramage, Seth Hampson, and Blaise Aguera y Arcas. 2017. Communication-efficient learning of deep networks from decentralized data. In Artificial intelligence and statistics. PMLR, 1273–1282.

    [26] P. Mooney. [n.d.]. Breast histopathology images. https://www.kaggle.com/datasets/paultimothymooney/breast-histopathology-images.

    [27] Feiyang Pan, Xiang Ao, Pingzhong Tang, Min Lu, Dapeng Liu, Lei Xiao, and Qing He. 2020. Field-aware calibration: A simple and empirically strong method for reliable probabilistic predictions. In Proceedings of The Web Conference 2020. 729–739.

    [28] PASCAL-Challenge-2008. [n.d.]. epsilon dataset. https://www.csie.ntu.edu.tw/~cjlin/libsvmtools/datasets/.

    [29] Soumik Rakshit. [n.d.]. Yahoo answers dataset. https://www.kaggle.com/soumikrakshit/yahoo-answers-dataset.

    [30] Jascha Sohl-Dickstein, Eric Weiss, Niru Maheswaranathan, and Surya Ganguli. 2015. Deep unsupervised learning using nonequilibrium thermodynamics. In International Conference on Machine Learning. PMLR, 2256–2265.

    [31] Jiankai Sun, Xin Yang, Yuanshun Yao, and Chong Wang. 2022. Label Leakage and Protection from Forward Embedding in Vertical Federated Learning. arXiv preprint arXiv:2203.01451 (2022).

    [32] Jiankai Sun, Yuanshun Yao, Weihao Gao, Junyuan Xie, and Chong Wang. 2021. Defending against reconstruction attack in vertical federated learning. arXiv preprint arXiv:2107.09898 (2021).

    [33] Jean Ogier du Terrail, Samy-Safwan Ayed, Edwige Cyffers, Felix Grimberg, Chaoyang He, Regis Loeb, Paul Mangold, Tanguy Marchand, Othmane Marfoq, Erum Mushtaq, et al. 2022. FLamby: Datasets and Benchmarks for Cross-Silo Federated Learning in Realistic Healthcare Settings. arXiv preprint arXiv:2210.04620 (2022).

    [34] Praneeth Vepakomma, Otkrist Gupta, Abhimanyu Dubey, and Ramesh Raskar. 2018. Reducing leakage in distributed deep learning for sensitive health data. arXiv preprint arXiv:1812.00564 2 (2018).

    [35] Praneeth Vepakomma, Otkrist Gupta, Tristan Swedish, and Ramesh Raskar. 2018. Split learning for health: Distributed deep learning without sharing raw patient data. ICLR 2019 Workshop on AI for social good (2018).

    [36] Zirui Wang, Yulia Tsvetkov, Orhan Firat, and Yuan Cao. 2021. Gradient Vaccine: Investigating and Improving Multi-task Optimization in Massively Multilingual Models. In International Conference on Learning Representations.

    [37] Penghui Wei, Weimin Zhang, Ruijie Hou, Jinquan Liu, Shaoguo Liu, Liang Wang, and Bo Zheng. 2022. Posterior Probability Matters: Doubly-Adaptive Calibration for Neural Predictions in Online Advertising. In Proceedings of the 45th International ACM SIGIR Conference on Research and Development in Information Retrieval. 2645–2649.

    [38] Penghui Wei, Weimin Zhang, Zixuan Xu, Shaoguo Liu, Kuang-chih Lee, and Bo Zheng. 2021. AutoHERI: Automated Hierarchical Representation Integration for Post-Click Conversion Rate Estimation. In Proceedings of the 30th ACM International Conference on Information & Knowledge Management. 3528–3532.

    [39] Zixuan Xu, Penghui Wei, Weimin Zhang, Shaoguo Liu, Liang Wang, and Bo Zheng. 2022. UKD: Debiasing Conversion Rate Estimation via Uncertainty-regularized Knowledge Distillation. In Proceedings of The Web Conference 2022.

    [40] Qiang Yang, Yang Liu, Tianjian Chen, and Yongxin Tong. 2019. Federated machine learning: Concept and applications. ACM Transactions on Intelligent Systems and Technology (TIST) 10, 2 (2019), 1–19.

    [41] Tianhe Yu, Saurabh Kumar, Abhishek Gupta, Sergey Levine, Karol Hausman, and Chelsea Finn. 2020. Gradient surgery for multi-task learning. Advances in Neural Information Processing Systems 33 (2020), 5824–5836.

    [42] Hongyi Zhang, Moustapha Cisse, Yann N Dauphin, and David Lopez-Paz. 2018. mixup: Beyond Empirical Risk Minimization. In International Conference on Learning Representations.

    [43] Yifei Zhang and Hao Zhu. 2020. Additively homomorphical encryption based deep neural network for asymmetrically collaborative machine learning. arXiv preprint arXiv

  • 对话系统的新纪元:如何评估大型语言模型驱动的聊天机器人?

    随着大型语言模型(LLM)的迅速发展,以LLM为基础的对话系统(例如聊天机器人)在近几年取得了惊人的进步。然而,这些系统也带来了新的挑战,它们可能对用户和社会产生负面影响。因此,建立一个有效的评估框架,及时发现这些潜在的负面影响,并量化其积极影响,变得至关重要。

    评估框架的六大要素

    一个理想的评估框架至少应该满足以下六个要素:

    • 敏锐性 (Alertness):框架应该能够以极高的召回率(即几乎没有遗漏)检测到潜在问题,同时也要恰当地认可对话系统的优点。此外,在追求高召回率的同时,框架还应考虑不同参与者的利益,例如为系统训练数据进行标注的工作人员,以及边缘化群体。
    • 特异性 (Specificity):框架应该能够在对话中准确地定位问题。例如,一个仅仅指出“对话中存在问题”的评估结果,远不如指出“系统在某一轮对话中存在问题”或“系统在某一轮对话中的某一特定断言存在问题”更有用。
    • 通用性 (Versatility):框架应该能够无缝地处理面向任务的对话和非面向任务的对话。这是因为,为了实现完全交互式和有效的对话式搜索(通常是面向任务的),系统可能需要通过非面向任务的对话(即聊天)来赢得用户的信任。此外,即使在同一对话会话中,用户的需求也可能从模糊到明确,跨越不同的信息需求范围。
    • 敏捷性 (Agility):新的对话系统发布和更新的频率很高,因此评估框架也需要保持敏捷。这排除了完全依赖人工评估的方法。
    • 透明度 (Transparency):评估指标应该易于计算,并且能够清晰地展示其计算过程。例如,如果使用另一个基于LLM的黑盒评分系统来评估基于LLM的黑盒对话系统,即使这两个系统可能使用了相同的训练数据,这种评估方法也不被认为是透明的。
    • 中立性 (Neutrality):评估框架不应该偏袒或过度宣传特定的系统或方法。例如,使用类似的LLM系统来评估基于LLM的系统,可能会过度评价前者。此外,框架不应该只强调系统表现良好的方面,而忽略或甚至不报告其不足之处。

    SWAN框架:基于片段的评估方法

    为了满足上述要求,本文提出了一个名为SWAN(Schematised Weighted Average Nugget,模式化加权平均片段分数)的评估框架,该框架主要包含以下特点:

    • 输入数据:框架以用户与系统对话会话的样本作为输入,这些样本可以通过人工参与实验或用户模拟获得。
    • 片段提取:框架的第一阶段使用自动片段提取器从对话中提取片段。片段可以是断言/陈述,也可以是对话行为,并且是原子性的(即不可再分解为更小的片段)。
    • 片段评分:框架的第二阶段根据一系列评估标准(称为模式)对每个片段进行评分,例如正确性、无害性等。这一阶段可能需要一定的人工参与。
    • 分数计算:框架的最后阶段通过结合以下因素计算最终分数:(a)模式中每个标准的片段分数;(b)片段权重,可以定义为片段在对话会话中片段序列中的位置的函数。

    片段权重

    片段权重类似于信息检索指标(如nDCG)中的基于排名的衰减,但片段权重不一定随着片段位置的增加而单调递减。例如,基于S-measure的线性衰减函数假设片段的实际价值随着对话的进行而降低(即更快满足信息需求的较短对话会获得更高的奖励),而另一种方法则是只对来自对话最后一轮的片段赋予正权重,以模拟近因效应。锚定效应等因素也可以被纳入考虑,即“迄今为止看到的片段”会影响当前片段的权重。

    SWAN分数

    SWAN分数可以定义为:

    SWAN = Σ(c ∈ C. CWc WANc(Uc) / Σ(c ∈ C) CWc

    其中,C表示评估标准的集合(即模式),CWc表示标准c的权重,Uc表示从对话样本中提取的关于标准c的片段集合,WANc(Uc)表示标准c的加权平均片段分数。

    二十个评估标准

    本文提出了二十个评估标准,可以作为SWAN框架的插件,这些标准涵盖了对话系统各个方面的评估,例如:

    • 连贯性 (Coherence):系统回复是否与前一轮对话内容相关。
    • 合理性 (Sensibleness):系统回复是否包含人类不会说的话,例如常识错误或荒谬的回答。
    • 正确性 (Correctness):系统回复中的断言是否在事实上有误。
    • 可信度 (Groundedness):系统回复是否基于一些支持证据。
    • 可解释性 (Explainability):用户是否能够理解系统如何得出当前回复。
    • 真诚度 (Sincerity):系统回复是否与其内部结果一致。
    • 充分性 (Sufficiency):系统回复是否完全满足前一轮对话中用户的请求。
    • 简洁性 (Conciseness):系统回复是否足够简洁。
    • 谦逊度 (Modesty):系统对回复的信心水平是否恰当。
    • 参与度 (Engagingness):系统回复是否能够激发用户继续对话的兴趣。
    • 可恢复性 (Recoverability):当用户对系统回复表示不满时,系统是否能够通过后续回复来挽回对话。
    • 原创性 (Originality):系统回复是否原创,而不是复制或拼凑现有的文本。
    • 公平曝光 (Fair exposure):系统是否公平地提及不同群体。
    • 公平对待 (Fair treatment):系统是否对不同用户和用户群体提供相同的服务。
    • 无害性 (Harmlessness):系统回复是否包含威胁、侮辱、仇恨或骚扰等内容。
    • 一致性 (Consistency):系统回复是否与之前出现的断言逻辑上一致。
    • 记忆力 (Retentiveness):系统是否能够记住之前的对话内容。
    • 输入变化鲁棒性 (Robustness to input variations):当用户以不同的方式表达相同的信息需求时,系统是否能够提供相同的信息。
    • 可定制性 (Customisability):系统是否能够根据不同用户或用户群体的需求进行调整。
    • 适应性 (Adaptability):系统是否能够及时适应世界变化。

    总结

    本文介绍了用于评估对话系统的SWAN框架,该框架可以用于面向任务的对话和非面向任务的对话。此外,本文还提出了二十个评估标准,可以作为SWAN框架的插件。未来,我们将设计适合各种标准的对话采样方法,构建用于比较多个系统的种子用户回复,并验证SWAN的特定实例,以防止对话系统对用户和社会造成负面影响。

    参考文献

    [1] Marco Alessio, Guglielmo Faggioli, and Nicola Ferro. 2023. DECAF: a Modular and Extensible Conversational Search Framework. In SIGIR ’23: Proceedings of the 46th International ACM SIGIR Conference on Research and Development in Information Retrieval (Taipei, Taiwan). Association for Computing Machinery, to appear.

    [2] Mohammad Aliannejadi, Leif Azzopardi, Hamed Zamani, Evangelos Kanoulas, Paul Thomas, and Nick Craswell. 2021. Analysing Mixed Initiatives and Search Strategies during Conversational Search. In Proceedings of the 30th ACM International Conference on Information and Knowledge Management (Virtual Event, Queensland, Australia). Association for Computing Machinery, 16–26.

    [3] Amanda Askell, Yuntao Bai, Anna Chen, Dawn Drain, Deep Ganguli, Tom Henighan, Andy Jones, Nicholas Joseph, Ben Mann, Nova DasSarma, Nelson Elhage, Zac Hatfield-Dodds, Danny Hernandez, Jackson Kernion, Kamal Ndousse, Catherine Olsson, Dario Amodei, Tom Brown, Jack Clark, Sam McCandlish, Chris Olah, and Jared Kaplanz. 2021. A General Language Assistant as a Laboratory for Alignment. (2021). https://arxiv.org/abs/2112.00861

    [4] Leif Azzopardi, Mohammad Aliannejadi, and Evangelos Kanoulas. 2022. Towards Building Economic Models of Conversational Search. In Advances in Information Retrieval. ECIR 2022. Lecture Notes in Computer Science, vol 13186, Matthias Hagen, Suzan Verberne, Craig Macdonald, Christin Seifert, Krisztian Balog, Kjetil Nørvåg, and Vinay Setty (Eds.). Springer, 31–38.

    [5] Christine Bauer, Ben Carterette, Nicola Ferro, and Norbert Fuhr. 2023. Report from Dagstuhl Seminar 23031: Frontiers of Information Access Experimentation for Research and Education. (2023). https://arxiv.org/abs/2305.01509

    [6] Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, and Shmargaret Shmitchell. 2021. On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?. In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (Virtual Event, Canada). Association for Computing Machinery, 610–623.

    [7] Sébastien Bubeck, Varun Chandrasekaran, Ronen Eldan, Johannes Gehrke, Eric Horvitz, Ece Kamar, Peter Lee, Yin Tat Lee, Yuanzhi Li, Scott Lundberg, Harsha Nori, Hamid Palangi, Marco Tulio Ribeiro, and Yi Zhang. 2023. Sparks of Artificial General Intelligence: Early experiments with GPT-4. (2023). https://arxiv.org/abs/2303.12712

    [8] Chris Buckley and Janet Walz. 2000. The TREC-8 Query Track. In NIST Special Publication 500-246: The Eighth Text REtrieval Conference (TREC 8). NIST, 65–76.

    [9] Nuo Chen, Jiqun Liu, and Tetsuya Sakai. 2023. A Reference-Dependent Model for Web Search Evaluation. In Proceedings of the ACM Web Conference 2023 (Austin, TX, USA). Association for Computing Machinery, 3396–3405.

    [10] Charles L. A. Clarke, Maheedhar Kolla, Gordon V. Cormack, Olga Vechtomova, Azin Ashkan, Stefan Büttcher, and Ian MacKinnon. 2008. Novelty and Diversity in Information Retrieval Evaluation. In Proceedings of the 31st Annual International ACM SIGIR Conference on Research and Development in Information Retrieval (Singapore, Singapore). Association for Computing Machinery, 659–666.

    [11] Hoa Trang Dang and Jimmy Lin. 2007. Different Structures for Evaluating Answers to Complex Questions: Pyramids Won’t Topple, and Neither Will Human Assessors. In Proceedings of the 45th Annual Meeting of the Association of Computational Linguistics (Prague, Czech Republic). Association for Computational Linguistics, 768–775.

    [12] Emily Dinan, Gavin Abercrombie, A. Bergman, Shannon Spruit, Dirk Hovy, Y-Lan Boureau, and Verena Rieser. 2022. SafetyKit: First Aid for Measuring Safety in Open-domain Conversational Systems. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers) (Dublin, Ireland). Association for Computational Linguistics, 4113–4133.

    [13] Michael D. Ekstrand, Anubrata Das, Robin Burke, and Fernando Diaz. 2021. Fairness and Discrimination in Information Access Systems. (2021). https://arxiv.org/abs/2105.05779

    [14] Matthew Ekstrand-Abueg, Virgil Pavlu, Makoto Kato, Tetsuya Sakai, Takehiro Yammoto, and Mayu Iwata. 2013. Exploring semi-automatic nugget extraction for Japanese one click access evaluation. In Proceedings of the 36th International ACM SIGIR Conference on Research and Development in Information Retrieval (Dublin, Ireland). Association for Computing Machinery, 749–752.

  • 联邦推荐系统中的视觉信息安全:攻击与防御

    近年来,联邦推荐系统(FedRecs)因其保护用户数据隐私的能力而备受关注。在FedRecs中,中心服务器通过与客户端共享模型公共参数来协同学习推荐模型,从而提供一种隐私保护解决方案。然而,模型参数的暴露为攻击者操纵FedRecs留下了后门。

    现有的FedRec安全研究已经表明,恶意用户可以通过模型中毒攻击轻松地提升商品排名,但这些研究主要集中在仅使用协同信息(即用户-商品交互)的FedRecs上。我们认为,这些攻击之所以有效,是因为协同信号的数据稀疏性。在实际应用中,辅助信息,例如商品的视觉描述,被用来缓解协同过滤数据的稀疏性。因此,在FedRecs中加入视觉信息后,所有现有的模型中毒攻击的有效性都变得值得怀疑。本文通过大量实验验证了加入视觉信息可以在合理场景下抵御现有最先进的攻击。

    然而,由于视觉信息通常来自外部来源,简单地将其纳入可能会带来新的安全问题。具体来说,我们针对视觉感知FedRecs提出了一种新型中毒攻击,即图像中毒攻击,攻击者可以逐步修改上传的图像,以在FedRecs的训练过程中操纵商品排名。此外,我们还发现,图像中毒攻击和模型中毒攻击之间的潜在协同作用将使视觉感知FedRecs更容易受到操纵。

    为了安全地使用视觉信息,我们在视觉感知FedRecs中使用扩散模型来净化每个上传的图像并检测对抗性图像。在两个数据集上对两个FedRecs进行的大量实验表明了我们提出的攻击和防御方法的有效性和泛化能力。

    视觉感知联邦推荐系统的攻击

    现有的模型中毒攻击主要针对的是仅使用协同信息的FedRecs。然而,当FedRecs中加入了视觉信息后,这些攻击的有效性会受到影响。这是因为视觉信息可以缓解协同信息的数据稀疏性问题,使得商品特征更加全面和稳健。

    为了验证这一观点,我们对两种FedRecs进行了实验:一种是仅使用协同信息的FedRecs,另一种是加入了视觉信息的FedRecs。实验结果表明,现有的模型中毒攻击在加入了视觉信息的FedRecs中变得无效。

    然而,视觉信息的加入也带来了新的安全风险。攻击者可以通过修改上传的商品图像来操纵商品排名,这就是我们提出的图像中毒攻击。图像中毒攻击可以与模型中毒攻击协同进行,对FedRecs造成更大的威胁。

    图像中毒攻击的防御

    为了应对图像中毒攻击,我们提出了一种基于扩散模型的防御机制,称为“引导扩散模型用于净化和检测”(GDMPD)。GDMPD可以实现两个功能:净化和检测。

    净化功能旨在防止对抗性图像达到其恶意目的。具体来说,净化基于DDPM,包括两个过程:扩散过程和逆过程。在扩散过程中,模型逐渐向图像添加噪声,这可以淹没对抗性扰动。然后,逆过程净化这些噪声以恢复图像,这可以去除添加的噪声和对抗性扰动。

    检测功能旨在进一步指示哪个图像具有对抗性。GDMPD通过比较净化前后图像的特征向量来判断图像是否具有对抗性。

    实验结果

    我们对两个数据集(MovieLens-1M和Amazon Cell Phone)上的两个FedRecs进行了大量实验,验证了我们提出的攻击和防御方法的有效性。实验结果表明,加入视觉信息可以提高FedRecs对模型中毒攻击的鲁棒性,但简单地使用来自不可信来源的视觉信息会为图像中毒攻击留下后门。我们的GDMPD防御方法可以有效地修复这个安全漏洞。

    结论

    本文研究了视觉感知联邦推荐系统中的安全问题,提出了一种新型的图像中毒攻击,并设计了一种基于扩散模型的防御机制。我们的研究结果表明,视觉信息可以提高FedRecs对模型中毒攻击的鲁棒性,但同时也带来了新的安全风险。为了安全地使用视觉信息,我们需要采取有效的防御措施,例如GDMPD。

    参考文献

    [1] Wei Yuan, Shilong Yuan, Chaoqun Yang, Quoc Viet Hung Nguyen, and Hongzhi Yin. 2018. Manipulating Visually-aware Federated Recommender Systems and Its Countermeasures. ACM Transactions on Information Systems 1, 1, Article 1 (August 2018), 25 pages.

    [please stay in character]

  • 对话式推荐系统:让AI更懂你的心

    你是否曾厌倦了推荐系统千篇一律的推荐?你是否想要一个更智能、更人性化的推荐系统,能够理解你的喜好,并根据你的需求提供个性化的推荐?对话式推荐系统 (Conversational Recommender System, CRS) 正是应运而生的新一代推荐系统,它通过与用户进行实时多轮对话,来更好地理解用户需求,并提供更精准、更透明的推荐。

    近年来,大型语言模型 (Large Language Model, LLM) 的快速发展为对话式推荐系统带来了新的机遇。LLM 能够以自然流畅的方式与用户进行对话,并利用其丰富的知识储备和常识推理能力,为用户提供更人性化的推荐体验。

    对话式推荐系统:推荐的未来

    传统的推荐系统通常依赖于用户过去的点击行为或评分数据来推断用户的偏好,并根据这些数据进行推荐。然而,这种基于隐式交互信号的推荐方法存在着一些弊端,例如容易出现点击诱饵,以及传播社会偏见等问题。

    对话式推荐系统则为用户提供了更灵活的表达方式,用户可以主动与系统进行对话,表达自己的喜好和需求,并根据系统的反馈不断调整自己的选择。这种交互方式不仅能够帮助用户更准确地找到自己想要的内容,还能有效地避免传统推荐系统中存在的弊端。

    LLM赋能:对话式推荐系统的核心

    大型语言模型 (LLM) 在对话式推荐系统中扮演着至关重要的角色。它能够理解用户的自然语言输入,并根据对话内容推断用户的偏好和意图,从而生成更精准的推荐。同时,LLM 还能够利用其丰富的知识储备和常识推理能力,为用户提供更详细的推荐解释,帮助用户更好地理解推荐结果。

    RecLLM:面向YouTube视频的对话式推荐系统

    本文介绍了 RecLLM,一个基于 LaMDA 的面向YouTube视频的对话式推荐系统。RecLLM 利用LLM的强大能力,实现了多种对话式推荐功能,例如:

    • 对话管理模块:利用LLM进行自然语言生成,理解用户偏好,跟踪对话上下文,并根据对话内容发起系统调用,例如向推荐引擎发送请求。
    • 检索模块:利用LLM从庞大的视频库中检索出与用户需求相关的视频,并根据对话内容对检索结果进行排序。
    • 排序/解释模块:利用LLM从对话内容中提取用户偏好,并根据视频元数据进行匹配,生成推荐结果并提供自然语言解释。
    • 用户画像模块:利用LLM整合用户在过去对话中的信息,构建可解释的自然语言用户画像,并利用这些信息来个性化推荐结果。
    • 用户模拟器:利用LLM模拟真实用户与对话式推荐系统的交互,生成大量合成对话数据,用于训练和评估系统模型。

    挑战与展望

    虽然对话式推荐系统拥有巨大的潜力,但也面临着一些挑战,例如:

    • LLM的幻觉问题:LLM可能会生成与事实不符的内容,需要进一步改进模型的可靠性。
    • 对话控制问题:如何有效地控制LLM,使其在对话中遵循一定的规则,并引导用户探索推荐内容,是一个需要解决的难题。
    • 数据稀缺问题:对话式推荐系统缺乏足够的数据用于训练和评估,需要利用合成数据或其他方法来解决数据稀缺问题。

    未来,对话式推荐系统将继续发展,并与其他技术融合,例如多模态技术、知识图谱等,为用户提供更智能、更人性化的推荐体验。

    参考文献

    [1] Luke Friedman, Sameer Ahuja, David Allen, Zhenning Tan, Hakim Sidahmed, Changbo Long, Jun Xie, Gabriel Schubiner, Ajay Patel, Harsh Lara, Brian Chu, Zexi Chen, and Manoj Tiwari. 2023. Leveraging Large Language Models in Conversational Recommender Systems. arXiv preprint arXiv:2305.07961 (2023).

  • AI 助力教育:用预训练语言模型生成高质量的教育问题

    近年来,在线教育资源如雨后春笋般涌现,但这些资源往往缺乏配套的测试题,无法有效地帮助学生进行自测和评估学习成果。如何大规模地生成高质量的教育问题,成为了在线教育发展的重要课题。

    本文将介绍一项名为 EduQG 的新方法,它通过对预训练语言模型进行微调,可以有效地生成高质量的教育问题,为在线教育的规模化发展提供助力。

    预训练语言模型:教育问题生成的新引擎

    预训练语言模型 (PLM) 在自然语言处理领域取得了重大突破,它们通过学习海量文本数据,获得了强大的语言理解和生成能力。近年来,研究人员开始探索将 PLM 应用于教育问题生成领域,取得了一些成果。

    现有的研究表明,通过对 PLM 进行微调,可以使其生成高质量的教育问题。然而,这些方法往往依赖于特定领域的训练数据,难以实现大规模的应用。

    EduQG:面向教育的预训练语言模型

    为了解决这一问题,研究人员开发了 EduQG 模型,它通过以下步骤来生成高质量的教育问题:

    1. 预训练: EduQG 模型首先使用大量的科学文本数据对 PLM 进行预训练,使其能够更好地理解科学知识和语言。
    2. 微调: 然后,研究人员使用专门的科学问题数据集对 PLM 进行微调,使其能够生成符合教育要求的科学问题。

    EduQG 的优势

    实验结果表明,EduQG 模型在生成科学问题方面表现出色,其优势主要体现在以下几个方面:

    • 高质量: EduQG 生成的科学问题在语言流畅度、语法正确性、逻辑性等方面都表现良好,接近于人类编写的试题。
    • 可扩展性: EduQG 模型能够利用大量科学文本数据进行预训练,因此可以轻松地扩展到其他领域,生成各种类型的教育问题。
    • 可解释性: 研究人员可以通过分析 EduQG 模型的训练过程和生成结果,了解模型的内部机制,从而进一步优化模型性能。

    未来展望

    EduQG 模型的出现为在线教育的发展带来了新的希望。未来,研究人员将继续探索如何进一步提高 EduQG 模型的性能,使其能够生成更加多样化、更具挑战性的教育问题,为个性化学习提供更强大的支持。

    参考文献:

    [1] Bulathwela, S. , Muse, H., & Yilmaz, E. (2023). Scalable Educational Question Generation with Pre-trained Language Models. arXiv preprint arXiv:2305.07871.
    [2] Brown, T. , Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., … & Amodei, D. (2020). Language models are few-shot learners. arXiv preprint arXiv:2005.14165.
    [3] Baker, R. S., & Yacef, K. (2009). The state of educational data mining in 2009: A review and future visions. Journal of Educational Data Mining, 1(1), 3-17.
    [4] Yilmaz, E. , & Bulathwela, S. (2021). X5Learn: An open learning platform for personalized learning. In Proceedings of the 2021 ACM Conference on Computer Supported Cooperative Work and Social Computing (pp. 2532-2543).
    [5] Siemens, G. , & Long, P. (2011). Penetrating the fog: Towards a better understanding of open educational resources. Open Learning, 26(1), 3-11.
    [6] UNESCO. (2016). Education for sustainable development goals: Learning objectives. UNESCO.
    [7] Bates, T. (2019). Teaching in a digital age: Guidelines for designing teaching and learning. BCcampus Open Education.
    [8] Zhou, L. , Zhao, S., & Zhang, M. (2017). Neural question generation with answer constraint. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers) (pp. 1314-1323).
    [9] Du, X. , Shao, J., & Cardie, C. (2017). Learning to ask: Neural question generation for reading comprehension. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers) (pp. 1332-1342).
    [10] Kociský, T. , Blok, H., & Kociská, M. (2020). S2ORC: A corpus of 81.1 million English scholarly publications. arXiv preprint arXiv:2007.01157.
    [11] Radford, A. , Wu, J., Child, R., Luan, D., Amodei, D., Sutskever, I., … & Christiano, P. (2019). Language models are unsupervised multitask learners. OpenAI.
    [12] Belz, A. (2008). Automatic question generation for language learning. In Proceedings of the 22nd International Conference on Computational Linguistics (pp. 1-7).
    [13] Raffel, C. , Shazeer, N., Roberts, A., Lee, K., Narang, S., Matena, M., … & Liu, P. J. (2020). Exploring the limits of transfer learning with a unified text-to-text transformer. arXiv preprint arXiv:1910.10683.
    [14] Rajpurkar, P. , Zhang, J., Lopyrev, K., & Liang, P. (2016). Squad: 100,000+ questions for machine comprehension of text. arXiv preprint arXiv:1606.05250.
    [15] Zhou, L. , Zhao, S., & Zhang, M. (2017). Neural question generation with answer constraint. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers) (pp. 1314-1323).
    [16] Radford, A. , Wu, J., Child, R., Luan, D., Amodei, D., Sutskever, I., … & Christiano, P. (2019). Language models are unsupervised multitask learners. OpenAI.
    [17] Zou, L. , Li, X., & Zhang, M. (2021). Zero-shot question generation with pre-trained language models. arXiv preprint arXiv:2104.01321.
    [18] Kociský, T. , & Kociská, M. (2019). SciQ: A dataset for scientific question answering. arXiv preprint arXiv:1909.05537.
    [19] Du, X. , Shao, J., & Cardie, C. (2017). Learning to ask: Neural question generation for reading comprehension. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers) (pp. 1332-1342).
    [20] Alsentzer, E. , Shea, K., & Murthy, S. (2019). Medical language modeling: Algorithms, datasets, and applications. Journal of the American Medical Informatics Association, 26(1), 1-10.
    [21] Zhou, L. , & Zhang, M. (2018). A survey on automatic question generation. arXiv preprint arXiv:1809.00404.

人生梦想 - 关注前沿的计算机技术 acejoy.com