查看原文
其他

算力网络| 面向联邦算力网络的隐私计算自适激励机制

博士后周赞、教授张笑燕博士、副教授杨树杰博士、研究生李鸿婧、教授况晓辉博士、高级工程师叶何亮硕士、教授许长桥博士,近期将在《计算机学报》发表论文“面向联邦算力网络的隐私计算自适激励机制”,该文摘要如下。扫描二维码可查看全文。

面对“人-机-物”超融合与万物智能互联远景的现实需求,联邦算力网络充分发挥联邦学习等分布式智能技术的数据聚合优势,以及“信息高铁(低熵算力网)”的计算协同优势,高效利用网络中泛在离散部署的海量数据与算力资源,从而最大化满足多种高性能、智能化计算任务需求瓶颈. 同时,为建立用户泛在协作计算过程中的全生命周期安全保障和对联邦算力网络的互信任基础,差分隐私等隐私计算技术的引入成为基础性需求之一. 因此,在用户自身安全和隐私不受模型逆转、梯度泄露等新兴攻击威胁的前提下,如何对大量的个性化参与用户进行有效激励,促使其积极参与并真实共享本地数据和算力,是实现联邦算力任务实际部署的关键步骤之一. 然而,当前联邦算力网络的激励机制大多主要侧重于用户数据评估与公平性等计算性能相关指标研究,缺少对用户隐私需求的关注,无法有效规约隐私噪声注入过程. 边缘算力节点出于自身利益考量,往往夸大隐私预算需求,造成严重的冗余精度损失. 针对这一问题,本文基于改进的斯塔克伯格主从博弈模型,提出一种面向联邦算力网络的隐私计算自适应激励方法,通过两阶段的动态博弈根据分布式计算过程中隐私注入尺度进行差异化定价激励. 基于反向归纳法,参与用户之间首先进行博弈均衡获取最优的本地隐私噪声预算设置策略,随后联邦参数服务器求取最优的隐私支付策略. 通过理论分析,本文所提方案能够取得纳什均衡下的最优解. 此外,本文还进一步对参与用户的限制条件进行了讨论,得出了用户隐私成本需求的约束上界. 在EMNIST、CIFAR 等公有标准数据集上的实验结果也表明,该方法相比于基于合约理论、三方博弈等理论的现有隐私激励机制,能够显著提升分布式智能协同计算任务参与各方的平均效用,在满足用户隐私需求的同时提升计算性能,大幅减少冗余损耗.


文章二维码

继续滑动看下一个
计算机学报
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存