基于差分隐私的公平安全联邦学习算法
DOI:
CSTR:
作者:
作者单位:

1.国网四川省电力公司电力科学研究院;2.重庆大学大数据与软件工程学院;3.重庆大学大数据与软件学院

作者简介:

通讯作者:

中图分类号:

TP309???????

基金项目:

国家自然科学基金项目(面上项目,重点项目,重大项目)


Tang Chao, Liu Zewei,Wang Tianqi, Hu Chunqiang
Author:
Affiliation:

1.Electric Power Research Institute of State Grid Sichuan Electric Power Company;2.School of Big Data &3.Software Engineering, Chongqing University

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    尽管联邦学习能在保护隐私的同时利用本地数据训练机器学习模型,但最新研究揭示其面临公平性和梯度隐私泄露的挑战。基于此,针对联邦学习的隐私保护问题,提出了一种基于差分隐私的公平安全联邦学习算法。该算法基于客户端数据量来设置隐私预算,并根据梯度变化率调整隐私预算。在客户端训练局部模型时给梯度添加差噪声使其隐私安全信息得到保护。实验结果显示,在设定适当的隐私预算下,算法的性能能够在准确性、公平性和隐私保护之间取得平衡。

    Abstract:

    Despite its ability to leverage local data for machine learning model training while preserving privacy, recent studies have unveiled challenges related to fairness and gradient privacy leakage in federated learningBased on this, aiming at the privacy protection challenges in federated learning, a fair and secure federated learning algorithm based on differential privacy is proposed. The algorithm sets the privacy budget based on the amount of client-side data and adjusts it according to the gradient change rate. During the training of local models on the client side, differential noise is added to the gradients to protect the privacy and security of the information. Experimental results show that, with an appropriately set privacy budget, the algorithm's performance can achieve a balance between accuracy, fairness, and privacy protection

    参考文献
    相似文献
    引证文献
引用本文
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2024-08-27
  • 最后修改日期:2024-10-15
  • 录用日期:2024-10-21
  • 在线发布日期:
  • 出版日期:
文章二维码