当前位置: X-MOL 学术CSI Trans. ICT › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Federated learning to comply with data protection regulations
CSI Transactions on ICT Pub Date : 2022-03-15 , DOI: 10.1007/s40012-022-00351-0
Srinivasa Rao Chalamala 1 , Ajeet Kumar Singh 1 , Aditya Saibewar 1 , Naveen Kumar Kummari 2 , Krishna Mohan Chalavadi 2
Affiliation  

AI is adept at using large quantities of data, sometimes sensitive personal data, and can adversely affect individuals’ privacy. Data privacy concerns significantly impact the course of next-generation AI. Users do not trust anyone withholding their data and need privacy-preserving intelligent systems. In addition, several regulations mandate that organizations handle users’ data in ways that do not affect their privacy and provide them control on their data. Federated Learning emerged as a privacy-preserving technology for data-intensive machine learning by training the models on-site or on-device. However, several concerns related to federated learning emerged due to: (i) dynamic, distributed, heterogeneous, and collaborative nature of client devices, (ii) membership inference and model inversion attacks affecting the overall privacy and security of FL systems, (iii) the need for strict compliance to data privacy and protection laws, (iv) the vulnerabilities at local client devices leading to data leakage, and (iv) diversity and ubiquity of smart devices collecting real-time multimodal data leading to lack of standardization efforts for security and privacy management framework. In this paper, we discuss (a) how federated learning can help us withholding privacy, (b) the need for improving security and privacy in federated learning systems, (c) the privacy regulations and their application to federated learning in various business domains, (d) proposed a federated recommender system and demonstrated the performance that matches the central setting.



中文翻译:

联邦学习以遵守数据保护法规

人工智能擅长使用大量数据,有时是敏感的个人数据,并且会对个人隐私产生不利影响。数据隐私问题显着影响下一代人工智能的进程。用户不信任任何隐瞒其数据的人,他们需要保护隐私的智能系统。此外,一些法规要求组织以不影响用户隐私的方式处理用户数据,并为他们提供对其数据的控制权。通过在现场或设备上训练模型,联邦学习成为数据密集型机器学习的隐私保护技术。然而,由于以下原因,出现了与联邦学习相关的几个问题:(i) 客户端设备的动态、分布式、异构和协作性质,(ii) 影响 FL 系统整体隐私和安全性的成员推断和模型反转攻击,(iii) 需要严格遵守数据隐私和保护法律,(iv) 本地客户端设备的漏洞导致数据泄露,以及 ( iv) 收集实时多模态数据的智能设备的多样性和普遍性导致安全和隐私管理框架缺乏标准化工作。在本文中,我们讨论了 (a) 联邦学习如何帮助我们保留隐私,(b) 提高​​联邦学习系统的安全性和隐私性的必要性,(c) 隐私法规及其在各种业务领域中的联邦学习的应用, (d) 提出了一个联合推荐系统,并展示了与中央设置相匹配的性能。(iii) 需要严格遵守数据隐私和保护法律,(iv) 本地客户端设备的漏洞导致数据泄露,以及 (iv) 收集实时多模态数据的智能设备的多样性和普遍性导致缺乏标准化安全和隐私管理框架的努力。在本文中,我们讨论了 (a) 联邦学习如何帮助我们保留隐私,(b) 提高​​联邦学习系统的安全性和隐私性的必要性,(c) 隐私法规及其在各种业务领域中的联邦学习的应用, (d) 提出了一个联合推荐系统,并展示了与中央设置相匹配的性能。(iii) 需要严格遵守数据隐私和保护法律,(iv) 本地客户端设备的漏洞导致数据泄露,以及 (iv) 收集实时多模态数据的智能设备的多样性和普遍性导致缺乏标准化安全和隐私管理框架的努力。在本文中,我们讨论了 (a) 联邦学习如何帮助我们保留隐私,(b) 提高​​联邦学习系统的安全性和隐私性的必要性,(c) 隐私法规及其在各种业务领域中的联邦学习的应用, (d) 提出了一个联合推荐系统,并展示了与中央设置相匹配的性能。(iv) 收集实时多模式数据的智能设备的多样性和普遍性导致安全和隐私管理框架缺乏标准化工作。在本文中,我们讨论了 (a) 联邦学习如何帮助我们保留隐私,(b) 提高​​联邦学习系统的安全性和隐私性的必要性,(c) 隐私法规及其在各种业务领域中的联邦学习的应用, (d) 提出了一个联合推荐系统,并展示了与中央设置相匹配的性能。(iv) 收集实时多模式数据的智能设备的多样性和普遍性导致安全和隐私管理框架缺乏标准化工作。在本文中,我们讨论了 (a) 联邦学习如何帮助我们保留隐私,(b) 提高​​联邦学习系统的安全性和隐私性的必要性,(c) 隐私法规及其在各种业务领域中的联邦学习的应用, (d) 提出了一个联合推荐系统,并展示了与中央设置相匹配的性能。

更新日期:2022-03-15
down
wechat
bug