Deleting the wiki page 'secure_aggregation' cannot be undone. Continue?
不同于传统集中学习,用户需要将自己的数据统一传输并存储在一个地方,如云服务器上,在联邦学习中用户不需要传输数据,只有模型参数在参与联邦学习的各方之间进行传输,因此用户数据可以得到更好地保护,但训练过程中的模型参数同样可能会泄露用户的训练数据。当前版本中HiStar利用安全聚合保护联邦学习中模型参数的安全性,构造安全的联邦学习,防止聚合服务器通过用户的上传的模型参数推测用户的隐私数据信息。
安全聚合包含一个聚合服务器和三个及以上的用户,假设参与安全聚合的服务器和用户均为半诚实,即用户和服务器在协议执行的过程中会遵循规则执行协议,但会利用各自拥有的数据以及在协议执行过程中收到的数据试图得到协议执行过程中不被允许得到的信息。用户利用服务器发送的模型参数和本地数据训练得到用于模型更新的参数,并在上传参数前执行安全聚合协议,使得服务器仅能得到所有用户的参数之和而不能得到具体每一个用户的参数信息。
用户在本地生成之后进行迪菲-赫尔曼密钥协商所需要的公私钥对,并将公钥发送给聚合服务器,服务器收到用户的公钥后将其做成公钥列表,并将公钥列表广播给参与安全聚合的用户,用户收到其它用户的公钥后利用自己的私钥和其它用户的公钥进行密钥协商得到相同的值作为伪随机生成器(PRG)的种子,并各自生成掩码值用于掩盖上传的参数信息。用户生成掩盖后的参数信息后将掩盖后的参数信息发送给聚合服务器,聚合服务器收到所有用户的掩盖后的参数信息后去除掩码值得到聚合结果,利用聚合结果对模型参数进行更新并将更新后的模型参数其返回给用户。
通过按照RFC-3526所给出的迪菲-赫尔曼密钥协商的参数要求,在选取生成元为2,阶为1536比特的指数循环群的条件下,可以证明上述聚合协议在半诚实模型下是计算意义下安全的。即在执行上述安全聚合协议时,所有半诚实用户(服务器和用户集合的子集)进行联合,利用他们的联合视图(包含其半诚实用户的输入数据以及在协议执行过程中收到的诚实用户所发送的信息),除可以从聚合结果中推出的信息和诚实用户的输入之和外不能获得其它诚实用户输入数据的任何信息。证明采用了标准混合论证,将聚合协议的安全性规约到决定性迪菲-赫尔曼(DDH)问题困难性假设,具体证明过程参考文献[1]。
Deleting the wiki page 'secure_aggregation' cannot be undone. Continue?
Dear OpenI User
Thank you for your continuous support to the Openl Qizhi Community AI Collaboration Platform. In order to protect your usage rights and ensure network security, we updated the Openl Qizhi Community AI Collaboration Platform Usage Agreement in January 2024. The updated agreement specifies that users are prohibited from using intranet penetration tools. After you click "Agree and continue", you can continue to use our services. Thank you for your cooperation and understanding.
For more agreement content, please refer to the《Openl Qizhi Community AI Collaboration Platform Usage Agreement》