【ICLR 2023】联邦学习的泛化分析

2043
1
2023-03-30 20:31:24
正在缓冲...
36
10
110
19
嘉宾及报告简介; 刘勇,中国人民大学,准聘副教授、博士生导师。从事机器学习研究,特别关注统计学习理论。在顶级期刊和会议上发表论文60余篇,其中以第一作者或通讯作者发表CCF A类文章30余篇,涵盖机器学习领域顶级期刊TPAMI、AI和顶级会议ICML,NeurIPS,ICLR等。曾获中国人民大学“杰出学者”、中国科学院“青年创新促进会”会员以及中国科学院信息工程研究所“引进优秀人才”称号。主持多项科研基金项目,包括国家自然科学面上/青年项目、中国科学院基础前沿科学研究计划、微信专项项目、腾讯犀牛鸟基金、联通联合项目、华为联合项目等。 报告简介: 在典型的联邦学习场景中,不同客户端(用户)对应的数据分布并不相同。由于隐私保护和无线网络稳定性等因素的限制,实际参与联邦学习训练的客户端往往只占全部客户端的一小部分。考虑到未参与训练的客户端与参与训练的客户端存在数据分布上的差异,参与训练的客户端训练好的模型能不能使得未参与训练的客户端获益成为亟待回答的问题。联邦学习社区已有工作大多只关注训练过程中的优化收敛速度,泛化分析方面仅有的工作也只是考虑了参与训练的客户端。本报告对未参与训练的客户端对应的泛化性能进行了分析,从理论上阐明了影响未参与训练的客户端获益的因素。
发扬科学思辨精神,链接全球AI 爱好者
客服
顶部
赛事库 课堂 2021拜年纪