目录
我们使用另一个项目自动跟踪联邦学习论文的更新,如果需要,请点击 FL-paper-update-tracker。
更多资源将会添加到仓库中。请随时通过提交issue报告、新建pull request,或发送邮件至im.young@foxmail.com来建议其他关键资源。如果你想与更多联邦学习领域的朋友交流,请加入QQ群[联邦学习交流群],群号为833638275。祝阅读愉快!
类别
人工智能 (IJCAI, AAAI, AISTATS, ALT, AI)
机器学习 (NeurIPS, ICML, ICLR, COLT, UAI, Machine Learning, JMLR, TPAMI)
数据挖掘 (KDD, WSDM)
安全 (S&P, CCS, USENIX Security, NDSS)
计算机视觉 (ICCV, CVPR, ECCV, MM, IJCV)
自然语言处理 (ACL, EMNLP, NAACL, COLING)
信息检索 (SIGIR)
数据库 (SIGMOD, ICDE, VLDB)
网络 (SIGCOMM, INFOCOM, MOBICOM, NSDI, WWW)
系统 (OSDI, SOSP, ISCA, MLSys, EuroSys, TPDS, DAC, TOCS, TOS, TCAD, TC)
其他 (ICSE, FOCS, STOC)
关键词
统计数据::fire:代码可用且星级>=100 | :star: 引用率>=50 | :mortar_board: 顶级期刊
kg.
: 知识图谱 | data.
: 数据集 | surv.
: 调查
《Nature》及其子刊、《Cell》、《Science》及《Science Advances》、《PNAS》中的联邦学习论文可以通过 WOS 搜索引擎查询。
<details open> <summary>顶级期刊中的联邦学习</summary> <!-- START:fl-in-top-tier-journal -->标题 | 所属机构 | 期刊 | 年份 | 资料 |
---|---|---|---|---|
PPML-Omics:一种隐私保护的联邦机器学习方法保护患者的组学数据隐私 | KAUST | Science Advances | 2024 | [论文] [代码] |
联邦学习不是数据伦理的万灵药 | TUM; UvA | Nat. Mach. Intell.(Comment) | 2024 | [论文] |
识别高风险术后胃癌复发患者的稳健联邦学习模型 | 江门中心医院;桂林航天工业学院;桂林电子科技大学; | Nat. Commun. | 2024 | [论文] [代码] |
没有优秀教师的隐私保护联邦蒸馏选择性知识共享 | 香港科技大学 | Nat. Commun. | 2024 | [论文] [PDF] [代码] |
欧洲精准肿瘤学中的联邦学习系统:DigiONE | IQVIA Cancer Research BV | Nat. Med. (Comment) | 2024 | [论文] |
具有Qline架构的多客户端分布式盲量子计算 | 罗马大学 | Nat. Commun. | 2023 | [论文] [PDF] |
设备独立的量子随机增强零知识证明 | 中国科学技术大学 | PNAS | 2023 | [论文] [PDF] [新闻] |
通过联邦机器学习进行合作和隐私保护的退役电池分类以实现直接回收利润 | 清华大学 | Nat. Commun. | 2023 | [论文] |
提倡神经数据隐私和神经技术监管 | 哥伦比亚大学 | Nat. Protoc. (Perspective) | 2023 | [论文] |
联邦基准测试医疗人工智能与MedPerf | IHU Strasbourg;斯特拉斯堡大学;Dana-Farber癌症研究院;魏尔康奈尔医学院;哈佛大学公共卫生学院;麻省理工学院;英特尔 | Nat. Mach. Intell. | 2023 | [论文] [PDF] [代码] |
医疗和健康领域人工智能的算法公平性 | 哈佛医学院;哈佛与麻省理工学院布罗德研究所;Dana-Farber癌症研究院 | Nat. Biomed. Eng. (Perspective) | 2023 | [论文] [PDF] |
联邦学习中的差分隐私知识转移 | 清华大学 | Nat. Commun. | 2023 | [论文] [代码] |
通过代理模型共享的去中心化联邦学习 | Layer 6 AI;滑铁卢大学;Vector研究所 | Nat. Commun. | 2023 | [论文] [PDF] [代码] |
数据保护合规研究中的联邦机器学习 | 汉堡大学 | Nat. Mach. Intell.(Comment) | 2023 | [论文] |
联邦学习预测三阴性乳腺癌新辅助化疗的组织反应 | Owkin | Nat. Med. | 2023 | [论文] [代码] |
联邦学习使得稀有癌症边界检测的大数据成为可能 | 宾夕法尼亚大学 | Nat. Commun. | 2022 | [论文] [PDF] [代码] |
联邦学习与土著基因组数据主权 | Hugging Face | Nat. Mach. Intell. (Comment) | 2022 | [论文] |
用于无监督脑异常检测的联邦解耦表示学习 | TUM | Nat. Mach. Intell. | 2022 | [论文] [PDF] [代码] |
将医疗机器学习从开发转向部署,从模型转向数据 | 斯坦福大学;Greenstone Biosciences | Nat. Biomed. Eng. (Review Article) | 2022 | [论文] |
隐私保护个性化的联邦图神经网络框架 | 清华大学 | Nat. Commun. | 2022 | [论文] [代码] [解读] |
通过知识蒸馏实现通信高效的联邦学习 | 清华大学 | Nat. Commun. | 2022 | [论文] [PDF] [代码] |
在无线边缘人工智能上领导联邦神经学习 | 厦门大学;南洋理工大学 | Nat. Commun. | 2022 | [论文] [代码] [解读] |
用新颖的去中心化联邦学习方法在全球分布的劣质且受保护的私有医疗数据上进行训练 | 伍伦贡大学 | Sci. Rep. | 2022 | [论文] |
通过隐私保护的人工智能协作推进COVID-19诊断 | 华中科技大学 | Nat. Mach. Intell. | 2021 | [论文] [PDF] [代码] |
联邦学习预测COVID-19患者的临床结果 | MGH影像中心和哈佛医学院 | Nat. Med. | 2021 | [论文] [代码] |
隐私保护合作机器学习中的对抗干扰及其缓解 | 帝国理工学院;TUM;OpenMined | Nat. Mach. Intell.(Perspective) | 2021 | [论文] |
蜂群学习在去中心化和保密性的临床机器学习中的应用 :star: | 德国神经退行性疾病中心;波恩大学; | Nature :mortar_board: | 2021 | [论文] [代码] [软件] [解读] |
多机构医疗影像的端到端隐私保护深度学习 | TUM;帝国理工学院;OpenMined | Nat. Mach. Intell. | 2021 | [论文] [代码] [解读] |
通信高效的联邦学习 | 香港中文大学;普林斯顿大学 | PNAS. | 2021 | [论文] [代码] |
通过合成X光突破医学数据共享边界 | 亚琛工业大学 | Science. Advances. | 2020 | [论文] [代码] |
医疗影像中的安全、隐私保护和联邦机器学习 :star: | TUM;帝国理工学院;OpenMined | Nat. Mach. Intell.(Perspective) | 2020 | [论文] |
联邦学习论文被顶级AI(人工智能)会议和期刊接受,包括 IJCAI(国际人工智能联合会议),AAAI(AAAI人工智能会议),AISTATS(人工智能和统计会议),ALT(算法学习理论国际会议),AI(人工智能)。
| 整数已足够:当纵向联邦学习遇上四舍五入 | 浙江大学;蚂蚁集团 | AAAI | 2024 | [PUB] [PAGE] |
| 基于CLIP的联邦学习在异质性和长尾数据上的应用 | 厦门大学 | AAAI | 2024 | [PUB] [PAGE] [PDF] [CODE] |
| 联邦自适应提示微调用于多域协同学习 | 复旦大学 | AAAI | 2024 | [PUB] [PAGE] [PDF] [CODE] |
| 多维公平联邦学习 | 山东大学 | AAAI | 2024 | [PUB] [PAGE] [PDF] |
| HiFi-Gas:增强天然气使用估算的分层联邦学习激励机制 | 新奥集团 | AAAI | 2024 | [PUB] |
| 联邦学习中服务器动量的作用 | 弗吉尼亚大学 | AAAI | 2024 | [PUB] [PDF] |
| FedCompetitors: 在竞争参与者中进行和谐合作的联邦学习 | 北京邮电大学 | AAAI | 2024 | [PUB] [PAGE] [PDF] |
| z-SignFedAvg: 一种统一的基于符号的随机压缩方法用于联邦学习 | 香港中文大学;中国深圳大数据研究院 | AAAI | 2024 | [PUB] [PAGE] [PDF] |
| 数据差异和时间不可用问题的异步联邦学习,用于交通车队的预测性维护 | 大众集团 | AAAI | 2024 | [PUB] [PAGE] |
| 具有可泛化原型的域转移下的联邦图学习 | 武汉大学 | AAAI | 2024 | [PUB] [PAGE] |
| TurboSVM-FL: 通过SVM聚合提升懒惰客户端的联邦学习性能 | 慕尼黑工业大学 | AAAI | 2024 | [PUB] [PAGE] [PDF] [CODE] |
| 联邦领域泛化的多源协作梯度差异最小化 | 天津大学 | AAAI | 2024 | [PUB] [PDF] [CODE] |
| 隐藏敏感样本以防止联邦学习中的梯度泄漏 | 莫纳什大学 | AAAI | 2024 | [PUB] [PAGE] [PDF] [CODE] |
| FedA3I: 针对异质标注噪声的联邦医学影像分割质量感知聚合 | 华中科技大学 | AAAI | 2024 | [PUB] [PAGE] [PDF] [CODE] |
| 带有可解释自适应优化的联邦因果关系学习 | 山东大学 | AAAI | 2024 | [PUB] [PAGE] [PDF] |
| 带有异步通信和异质用户的联邦情境级联式多臂赌博机 | 中国科技大学 | AAAI | 2024 | [PUB] [PAGE] [PDF] |
| 探索基于预训练扩散模型的一次性半监督联邦学习 | 复旦大学 | AAAI | 2024 | [PUB] [PDF] |
| 多样性-真实性双约束风格化在人物重识别中的联邦领域泛化 | 厦门大学;特伦托大学 | AAAI | 2024 | [PUB] [PAGE] |
| PerFedRLNAS: 一种适用于所有人的个性化联邦神经结构搜索 | 多伦多大学 | AAAI | 2024 | [PUB] [PAGE] |
| 带有前瞻动量聚合和细粒度修正的高效异步联邦学习 | 北京邮电大学 | AAAI | 2024 | [PUB] [PAGE] |
| 联邦学习自适应比特率算法的对抗攻击 | 香港大学 | AAAI | 2024 | [PUB] |
| FedTGP: 通过自适应边界增强的对比学习进行数据和模型异质性联邦学习的可训练全局原型 | 上海交通大学 | AAAI | 2024 | [PUB] [PAGE] [PDF] [CODE] |
| LR-XFL: 基于逻辑推理的可解释联邦学习 | 南洋理工大学 | AAAI | 2024 | [PUB] [PDF] [CODE] |
| 采用Huber损失最小化的方法实现拜占庭鲁棒联邦学习 | 浙江实验室 | AAAI | 2024 | [PUB] [PAGE] [PDF] |
| 知识感知参数教练用于个性化联邦学习 | 东北大学 | AAAI | 2024 | [PUB] [PAGE] |
| 带有本地多样性乘积正则化的联邦标签噪声学习 | 上海交通大学 | AAAI | 2024 | [PUB] [PAGE] [SUPP] |
| 联邦学习中的加权聚合改进(学生摘要)| 英属哥伦比亚大学 | AAAI | 2024 | [PUB] |
| 联邦学习中的紧凑模型知识转移(学生摘要)| 悉尼大学 | AAAI | 2024 | [PUB] [PAGE] |
| PICSR: 联邦学习中的原型知情跨孤路由器(学生摘要)| 俄亥俄州立大学自治实验室, 卡内基梅隆大学 | AAAI | 2024 | [PUB] [PAGE] |
| 隐私保护图卷积网络用于联邦项目推荐 | 深圳大学 | AI | 2023 | [PUB] |
| 双赢:用于双目标跨域推荐的隐私保护联 邦框架 | 中国科学院;中国科学院大学;京东科技;京东智慧城市研究院 | AAAI | 2023 | [PUB] |
| 面向联邦推荐系统的无目标攻击及防御:通过恶意物品嵌入 | 中国科学技术大学;认知智能国家重点实验室 | AAAI | 2023 | [PUB] [PDF] [CODE] |
| 激励增强的联邦众包 | 山东大学 | AAAI | 2023 | [PUB] [PDF] |
| 使用类原型解决联邦学习中的数据异质性 | 理海大学 | AAAI | 2023 | [PUB] [PDF] [CODE] |
| FairFed: 在联邦学习中实现群体公平性 | 南加州大学 | AAAI | 2023 | [PUB] [PDF] [解读] |
| 联邦鲁棒性传播:在异质联邦学习中共享对抗性鲁棒性 | 密歇根州立大学 | AAAI | 2023 | [PUB] |
| 互补稀疏化:用于联邦学习的低开销模型剪枝 | 新泽西理工学院 | AAAI | 2023 | [PUB] |
| 联邦最佳臂识别中几乎无成本的通信 | 新加坡国立大学 | AAAI | 2023 | [PUB] [PDF] |
| 分层自适应模型聚合:可扩展联邦学习 | 南加州大学;仁荷大学 | AAAI | 2023 | [PUB] [PDF] |
| 使用刻耳柏洛斯中毒:隐蔽且联合的联邦学习后门攻击 | 北京交通大学 | AAAI | 2023 | [PUB] |
| FedMDFG:具有多梯度下降和公平指引的联邦学习 | 香港中文大学;深圳人工智能与机器人研究院 | AAAI | 2023 | [PUB] |
| 确保安全聚合:减轻联邦学习中的多轮隐私泄露 | 南加州大学 | AAAI | 2023 | [PUB] [PDF] [VIDEO] [CODE] |
| 通过结构知识共享在非独立同分布图上进行联邦学习 | 悉尼科技大学 | AAAI | 2023 | [PUB] [PDF] [CODE] |
| 通过客户数据子空间之间的主角度识别聚类联邦学习中的数据分布相似性 | 加州大学圣地亚哥分校 | AAAI | 2023 | [PUB] [PDF] [CODE] |
| FedABC:面向个性化联邦学习的公平竞争 | 武汉大学;湖北珞珈实验室;京东探索研究院 | AAAI | 2023 | [PUB] [PDF] |
| 超越ADMM:统一的客户端方差减少自适应联邦学习框架 | 新加坡科技设计大学 | AAAI | 2023 | [PUB] [PDF] |
| FedGS:具有任意客户端可用性的联邦基于图采样 | 厦门大学 | AAAI | 2023 | [PUB] [PDF] [CODE] |
| 更快的自适应联邦学习 | 匹兹堡大学 | AAAI | 2023 | [PUB] [PDF] |
| FedNP:通过联邦神经传播面向非独立同分布数据的联邦学习 | 香港科技大学 | AAAI | 2023 | [PUB] [CODE] [VIDEO] [SUPP] |
| 贝叶斯联邦神经匹配:完成完整信息 | 天津大学 | AAAI | 2023 | [PUB] [PDF] |
| CDMA:一种实用的用于广义极小极大问题的跨设备联邦学习算法 | 浙江大学 | AAAI | 2023 | [PUB] [PDF] [CODE] |
| 物联网中基于多源异构数据的联邦生成模型 | 佐治亚州立大学 | AAAI | 2023 | [PUB] |
| DeFL:通过关键学习期意识防御联邦学习中的模型中毒攻击 | 纽约州立大学宾厄姆顿大学 | AAAI | 2023 | [PUB] |
| FedALA:面向个性化联邦学习的自适应本地聚合 | 上海交通大学 | AAAI | 2023 | [PUB] [PDF] [CODE] |
| 探索联邦学习的对抗性鲁棒性 | 浙江大学 | AAAI | 2023 | [PUB] [PDF] |
| 关于联邦学习后门防御的脆弱性 | 天津大学 | AAAI | 2023 | [PUB] [PDF] [CODE] |
| 邻居的回声:通过洗牌模型增强个性化私有联邦学习的隐私 | 中国人民大学;教育部工程研究中心(数据库与商业智能) | AAAI | 2023 | [PUB] [PDF] |
| DPAUC:联邦学习中的差分隐私AUC计算 | 字节跳动 | AAAI特别组 | 2023 | [PUB] [PDF] [CODE] |
| 通过联邦机会性块丢失高效训练大规模工业故障诊断模型 | 南洋理工大学 | AAAI特别项目 | 2023 | [PUB] [PDF] |
| 面向药物发现的工业级协调联邦学习 | 荷语鲁汶大学 | AAAI特别项目 | 2023 | [PUB] [PDF] [VIDEO] |
| 一种用于自动驾驶汽车仿真的联邦学习监控工具(学生摘要) | 忠南大学 | AAAI特别项目 | 2023 | [PUB] |
| MGIA:多模态联邦学习中的互斥梯度反演攻击(学生摘要) | 香港理工大学 | AAAI特别项目 | 2023 | [PUB] |
| 用于异构数据的聚类联邦学习(学生摘要) | 中国人民大学 | AAAI特别项目 | 2023 | [PUB] |
| FedSampling:联邦学习的更好采样策略 | 清华大学 | IJCAI | 2023 | [PUB] [PDF] [CODE] |
| HyperFed:联邦学习中一致聚合非独立同分布数据的双曲原型探索 | 浙江大学 | IJCAI | 2023 | [PUB] [PDF] |
| FedOBD:通过联邦学习高效训练大规模神经网络的机会性块丢失 | 南洋理工大学 | IJCAI | 2023 | [PUB] [PDF] [CODE] |
| 隐私保护的多域推荐中具有紧凑共聚类的联邦概率偏好分布建模 | 浙江大学 | IJCAI | 2023 | [PUB] |
| 联邦图语义和结构学习 | 武汉大学 | IJCAI | 2023 | [PUB] |
| BARA:交叉筒仓联邦学习中具有在线奖励预算分配的高效激励机制 | 中山大学 | IJCAI | 2023 | [PUB] [PDF] |
| FedDWA:具有动态权重调整的个性化联邦学习 | 中山大学 | IJCAI | 2023 | [PUB] [PDF] |
| FedPass:适应性混淆的隐私保护垂直联邦深度学习 | 微众银行 | IJCAI | 2023 | [PUB] [PDF] |
| 面向非独立同分布图的全球一致联邦图自动编码器 | 福州大学 | IJCAI | 2023 | [PUB] [CODE] |
| 基于拍卖的联邦学习中竞争-合作多智能体强化学习 | 南洋理工大学 | IJCAI | 2023 | [PUB] |
| 联邦推荐中的双重个性化 | 吉林大学; 悉尼科技大学 | IJCAI | 2023 | [PUB] [PDF] [CODE] |
| FedNoRo: 通过解决类别不平衡和标签噪声异质性实现噪声鲁棒的联邦学习 | 华中科技大学 | IJCAI | 2023 | [PUB] [PDF] [CODE] |
| 拒绝服务或细粒度控制:面向联邦学习的灵活模型中毒攻击 | 湘潭大学 | IJCAI | 2023 | [PUB] [PDF] [CODE] |
| FedHGN: 异构图神经网络的联邦框架 | 香港中文大学 | IJCAI | 2023 | [PUB] [PDF] [CODE] |
| FedET: 基于增强Transformer的通信效率高的联邦类增量学习框架 | 平安科技; 清华大学 | IJCAI | 2023 | [PUB] [PDF] |
| 面向天气预报的提示式联邦学习:迈向气象数据的基础模型 | 悉尼科技大学 | IJCAI | 2023 | [PUB] [PDF] [CODE] |
| FedBFPT: BERT进一步预训练的高效联邦学习框架 | 浙江大学 | IJCAI | 2023 | [PUB] [CODE] |
| Bayesian Federated Learning: A Survey | | IJCAI Survey Track | 2023 | [PDF] |
| A Survey of Federated Evaluation in Federated Learning | 麦考瑞大学 | IJCAI Survey Track | 2023 | [PUB] [PDF] |
| SAMBA: 面向安全联邦多臂老虎机的通用框架(扩展摘要) | 瓦尔-德卢瓦尔国家应用科学学院 | IJCAI Journal Track | 2023 | [PUB] |
| 安全与隐私在联邦频估中的通信成本 | 斯坦福大学 | AISTATS | 2023 | [PUB] [CODE] |
| 通过异步分布式Dropout实现高效轻量的联邦学习 | 莱斯大学 | AISTATS | 2023 | [PUB] [CODE] |
| 面对分布概念漂移的联邦学习 | 卡内基梅隆大学 | AISTATS | 2023 | [PUB] [CODE] |
| 描述联邦学习中的内部规避攻击 | 卡内基梅隆大学 | AISTATS | 2023 | [PUB] [CODE] |
| 联邦渐近理论:用于比较联邦学习算法的模型 | 斯坦福大学 | AISTATS | 2023 | [PUB] [CODE] |
| 无需可信服务器的私密非凸联邦学习 | 南加州大学 | AISTATS | 2023 | [PUB] [CODE] |
| 数据流上的联邦学习 | 蓝色海岸大学 | AISTATS | 2023 | [PUB] [CODE] |
| 只有遗憾——隐私保护的联邦因果发现 | 亥姆霍兹信息安全中心 | AISTATS | 2023 | [PUB] [CODE] |
| 在本地差分隐私下的联邦学习中主动会员推断攻击 | 佛罗里达大学 | AISTATS | 2023 | [PUB] [CODE] |
| 联邦平均朗之万动力学:迈向统一理论和新算法 | 国立应用数学学院 | AISTATS | 2023 | [PUB] |
| 具有最佳统计率的拜占庭鲁棒联邦学习 | 加州大学伯克利分校 | AISTATS | 2023 | [PUB] [CODE] |
| 通过结构知识共享在非独立分布图上进行联邦学习 | 悉尼科技大学 | AAAI | 2023 | [PDF] [CODE] |
| FedGS: 使用任意客户端可用性的联邦图采样 | 厦门大学 | AAAI | 2023 | [PDF] [CODE] |
| 激励提升的联邦众包 | 山东大学 | AAAI | 2023 | [PDF] |
| 理解联邦学习中的偏见客户端选择 | 卡内基梅隆大学 | AISTATS | 2022 | [PUB] [CODE] |
| FLIX: 联邦学习中简单且通信效率高的本地方法替代品 | KAUST | AISTATS | 2022 | [PUB] [PDF] [CODE] |
| 联邦平均 (本地SGD) 和连续视角的尖锐界限 | 斯坦福大学 | AISTATS | 2022 | [PUB] [PDF] [CODE] |
| 面对环境异质性的联邦强化学习 | 北京大学 | AISTATS | 2022 | [PUB] [PDF] [CODE] |
| 联邦短视社区检测——一次性通信 | 普渡大学 | AISTATS | 2022 | [PUB] [PDF] |
| 联邦线性赌徒的异步上置信限算法 | 弗吉尼亚大学 | AISTATS | 2022 | [PUB] [PDF] [CODE] |
| 通过连续优化实现联邦贝叶斯网络结构学习 | 卡内基梅隆大学 | AISTATS | 2022 | [PUB] [PDF] [CODE] |
| 带缓冲异步聚合的联邦学习 | Meta AI | AISTATS | 2022 | [PUB] [PDF] [VIDEO] |
| 异质数据上的差分隐私联邦学习 | 斯坦福大学 | AISTATS | 2022 | [PUB] [PDF] [CODE] |
| SparseFed: 通过稀疏化减轻联邦学习中的模型中毒攻击 | 普林斯顿大学 | AISTATS | 2022 | [PUB] [PDF] [CODE] [VIDEO] |
| 基础很重要:为联邦学习提供更好通信效率的二阶方法 | KAUST | AISTATS | 2022 | [PUB] [PDF] |
| 联邦功能梯度提升 | 宾夕法尼亚大学 | AISTATS | 2022 | [PUB] [PDF] [CODE] |
| QLSD: 面向贝叶斯联邦学习的量化朗之万随机动力学 | Criteo AI实验室 | AISTATS | 2022 | [PUB] [PDF] [CODE] [VIDEO] |
联邦环境中基于元学习的知识图谱知识外推 kg.
| 浙江大学 | IJCAI | 2022 | [PUB] [PDF] [CODE] |
| 图结构的个性化联邦学习 | 悉尼科技大学 | IJCAI | 2022 | [PUB] [PDF] [CODE] |
| 隐私保护的垂直联邦图神经网络节点分类 | 浙江大学 | IJCAI | 2022 | [PUB] [PDF] |
| 适应于适应: 跨筒仓联邦学习中的个性化学习 | | IJCAI | 2022 | [PUB] [PDF] [CODE] |
| 异构集成知识迁移用于大模型联邦学习训练 | | IJCAI | 2022 | [PUB] [PDF] |
| 私有半监督联邦学习 | | IJCAI | 2022 | [PUB] |
| 基于知识蒸馏的持续联邦学习 | | IJCAI | 2022 | [PUB] |
| 通过联邦特征重新训练分类器进行异构和长尾数据上的联邦学习 | | IJCAI | 2022 | [PUB] [PDF] [CODE] |
| 跨个体人类活动识别的联邦多任务注意力 | | IJCAI | 2022 | [PUB] |
| 具有上下文泛化的个性化联邦学习 | | IJCAI | 2022 | [PUB] [PDF] |
| 保护联邦学习:具有适应性客户选择的鲁棒聚合 | | IJCAI | 2022 | [PUB] [PDF] |
| FedCG: 在联邦学习中利用条件GAN保护隐私并保持竞争性能 | | IJCAI | 2022 | [PUB] [PDF] [CODE] |
| FedDUAP: 使用服务器共享数据进行动态更新和自适应剪枝的联邦学习 | | IJCAI | 2022 | [PUB] [PDF] |
| 朝向可验证的联邦学习 surv.
| | IJCAI | 2022 | [PUB] [PDF] |
| HarmoFL: 在异构医学图像联邦学习中协调本地和全局漂移 | 香港中文大学; 北京航空航天大学 | AAAI | 2022 | [PUB] [PDF] [CODE] [解读] |
| 带有梯度校正的面部识别联邦学习 | 北京邮电大学 | AAAI | 2022 | [PUB] [PDF] |
| SpreadGNN: 用于分子数据的分散式多任务联邦图神经网络学习 | 南加州大学 | AAAI | 2022 | [PUB] [PDF] [CODE] [解读] |
| SmartIdx: 通过利用CNN结构减少联邦学习的通信成本 | 哈尔滨工业大学; CCLab | AAAI | 2022 | [PUB] [CODE] |
| 通过统一注意网络在认知处理信号和语言特征之间架桥 | 天津大学 | AAAI | 2022 | [PUB] [PDF] |
| 抓住联邦学习中的关键学习时期 | 纽约州立大学宾翰姆顿大学 | AAAI | 2022 | [PUB] [PDF] |
| 为跨筒仓联邦学习协调动量 | 匹兹堡大学 | AAAI | 2022 | [PUB] [PDF] |
| FedProto: 在异构设备上进行联邦原型学习 | 悉尼科技大学 | AAAI | 2022 | [PUB] [PDF] [CODE] |
| FedSoft: 带有近端本地更新的软聚类联邦学习 | 卡内基梅隆大学 | AAAI | 2022 | [PUB] [PDF] [CODE] |
| 联邦动态稀疏训练:减少计算和通信但更好地学习 | 德克萨斯大学奥斯汀分校 | AAAI | 2022 | [PUB] [PDF] [CODE] |
| FedFR: 一种用于通用和个性化面部识别的联合优化联邦框架 | 国立台湾大学 | AAAI | 2022 | [PUB] [PDF] [CODE] |
| SplitFed: 当联邦学习遇上切割学习 | 澳大利亚联邦科学与工业研究组织 | AAAI | 2022 | [PUB] [PDF] [CODE] |
| 具有多任务联邦学习的高效设备调度 | 苏州大学 | AAAI | 2022 | [PUB] [PDF] |
| 分布式和联邦学习中的隐式梯度对齐 | 印度理工学院坎普尔分校 | AAAI | 2022 | [PUB] [PDF] |
| 使用果蝇群集进行最近邻分类的联邦学习 | IBM研究院 | AAAI | 2022 | [PUB] [PDF] [CODE] |
| 向量场和保守性的迭代应用于联邦学习 | Google | ALT | 2022 | [PUB] [PDF] |
| 带有稀疏化增强隐私和自适应优化的联邦学习 | | IJCAI | 2021 | [PUB] [PDF] [VIDEO] |
| 行为模仿分布:结合个体和群体行为用于联邦学习 | | IJCAI | 2021 | [PUB] [PDF] |
| FedSpeech: 使用持续学习的联邦文本到语音转换 | | IJCAI | 2021 | [PUB] [PDF] |
| 跨筒仓环境中的实际一次性联合学习 | | IJCAI | 2021 | [PUB] [PDF] [CODE] |
| 带有无噪声差分隐私的联邦模型蒸馏 | | IJCAI | 2021 | [PUB] [PDF] [VIDEO] |
| LDP-FL:具有本地差分隐私的联邦学习中实际的私有聚合 | | IJCAI | 2021 | [PUB] [PDF] |
| 带有公平平均的联邦学习 | | IJCAI | 2021 | [PUB] [PDF] [CODE] |
| H-FL: 一个分层通讯高效且保护隐私的联邦学习架构 | | IJCAI | 2021 | [PUB] [PDF] |
| 通讯高效且可扩展的分散联邦边缘学习 | | IJCAI | 2021 | [PUB] |
| 安全双层异步垂直联邦学习与反向更新 | 西安电子科技大学; 京东科技 | AAAI | 2021 | [出版] [PDF] [视频] |
| FedRec++: 基于显性反馈的无损联邦推荐 | 深圳大学 | AAAI | 2021 | [出版] [视频] |
| 联邦多臂老虎机 | 弗吉尼亚大学 | AAAI | 2021 | [出版] [PDF] [代码] [视频] |
| 联邦学习中通信高效的本地SGD收敛性 | 天普大学; 匹兹堡大学 | AAAI | 2021 | [出版] [视频] |
| FLAME: 混洗模型中的差分隐私联邦学习 | 中国人民大学; 京都大学 | AAAI | 2021 | [出版] [PDF] [视频] [代码] |
| 理解联邦学习中个体客户端的影响 | 上海交通大学; 德州大学达拉斯分校 | AAAI | 2021 | [出版] [PDF] [视频] |
| 对恶意客户端的保险联邦学习 | 杜克大学 | AAAI | 2021 | [出版] [PDF] [视频] [幻灯片] |
| 非独立同分布数据上的个性化跨筒联邦学习 | 西蒙弗雷泽大学; 麦克马斯特大学 | AAAI | 2021 | [出版] [PDF] [视频] [代码] |
| 模型共享游戏:分析志愿参与下的联邦学习 | 康奈尔大学 | AAAI | 2021 | [出版] [PDF] [代码] [视频] |
| 诅咒还是救赎?数据异质性如何影响联邦学习的鲁棒性 | 内华达大学; IBM研究院 | AAAI | 2021 | [出版] [PDF] [视频] |
| 梯度游戏:减轻联邦学习中的无关客户端 | 印度理工学院孟买分校; IBM研究院 | AAAI | 2021 | [出版] [PDF] [代码] [视频] [补充] |
| 联邦块坐标下降方案用于学习全球和个性化模型 | 香港中文大学; 亚利桑那州立大学 | AAAI | 2021 | [出版] [PDF] [视频] [代码] |
| 解决联邦学习中的类不平衡问题 | 西北大学 | AAAI | 2021 | [出版] [PDF] [视频] [代码] [解读] |
| 通过鲁棒学习率在联邦学习中防御后门攻击 | 德州大学达拉斯分校 | AAAI | 2021 | [出版] [PDF] [视频] [代码] |
| 模型聚合中的搭便车攻击在联邦学习 | 埃森哲实验室 | AISTATS | 2021 | [出版] [PDF] [代码] [视频] [补充] |
| 联邦f-差分隐私 | 宾夕法尼亚大学 | AISTATS | 2021 | [出版] [代码] [视频] [补充] |
| 压缩下的联邦学习:统一分析与尖锐保证 :fire: | 宾夕法尼亚州立大学; 德州大学奥斯汀分校 | AISTATS | 2021 | [出版] [PDF] [代码] [视频] [补充] |
| 差分隐私在联邦学习中的混洗模型 | 加州大学洛杉矶分校; 谷歌 | AISTATS | 2021 | [出版] [视频] [补充] |
| 联邦学习与元学习中的收敛性和准确性权衡 | 谷歌 | AISTATS | 2021 | [出版] [PDF] [视频] [补充] |
| 个性化的联邦多臂老虎机 | 弗吉尼亚大学; 宾夕法尼亚州立大学 | AISTATS | 2021 | [出版] [PDF] [代码] [视频] [补充] |
| 走向灵活设备参与的联邦学习 | 卡内基梅隆大学; 中山大学 | AISTATS | 2021 | [出版] [PDF] [视频] [补充] |
| 用于信用卡欺诈检测的联邦元学习 | | IJCAI | 2020 | [出版] [视频] |
| 研究联邦学习激励机制的多玩家游戏 | | IJCAI | 2020 | [出版] [代码] [解读] |
| 实用的联邦梯度提升决策树 | 新加坡国立大学; 西澳大利亚大学 | AAAI | 2020 | [出版] [PDF] [代码] |
| 用于视觉与语言定位问题的联邦学习 | 北京大学; 腾讯 | AAAI | 2020 | [出版] |
| 联邦主题模型: 基于局部差分隐私的框架 | 北京航空航天大学 | AAAI | 2020 | [出版] |
| 联邦病人哈希 | 康奈尔大学 | AAAI | 2020 | [出版] |
| 通过协作机器教学的鲁棒联邦学习 | 赛门铁克研究实验室; 沙特阿卜杜勒阿齐兹国王科技大学 | AAAI | 2020 | [出版] [PDF] |
| FedVision: 由联邦学习驱动的在线视觉对象检测平台 | 微众银行 | AAAI | 2020 | [出版] [PDF] [代码] |
<SOURCE_TEXT>
| FedPAQ: 一种具有周期性平均和量化的高效通信的联邦学习方法 | 加州大学圣巴巴拉分校;德克萨斯大学奥斯汀分校 | AISTATS | 2020 | [论文] [PDF] [视频] [补充材料] |
| 如何在联邦学习中植入后门 :fire: | 康奈尔科技学院 | AISTATS | 2020 | [论文] [PDF] [视频] [代码] [补充材料] |
| 基于差分隐私的联邦重击手发现 | 伦斯勒理工学院;谷歌 | AISTATS | 2020 | [论文] [PDF] [视频] [补充材料] |
| 多代理可视化解释联邦学习 | 微众银行 | IJCAI | 2019 | [论文] [视频] |
</SOURCE_TEXT>
被顶级机器学习(ML)会议和期刊接受的联邦学习论文,包括 NeurIPS(神经信息处理系统年会),ICML(国际机器学习会议),ICLR(国际学习表征会议),COLT(计算学习理论年会),UAI(人工智能不确定性会议),Machine Learning,JMLR(机器学习研究期刊),TPAMI(IEEE模式分析与机器智能汇刊)。
论文标题 | 所属机构 | 会议 | 年份 | 资料 |
---|---|---|---|---|
通过模型距离实现通信高效的聚类联邦学习 | 中国科学技术大学;认知智能国家重点实验室 | 机器学习 | 2024 | [文章] |
通过超量聚合进行异构数据的联邦学习 | 谷歌研究院 | 机器学习 | 2024 | [文章] [PDF] [代码] |
对类别不平衡非IID联邦学习模型输出的对齐 | 南京大学 | 机器学习 | 2024 | [文章] |
联邦高斯过程:收敛性、自动个性化和多保真度建模 | 东北大学;曼彻斯特大学 | TPAMI | 2024 | [文章] [PDF] [代码] |
对联邦学习中对抗攻击的影响的调查 | 印度理工学院 | TPAMI | 2024 | [文章] |
理解并缓解联邦学习中的维度崩塌 | 新加坡国立大学 | TPAMI | 2024 | [文章] [PDF] [代码] |
没有人掉队:现实世界联邦渐进学习 | 中国科学院;中国科学院大学 | TPAMI | 2024 | [文章] [PDF] [代码] |
通用异构联邦跨相关和实例相似性学习 | 武汉大学 | TPAMI | 2024 | [文章] [PDF] [代码] |
具有自适应差分隐私的多阶段异步联邦学习 | 惠普大学;西安交通大学 | TPAMI | 2024 | [文章] [PDF] [代码] |
具有在线拉普拉斯近似的贝叶斯联邦学习框架 | 南方科技大学 | TPAMI | 2024 | [文章] [PDF] [代码] |
联邦学习的单次经验隐私估计 | 谷歌 | ICLR | 2024 | [文章] [PDF] |
联邦学习中具有通信压缩的随机控制平均 | 领英;宾夕法尼亚大学 | ICLR | 2024 | [文章] [PDF] |
解决联邦平均中的未知参与统计的轻量方法 | 国际商业机器公司 | ICLR | 2024 | [文章] [PDF] [代码] |
从互信息的角度看联邦对比学习 | 高通 | ICLR | 2024 | [文章] |
联邦领域泛化算法的基准测试 | 普渡大学 | ICLR | 2024 | [文章] [PDF] [代码] |
混合数据上有效且高效的联邦树学习 | 加州大学伯克利分校 | ICLR | 2024 | [文章] [PDF] |
具有附加个性化的联邦推荐 | 悉尼科技大学 | ICLR | 2024 | [文章] [PDF] [代码] |
通过缓存更新校准解决异步联邦学习中的数据异构性 | 宾夕法尼亚州立大学 | ICLR | 2024 | [文章] [补充资料] |
联邦正交训练:缓解持续联邦学习中的全局灾难性遗忘 | 南加州大学 | ICLR | 2024 | [文章] [补充资料] [PDF] |
异构联邦持续学习的准确遗忘 | 清华大学 | ICLR | 2024 | [文章] [代码] |
从异构数据中发现联邦因果关系 | 阿布扎比穆罕默德·本·扎耶德人工智能大学 | ICLR | 2024 | [文章] [PDF] [代码] |
关于差分隐私联邦线性上下文赌博 | 韦恩州立大学 | ICLR | 2024 | [文章] [补充资料] [PDF] |
激励诚实通信的联邦赌博 | 弗吉尼亚大学 | ICLR | 2024 | [文章] [PDF] |
有原则的联邦域适应:梯度投影和自动加权 | 伊利诺伊大学厄巴纳-香槟分校 | ICLR | 2024 | [文章] |
FedP3:在模型异构性下的联邦个性化和隐私友好型网络剪枝 | 沙特阿卜杜拉国王科技大学 | ICLR | 2024 | [文章] |
基于文本驱动的视觉语言模型生成提示在联邦学习中的应用 | 罗伯特·博世有限公司 | ICLR | 2024 | [文章] [PDF] |
改进隐私保护联邦学习中的 LoRA | 东北大学 | ICLR | 2024 | [文章] |
FedWon:在多领域联邦学习中没有规范化的情况下取得胜利 | 索尼人工智能团队 | ICLR | 2024 | [文章] [PDF] |
FedTrans:用于鲁棒联邦学习的客户端透明效用估计 | 代尔夫特理工大学 | ICLR | 2024 | [文章] |
FedCompass:使用计算能力感知调度器在异构客户端设备上的高效跨数据中心联邦学习 | 阿贡国家实验室;伊利诺伊大学厄巴纳-香槟分校;国家超级计算应用中心 | ICLR | 2024 | [文章] [PDF] [代码] [页面] |
用于个性化联邦学习的贝叶斯核集优化 | 印度理工学院孟买 | ICLR | 2024 | [文章] |
层次线性模式连接 | 鲁尔大学波鸿校区 | ICLR | 2024 | [文章] [PDF] [补充资料] |
假装直到成功:以共识为导向生成的联邦学习 | 上海交通大学 | ICLR | 2024 | [文章] [PDF] |
隐藏在明处:在联邦学习中伪装数据窃取攻击 | 保加利亚国家科学院人工智能科学研究院 | ICLR | 2024 | [文章] [补充资料] [PDF] |
具有有限时间分析的异步联邦强化学习 | 哥伦比亚大学 | ICLR | 2024 | [文章] [PDF] |
自适应联邦学习与自动调整的客户端 | 莱斯大学 | ICLR | 2024 | [文章] [补充资料] [PDF] |
通过毒化关键层实现后门联邦学习 | 圣母大学 | ICLR | 2024 | [文章] [补充资料] [PDF] |
联邦Q学习:低通信成本的线性遗憾加速 | 宾夕法尼亚州立大学 | ICLR | 2024 | [文章] [补充资料] [PDF] |
FedImpro:测量和改进联邦学习中的客户端更新 | 香港浸会大学 | ICLR | 2024 | [文章] [PDF] |
联邦瓦瑟斯坦距离 | 麻省理工学院 | ICLR | 2024 | [文章] [补充资料] [PDF] |
关于联邦学习中每样本和每更新裁剪的改进分析 | 丹麦技术大学 | ICLR | 2024 | [文章] |
FedCDA: 联邦学习中的跨轮次发散感知聚合 | 南洋理工大学 | ICLR | 2024 | [PUB] [SUPP] |
内部跨层梯度用于扩展联邦学习中的同质性到异质性 | 香港大学 | ICLR | 2024 | [PUB] [PDF] |
动量简单且有证明地有利于非独立同分布联邦学习 | 北京大学; 宾夕法尼亚大学 | ICLR | 2024 | [PUB] [PDF] |
高效通信的联邦非线性赌博优化 | 耶鲁大学 | ICLR | 2024 | [PUB] [PDF] |
垂直联邦学习的公平且高效的贡献估值 | 华为 | ICLR | 2024 | [PUB] [SUPP] [PDF] [CODE] |
使用部分信息分解分析联邦学习中的局部和全局公平性权衡 | 马里兰大学学院公园分校 | ICLR | 2024 | [PUB] [PDF] |
为异质联邦客户端学习个性化因果不变表示 | 理大 | ICLR | 2024 | [PUB] |
PeFLL: 通过学习来学习的个性化联邦学习 | 科技研究所 | ICLR | 2024 | [PUB] [SUPP] [PDF] |
分布式变分不等式的高效通信梯度下降-上升方法:统一分析与局部更新 | 约翰霍普金斯大学 | ICLR | 2024 | [PUB] [SUPP] [PDF] |
FedInverse: 评估联邦学习中的隐私泄露 | 南昆士兰大学 | ICLR | 2024 | [PUB] [SUPP] |
FedDA: 用于联邦约束优化的更快自适应梯度方法 | 马里兰大学学院公园分校 | ICLR | 2024 | [PUB] [SUPP] [PDF] |
在极端标签缺乏情况下的联邦模型鲁棒训练 | 香港浸会大学 | ICLR | 2024 | [PUB] [PDF] [CODE] |
通过特征学习理论理解联邦学习中的收敛和泛化 | 理化学研究所AIP | ICLR | 2024 | [PUB] |
教语言模型钓鱼: 从语言模型中窃取私人信息 | 普林斯顿大学 | ICLR | 2024 | [PUB] |
像油和水: 群体鲁棒性方法和中毒防御不混合 | 马里兰大学学院公园分校 | ICLR | 2024 | [PUB] |
在各向异性梯度噪声下加速随机重球方法的收敛 | 香港科技大学 | ICLR | 2024 | [PUB] [PDF] |
消除梯度反转攻击中硬标签约束 | 中国科学院 | ICLR | 2024 | [PUB] [SUPP] [PDF] [CODE] |
局部复合鞍点优化 | 普渡大学 | ICLR | 2024 | [PUB] [PDF] |
通过相关动力学模型增强神经训练 | 台北工业学院 | ICLR | 2024 | [PUB] [PDF] |
EControl: 具有压缩和错误控制的快速分布式优化 | 萨尔大学 | ICLR | 2024 | [PUB] [SUPP] [PDF] |
构建垂直联邦学习的对抗样本: 通过多臂赌博的最佳客户端腐败 | 香港科技大学 | ICLR | 2024 | [PUB] |
FedHyper: 使用超梯度下降的联邦学习的通用且稳健的学习率调度器 | 马里兰大学学院公园分校 | ICLR | 2024 | [PUB] [SUPP] [PDF] [CODE] |
通过收敛率局部全局更新混合的异质个性化联邦学习 | 香港中文大学 | ICLR | 2024 | [PUB] |
打破物理和语言界限: 低资源语言的多语言联邦提示调整 | 剑桥大学 | ICLR | 2024 | [PUB] |
简单最小最大最优拜占庭鲁棒算法用于梯度异质性的非凸目标 | NTT DATA数学系统公司 | ICLR | 2024 | [PUB] |
VFLAIR: 垂直联邦学习的研究图书馆和基准 | 清华大学 | ICLR | 2024 | [PUB] [PDF] [CODE] |
具有训练时间模型奖励的激励意识联邦学习 | 国立新加坡大学 | ICLR | 2024 | [PUB] [SUPP] |
VertiBench: 推进垂直联邦学习基准中的特征分配多样性 | 国立新加坡大学 | ICLR | 2024 | [PUB] [PDF] [CODE] |
FedLoGe: 长尾数据下的联合本地和通用联邦学习 | 浙江大学 | ICLR | 2024 | [PUB] [SUPP] [PDF] |
SimFBO: 走向简单、灵活和高效通信 的联邦双级学习 | 布法罗大学 | NeurIPS | 2023 | [PUB] [PDF] [SUPP] |
协作正态均值估计的机制设计 | 威斯康星大学麦迪逊分校 | NeurIPS | 2023 | [PUB] [PDF] |
鲁棒分布式学习: 数据异质性下的紧误差界限和崩溃点 | 瑞士联邦理工学院 | NeurIPS | 2023 | [PUB] [PDF] [CODE] |
联邦学习中的激励: 最大化福利的均衡、动态和机制 | 伊利诺伊大学厄巴纳香槟分校 | NeurIPS | 2023 | [PUB] [SUPP] |
异质数据上的顺序联邦学习的收敛性分析 | 北京邮电大学 | NeurIPS | 2023 | [PUB] [PDF] [CODE] |
通过架构设计处理联邦视觉识别的数据异质性 | 穆罕默德本扎耶德人工智能大学 | NeurIPS | 2023 | [PUB] [PDF] [CODE] |
私人联邦频率估计: 适应实例的难度 | 约翰霍普 金斯大学 | NeurIPS | 2023 | [PUB] [SUPP] [PDF] |
非可微、非凸和层级联邦优化的零阶方法 | 罗格斯大学 | NeurIPS | 2023 | [PUB] [SUPP] [PDF] |
联邦赌博中的激励通信 | 弗吉尼亚大学 | NeurIPS | 2023 | [PUB] [PDF] |
目标平均处理效果的多重鲁棒联邦估计 | 东北大学 | NeurIPS | 2023 | [PUB] [PDF] |
IBA: 面向联邦学习中无法逆转的后门攻击 | 范德堡大学;VinUniversity | NeurIPS | 2023 | [PUB] [SUPP] [CODE] |
EvoFed: 采用进化策略进行通信高效的联邦学习 | KAIST | NeurIPS | 2023 | [PUB] [SUPP] [PDF] |
具有有限对抗行动的联邦线性赌博 | 弗吉尼亚大学 | NeurIPS | 2023 | [PUB] [SUPP] [PDF] |
FedNAR: 使用归一化退火正则化的联邦优化 | MBZUAI | NeurIPS | 2023 | [PUB] [SUPP] [PDF] [CODE] |
通过预训练模型引导联邦学习中的最后一层 | 康考迪亚大学 | NeurIPS | 2023 | [PUB] [SUPP] [PDF] [CODE] |
联邦零阶优化的细粒度理论分析 | 华中农业大学 | NeurIPS | 2023 | [PUB] [SUPP] |
在联邦学习中导航数据异质性: 一种用于物体检测的半监督方法 | KAIST | NeurIPS | 2023 | [PUB] [SUPP] [PDF] [CODE] |
一种用于视觉任务的联邦增量学习中缓解灾难性遗忘的数据无关方法 | 南加州大学 | NeurIPS | 2023 | [PUB] [PDF] [CODE] |
异质性臭名昭著吗?驯服异质性以应对联邦学习中的测试时间变化 | 悉尼科技大学 | NeurIPS | 2023 | [PUB] [SUPP] |
用于测量联邦学习中数据异质性的一次性分布素描 | 莱斯大学 | NeurIPS | 2023 | [PUB] [SUPP] [CODE] |
Lockdown: 使用隔离子空间训练的联邦学习后门防御 | 佐治亚理工学院 | NeurIPS | 2023 | [PUB] [SUPP] [CODE] |
FedGame: 一种联邦学习后门攻击的博弈论防御 | 帕克研究所;伊利诺伊大学香槟分校 | NeurIPS | 2023 | [PUB] [SUPP] [CODE] |
通过异质模型重组实现个性化联邦学习 | 帕克研究所 | NeurIPS | 2023 | [PUB] [SUPP] [PDF] [CODE] |
每个参数都很重要: 确保联邦学习通过动态异质模型减少收敛 | 乔治·华盛顿大学 | NeurIPS | 2023 | [PUB] [SUPP] [PDF] |
DFRD: 异质联邦学习的数据无关鲁棒性蒸馏 | 华东师范大学 | NeurIPS | 2023 | [PUB] [SUPP] [PDF] [CODE] |
垂直联邦学习中隐私和通信效率的统一解决方案 | 西安大略大学 | NeurIPS | 2023 | [PUB] [SUPP] [CODE] |
RECESS 疫苗用于联邦学习:对抗模型中毒攻击的主动防御 | 西安电子科技大学;圭尔夫大学;浙江省多维感知技术、应用与网络安全重点实验室 | NeurIPS | 2023 | [PUB] [SUPP] [PDF] |
通过双边策展实现部分类别分开的数据的联邦学习 | 上海交通大学;上海人工智能实验室 | NeurIPS | 2023 | [PUB] [SUPP] [CODE] |
具有客户端子采样、数据异质性和无限平滑度的联邦学习:一种新算法和下限 | 乔治·梅森大学;上海交通大学 | NeurIPS | 2023 | [PUB] [SUPP] [CODE] |
FedL2P: 个人定制的联邦学习 | 剑桥大学;三星人工智能中心 | NeurIPS | 2023 | [PUB] [SUPP] [PDF] [CODE] |
自适应测试时间个性化在联邦学习中的应用 | 伊利诺伊大学香槟分校 | NeurIPS | 2023 | [PUB] [PDF] [CODE] |
联邦条件随机优化 | 匹兹堡大学 | NeurIPS | 2023 | [PUB] [SUPP] [PDF] [CODE] |
通过安全相似性重建实现联邦谱聚类 | 香港中文大学 | NeurIPS | 2023 | [PUB] |
在无基础设施和异质环境中通过随机游走随机ADMM调动个性化联邦学习 | 密歇根大学迪尔伯恩分校 | NeurIPS | 2023 | [PUB] [SUPP] [PDF] |
FedGCN: 联邦训练图卷积网络中的收敛-通信权 衡 | 卡内基梅隆大学 | NeurIPS | 2023 | [PUB] [SUPP] [PDF] [CODE] |
联邦多目标学习 | 罗切斯特理工学院 | NeurIPS | 2023 | [PUB] [SUPP] [PDF] |
FLuID: 使用不变Dropout缓解联邦学习中的落后者问题 | 英属哥伦比亚大学;佐治亚理工学院 | NeurIPS | 2023 | [PUB] [SUPP] [PDF] [CODE] |
解决拉锯战:联邦学习中的通信和学习分离 | 匹兹堡大学 | NeurIPS | 2023 | [PUB] [SUPP] |
在具有全局和局部下层问题的双层优化联邦学习中的通信效率 | 匹兹堡大学 | NeurIPS | 2023 | [PUB] [SUPP] [PDF] |
StableFDG: 基于风格和注意力的联邦域泛化学习 | KAIST;普渡大学 | NeurIPS | 2023 | [PUB] [PDF] |
理解一致性如何在分布式学习中通过阶段性放松初始化发挥作用 | 悉尼大学 | NeurIPS | 2023 | [出版] [补充材料] [PDF] |
DELTA: 用于加速分布式学习的多样化客户端采样 | 中大; 深圳人工智能与机器人研究院 | NeurIPS | 2023 | [出版] [补充材料] [PDF] |
联邦组合深度AUC最大化 | 天普大学 | NeurIPS | 2023 | [出版] [补充材料] [PDF] |
A3FL: 面向分布式学习的自适应后门攻击 | 宾夕法尼亚州立大学 | NeurIPS | 2023 | [出版] [补充材料] [代码] |
Flow: 个性化分布式学习 | 马萨诸塞大学 | NeurIPS | 2023 | [出版] [补充材料] [PDF] [代码] |
消除表示空间中的域偏差以进行分布式学习 | 上海交通大学 | NeurIPS | 2023 | [出版] [补充材料] [PDF] [代码] |
带流形正则化和归一化更新重组的分布式学习 | 北京理工大学 | NeurIPS | 2023 | [出版] [补充材料] [PDF] |
通过聚类加法建模的结构化分布式学习 | 悉尼科技大学 | NeurIPS | 2023 | [出版] [补充材料] |
Fed-GraB: 具有自适应梯度平衡器的长尾分布式学习 | 浙江大学; 新加坡科技设计大学 | NeurIPS | 2023 | [出版] [补充材料] [PDF] [代码] |
具有自适应差分隐私的动态个性化分布式学习 | 武汉大学 | NeurIPS | 2023 | [出版] [补充材料] [代码] |
Fed-CO$_{2}$ : 用于严重数据异质性的分布式学习中在线和离线模型的合作 | 上海科技大学 | NeurIPS | 2023 | [出版] [补充材料] [PDF] [代码] |
解决分布式学习中的一类非凸最小二乘优化 | 匹兹堡大学 | NeurIPS | 2023 | [出版] [补充材料] [PDF] [代码] |
通过元变分Dropout进行分布式学习 | 首尔国立大学 | NeurIPS | 2023 | [出版] [代码] |
通过ADMM算法的梯度更新提高分布式自然政策梯度的通信效率 | 普渡大学 | NeurIPS | 2023 | [出版] [补充材料] [PDF] |
SPACE: 通过单轮参与者融合评估分布式学习中的贡献 | 南洋理工大学 | NeurIPS | 2023 | [出版] [代码] |
Fed-FA: 理论建模客户端数据分歧以防御分布式语言后门攻击 | 北京大学; 腾讯 | NeurIPS | 2023 | [出版] [补充材料] |
FedFed: 在分布式学习中对抗数据异质性的特征提炼 | 北京航空航天大学; 香港浸会大学 | NeurIPS | 2023 | [出版] [PDF] [代码] |
PRIOR: 个性化前置以激活分布式学习中被忽视的信息 | 四川大学 | NeurIPS | 2023 | [出版] [补充材料] [PDF] [代码] [解读] |
光谱共同提炼: 个性化分布式学习 | 新加坡科技设计大学 | NeurIPS | 2023 | [出版] |
通过$f$-差分隐私打破通信-隐私-准确性权衡 | 浙江大学 | NeurIPS | 2023 | [出版] [补充材料] [PDF] |
在分布式均值估计中精确优化通信-隐私-效用权衡 | 斯坦福大学 | NeurIPS | 2023 | [出版] [补充材料] [PDF] [代码] |
(增强的)带状矩阵分解: 用于私有训练的统一方法 | 谷歌深度思维 | NeurIPS | 2023 | [出版] [补充材料] [PDF] |
通过连续层训练在计算受限设备上的分布式学习中聚合容量 | 卡尔斯鲁厄理工学院 | NeurIPS | 2023 | [出版] [补充材料] [PDF] [代码] |
通过压缩实现隐私放大: 在分布式均值估计中实现最佳隐私-准确性-通信权衡 | 斯坦福大学 | NeurIPS | 2023 | [出版] [补充材料] [PDF] |
在协作学习和优化中激励竞争者的诚实性 | 苏黎世联邦理工学院 | NeurIPS | 2023 | [出版] [补充材料] [PDF] |
有弹性的受限学习 | 宾夕法尼亚大学 | NeurIPS | 2023 | [出版] [补充材料] [PDF] |
在部分参与设置中用于分布式非凸问题的计算和通信高效方法 | 阿卜杜拉国王科技大学 | NeurIPS | 2023 | [出版] [补充材料] [PDF] [代码] |
合作学习结构化缺失数据的线性模型 | 斯坦福大学 | NeurIPS | 2023 | [出版] [补充材料] [PDF] [代码] |
带有线性相关噪声的梯度下降: 理论及其在差分隐私中的应用 | 洛桑联邦理工学院 | NeurIPS | 2023 | [出版] [补充材料] [PDF] |
通过随机投影实现快速最优本地私有均值估计 | 苹果公司 | NeurIPS | 2023 | [出版] [补充材料] [PDF] [代码] |
上下文随机双层优化 | 洛桑联邦理工学院; 苏黎世联邦理工学院 | NeurIPS | 2023 | [出版] [补充材料] [PDF] |
通过逆向影响函数理解深度梯度泄露 | MSU; 密歇根州立大学; 德克萨斯大学奥斯汀分校 | NeurIPS | 2023 | [PUB] [SUPP] [PDF] [CODE] |
基于内积的神经网络相似性 | 普渡大学 | NeurIPS | 2023 | [PUB] [SUPP] |
使用随机投影的相关感知稀疏均值估计 | 卡内基梅隆大学 | NeurIPS | 2023 | [PUB] [SUPP] [PDF] [CODE] |
TIES合并:解决模型合并时的干扰 | 北卡罗来纳大学 | NeurIPS | 2023 | [PUB] [SUPP] [PDF] [CODE] |
全球更新跟踪:一个针对异质数据的去中心化学习算法 | 普渡大学 | NeurIPS | 2023 | [PUB] [SUPP] [PDF] [CODE] |
通过设备上的私密LSH进行大规模分布式学习 | 马里兰大学 | NeurIPS | 2023 | [PUB] [SUPP] [PDF] |
使用贪婪拒绝编码进行更快的相对熵编码 | 剑桥大学 | NeurIPS | 2023 | [PUB] [SUPP] [PDF] [CODE] |
无过参数化的两层神经网络局部SGD的全局收敛性分析 | 上海交通大学 | NeurIPS | 2023 | [PUB] [SUPP] |
动量确实改善了误差反馈! | ETH AI中心; 苏黎世联邦理工学院 | NeurIPS | 2023 | [PUB] [SUPP] [PDF] |
竞争对手间的战略数据共享 | 索菲亚大学 | NeurIPS | 2023 | [PUB] [SUPP] [PDF] |
H-nobs: 在异质数据集上的分布式学习中实现认证的公平性和鲁棒性 | 乔治梅森大学 | NeurIPS | 2023 | [PUB] |
Wyze Rule: 联邦规则推荐基准规则数据集 | Wyze Labs | NeurIPS 数据集与基准 | 2023 | [PUB] [SUPP] [DATASET] |
面向联邦基础模型:用于群组结构学习的可扩展数据集管道 | 谷歌研究院 | NeurIPS 数据集与基准 | 2023 | [PUB] [PDF] [DATASET] |
在联邦学习中生成视觉语言模型的文本驱动提示 | NeurIPS 研讨会 | 2023 | [PUB] | |
HePCo: 面向连续联邦学习的数据自由异质提示整合 | NeurIPS 研讨会 | 2023 | [PUB] | |
隐私攻击中超越梯度和先验:利用联邦学习中语言模型的池层输入 | NeurIPS 研讨会 | 2023 | [PUB] | |
FOCUS: 通过代理感知实现联邦学习中的公平性 | NeurIPS 研讨会 | 2023 | [PUB] | |
FedSoL: 在联邦学习中弥合全局对齐与本地普适性 | NeurIPS 研讨会 | 2023 | [PUB] | |
一次性经验隐私估计用于联邦学习 | NeurIPS 研讨会 | 2023 | [PUB] | |
Profit: 联邦提示调优中个性化与鲁棒性折中基准 | NeurIPS 研讨会 | 2023 | [PUB] | |
SLoRA: 联邦学习中高效参数的语言模型微调 | NeurIPS 研讨会 | 2023 | [PUB] | |
在异质隐私约束下识别数据的公平价值 | NeurIPS 研讨会 | 2023 | [PUB] | |
构建FederatedGPT:联邦指令调优 | NeurIPS 研讨会 | 2023 | [PUB] | |
随着大规模自动语音识别的趋势重新审视联邦学习 | NeurIPS 研讨会 | 2023 | [PUB] | |
LASER: 无线分布式优化中的线性压缩 | NeurIPS 研讨会 | 2023 | [PUB] | |
MARINA与矩阵步长见面:方差减少分布式非凸优化 | NeurIPS 研讨会 | 2023 | [PUB] | |
TAMUNA: 带有本地训练、压缩和部分参与的双重加速联邦学习 | NeurIPS 研讨会 | 2023 | [PUB] | |
联邦上下文带算法的经验评估 | NeurIPS 研讨会 | 2023 | [PUB] | |
RealFM: 用于激励数据贡献和设备参与的现实机制 | NeurIPS 研讨会 | 2023 | [PUB] | |
FDAPT: 面向语言模型的联邦领域自适应预训练 | NeurIPS 研讨会 | 2023 | [PUB] | |
在联邦深度学习中让批量归一化更好 | NeurIPS 研讨会 | 2023 | [PUB] | |
相关噪声在差分隐私学习中确实优于独立噪声 | NeurIPS 研讨会 | 2023 | [PUB] | |
多任务语言模型的参数平均规律 | NeurIPS 研讨会 | 2023 | [PUB] | |
打破物理和语言边界:用于低资源语言的多语言联邦提示调优 | NeurIPS 研讨会 | 2023 | [PUB] | |
模型聚合中的超越参数平均 | NeurIPS 研讨会 | 2023 | [PUB] | |
使用预训练变换器增强联邦学习 | NeurIPS 研讨会 | 2023 | [PUB] | |
表示上的共识优化:通过数据中心正则化改善个性化联邦学习 | NeurIPS 研讨会 | 2023 | [PUB] | |
DPZero: 维度无关的差分隐私零阶优化 | NeurIPS 研讨会 | 2023 | [PUB] | |
利用基础模型提升轻量客户端在联邦学习中的表现 | NeurIPS 研讨会 | 2023 | [PUB] | |
FedML-HE: 基于同态加密的高效隐私保护联邦学习系统 | NeurIPS 研讨会 | 2023 | [PUB] | |
为局部SGD学习优化器 | NeurIPS 研讨会 | 2023 | [PUB] | |
探索具有扩散先验的用户级梯度逆转 | NeurIPS 研讨会 | 2023 | [PUB] | |
大型语言模型上的用户推理攻击 | NeurIPS 研讨会 | 2023 | [PUB] | |
FedLDA: 通过协作线性判别分析实 现个性化联邦学习 | NeurIPS 研讨会 | 2023 | [PUB] | |
异质化LoRA用于设备端基础模型的联邦微调 | NeurIPS 研讨会 | 2023 | [PUB] | |
来自被破坏基础模型的联邦学习后门威胁 | NeurIPS 研讨会 | 2023 | [PUB] | |
MOFL/D: 具有分解的联邦多目标学习框架 | NeurIPS 研讨会 | 2023 | [PUB] | |
绝对变化距离:一种用于联邦学习逆向攻击的评估指标 | NeurIPS 研讨会 | 2023 | [PUB] | |
Fed3R: 用于强预训练模型的递归岭回归联邦学习 | NeurIPS 研讨会 | 2023 | [PUB] | |
FedFN: 用于缓解联合学习中数据异质性问题的特征归一化 | NeurIPS 研讨会 | 2023 | [PUB] | |
在联合设置中进行私人和个性化直方图估计 | NeurIPS 研讨会 | 2023 | [PUB] | |
联合学习中的聚合–异质性权衡 | 北京大学 | COLT | 2023 | [PUB] |
FLASH: 使用CASH自动化联合学习 | 伦斯勒理工学院 | UAI | 2023 | [PUB] [SUPP] [MATERIAL] |
用于项目推荐的个性化联合领域适应 | AWS AI实验室 | UAI | 2023 | [PUB] [PDF] [SUPP] [MATERIAL] [CODE] |
Fed-LAMB: 层次和维度局部自适应的联合学习 | 百度研究院 | UAI | 2023 | [PUB] [PDF] [SUPP] [MATERIAL] |
使用共识图预训练不同特征模型的联合学习 | IBM研究院 | UAI | 2023 | [PUB] [SUPP] [MATERIAL] [CODE] |
混合客户端选择的快速异质联合学习 | 西北工业大学 | UAI | 2023 | [PUB] [SUPP] [MATERIAL] [PDF] |
学习反演:联邦学习中简单自适应的梯度反演攻击 | 康奈尔大学 | UAI | 2023 | [PUB] [PDF] [SUPP] [MATERIAL] [CODE] |
动态正则化锐度感知最小化在联合学习中:接近全局一致性和平滑景观 | 悉尼大学 | ICML | 2023 | [PUB] [PDF] [SLIDES] |
带有偏压压缩的联合非凸优化中的误差反馈分析:快速收敛和部分参与 | LinkedIn广告 | ICML | 2023 | [PUB] [PDF] |
FedHPO-Bench:联合超参数优化的基准套件 | 阿里巴巴集团 | ICML | 2023 | [PUB] [PDF] [CODE] |
用于分布式不确定性量化的联合保序预测器 | 麻省理工学院 | ICML | 2023 | [PUB] [PDF] [CODE] |
联邦对抗学习:收敛性分析框架 | 不列颠哥伦比亚大学 | ICML | 2023 | [PUB] [PDF] |
在线性草图下恢复联合中重击者 | 谷歌研究院 | ICML | 2023 | [PUB] [PDF] [CODE] |
双重对抗联合赌博机 | 伦敦政治经济学院 | ICML | 2023 | [PUB] [PDF] [CODE] |
在非独立同分布的联合双层学习中实现线性加速 | 加州大学 | ICML | 2023 | [PUB] [PDF] |
一次性联合保序预测 | 巴黎萨克雷大学 | ICML | 2023 | [PUB] [PDF] [CODE] |
联邦在线和赌博机凸优化 | 芝加哥丰田技术研究所 | ICML | 2023 | [PUB] |
用户级差分隐私的联邦线性上下文赌博机 | 宾夕法尼亚州立大学 | ICML | 2023 | [PUB] [PDF] |
垂直联合图神经网络推荐系统 | 新加坡国立大学 | ICML | 2023 | [PUB] [PDF] [CODE] |
通过聚合迭代微分进行通信高效的联合超梯度计算 | 布法罗大学 | ICML | 2023 | [PUB] [PDF] |
探索联合学习中集成蒸馏的理解 | 韩国先 进科学技术研究院 | ICML | 2023 | [PUB] |
个性化子图联合学习 | 韩国先进科学技术研究院 | ICML | 2023 | [PUB] [PDF] [CODE] |
标签偏移下联合不确定性量化的保序预测 | 拉格朗日数学与计算研究中心; CMAP | ICML | 2023 | [PUB] [PDF] |
安全的联合相关性测试和熵估计 | 卡内基梅隆大学 | ICML | 2023 | [PUB] [PDF] |
通过隐含的不变关系实现联合学习中的分布外泛化 | 吉林大学 | ICML | 2023 | [PUB] [CODE] |
分布混合下的个性化联合学习 | 加州大学洛杉矶分校 | ICML | 2023 | [PUB] [PDF] [CODE] |
FedDisco: 差异感知合作的联合学习方法 | 上海交通大学 | ICML | 2023 | [PUB] [PDF] [CODE] |
部分客户端参与的联合学习中的锚点采样 | 普渡大学 | ICML | 2023 | [PUB] [PDF] [CODE] |
用自调压力缩压的私人联合学习 | 约翰·霍普金斯大学; 谷歌 | ICML | 2023 | [PUB] [PDF] |
具有非线性功能理论的快速联合机器学习 | 奥本大学 | ICML | 2023 | [PUB] |
循环客户端参与的联合平均收敛性 | 卡内基梅隆大学 | ICML | 2023 | [PUB] [PDF] |
重新审视神经网络中联合学习的加权聚合 | 浙江大学 | ICML | 2023 | [PUB] [PDF] [CODE] |
联邦Q学习中的异质性福音:线性加速及其延展 | 卡内基梅隆大学 | ICML | 2023 | [PUB] [PDF] [SLIDES] |
GuardHFL: 异质联合学习的隐私保护 | 电子科技大学; 南洋理工大学 | ICML | 2023 | [PUB] |
Flash: 联合学习中的概念漂移适应 | 马萨诸塞大学 | ICML | 2023 | [PUB] |
DoCoFL: 跨设备联合学习的下行压缩 | VMware研究; 以色列理工学院 | ICML | 2023 | [PUB] [PDF] |
FeDXL: Provable Federated Learning for Deep X-Risk Optimization | 德州农工大学 | ICML | 2023 | [PUB] [PDF] [CODE] |
No One Idles: Efficient Heterogeneous Federated Learning with Parallel Edge and Server Computation | 哈尔滨工业大学 | ICML | 2023 | [PUB] [CODE] |
Personalized Federated Learning with Inferred Collaboration Graphs | 上海交通大学 | ICML | 2023 | [PUB] [CODE] |
Optimizing the Collaboration Structure in Cross-Silo Federated Learning | 伊利诺伊大学厄巴纳香槟分校 | ICML | 2023 | [PUB] [PDF] [CODE] [SLIDES] |
TabLeak: Tabular Data Leakage in Federated Learning | 瑞士苏黎世联邦理工学院 | ICML | 2023 | [PUB] [PDF] [CODE] |
FedCR: Personalized Federated Learning Based on Across-Client Common Representation with Conditional Mutual Information Regularization | 上海交通大学 | ICML | 2023 | [PUB] [CODE] |
Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated Learning via Class-Imbalance Reduction | 杜克大学 | ICML | 2023 | [PUB] [PDF] |
Privacy-Aware Compression for Federated Learning Through Numerical Mechanism Design | Meta AI | ICML | 2023 | [PUB] [PDF] [CODE] |
SRATTA: Sample Re-ATTribution Attack of Secure Aggregation in Federated Learning | Owkin Inc. | ICML | 2023 | [PUB] [PDF] [CODE] |
Improving the Model Consistency of Decentralized Federated Learning | 清华大学 | ICML | 2023 | [PUB] [PDF] |
Efficient Personalized Federated Learning via Sparse Model-Adaptation | 阿里巴巴集团 | ICML | 2023 | [PUB] [PDF] [CODE] |
From Noisy Fixed-Point Iterations to Private ADMM for Centralized and Federated Learning | 里尔大学 | ICML | 2023 | [PUB] [PDF] [CODE] |
LeadFL: Client Self-Defense against Model Poisoning in Federated Learning | 达姆施塔特工业大学 | ICML | 2023 | [PUB] [CODE] |
Chameleon: Adapting to Peer Images for Planting Durable Backdoors in Federated Learning | 香港科技大学 | ICML | 2023 | [PUB] [PDF] [CODE] |
FedVS: Straggler-Resilient and Privacy-Preserving Vertical Federated Learning for Split Models | 香港科技大学 | ICML | 2023 | [PUB] [PDF] |
FedBR: Improving Federated Learning on Heterogeneous Data via Local Learning Bias Reduction | 香港中文大学;深圳人工智能与机器人研究院 | ICML | 2023 | [PUB] [PDF] [CODE] |
Towards Unbiased Training in Federated Open-world Semi-supervised Learning | 香港理工大学 | ICML | 2023 | [PUB] [PDF] [SLIDES] |
Cocktail Party Attack: Breaking Aggregation-Based Privacy in Federated Learning Using Independent Component Analysis | 佐治亚理工学院;Meta AI | ICML | 2023 | [PUB] [PDF] |
Surrogate Model Extension (SME): A Fast and Accurate Weight Update Attack on Federated Learning | 鲁汶大学 | ICML | 2023 | [PUB] [PDF] [CODE] |
Fair yet Asymptotically Equal Collaborative Learning | 新加坡国立大学 | ICML | 2023 | [PUB] [PDF] [CODE] |
Sketching for First Order Method: Efficient Algorithm for Low-Bandwidth Channel and Vulnerability | Adobe研究院 | ICML | 2023 | [PUB] [PDF] |
Adversarial Collaborative Learning on Non-IID Features | 加州大学伯克利分校; 新加坡国立大学 | ICML | 2023 | [PUB] |
XTab: Cross-table Pretraining for Tabular Transformers | 洛桑联邦理工学院;康奈尔大学;AWS | ICML | 2023 | [PUB] [PDF] [CODE] |
Momentum Ensures Convergence of SIGNSGD under Weaker Assumptions | 国防科技大学 | ICML | 2023 | [PUB] |
Byzantine-Robust Learning on Heterogeneous Data via Gradient Splitting | 浙江省智能计算大数据重点实验室;浙江大学;索尼AI研究所 | ICML | 2023 | [PUB] [PDF] [CODE] |
LESS-VFL: Communication-Efficient Feature Selection for Vertical Federated Learning | 伦斯勒理工学院 | ICML | 2023 | [PUB] [PDF] |
FedAvg Converges to Zero Training Loss Linearly for Overparameterized Multi-Layer Neural Networks | 明尼苏达大学 | ICML | 2023 | [PUB] |
Addressing Budget Allocation and Revenue Allocation in Data Market Environments Using an Adaptive Sampling Algorithm | 芝加哥大学 | ICML | 2023 | [PUB] [PDF] [CODE] |
Ensemble and continual federated learning for classification tasks. | 圣地亚哥德孔波斯特拉大学 | Mach Learn | 2023 | [PUB] [PDF] |
FAC-fed: Federated adaptation for fairness and concept drift aware stream classification | 汉诺威大学 | Mach Learn | 2023 | [PUB] |
Robust federated learning under statistical heterogeneity via hessian-weighted aggregation | 迪肯大学 | Mach Learn | 2023 | [PUB] |
FedLab: A Flexible Federated Learning Framework :fire: | 电子科技大学;鹏城实验室 | JMLR | 2023 | [PUB] [PDF] [CODE] |
Memory-Based Optimization Methods for Model-Agnostic Meta-Learning and Personalized Federated Learning | 德州农工大学 | JMLR | 2023 | [PUB] [PDF] [CODE] |
A First Look into the Carbon Footprint of Federated Learning | 剑桥大学 | JMLR | 2023 | [PUB] [PDF] |
Attacks against Federated Learning Defense Systems and their Mitigation | 纽卡斯尔大学 | JMLR | 2023 | [PUB] [CODE] |
A General Theory for Federated Optimization with Asynchronous and Heterogeneous Clients Updates | 蓝色海岸大学 | JMLR | 2023 | [PUB] [PDF] [CODE] |
Tighter Regret Analysis and Optimization of Online Federated Learning | 汉阳大学 | TPAMI | 2023 | [PUB] [PDF] |
Efficient Federated Learning Via Local Adaptive Amended Optimizer With Linear Speedup | 悉尼大学 | TPAMI | 2023 | [PDF] |
Federated Learning Via Inexact ADMM. | 北京交通大学 | TPAMI | 2023 | [PUB] [PDF] [CODE] |
FedIPR: 联邦深度神经网络模型的所有权验证 | SJTU | TPAMI | 2023 | [PUB] [PDF] [CODE] [解读] |
去中心化的联邦平均 | NUDT | TPAMI | 2023 | [PUB] [PDF] |
基于特征对齐和分类器协作的个性化联邦学习 | THU | ICLR | 2023 | [PUB] [CODE] |
MocoSFL: 实现跨客户端协同自监督学习 | ASU | ICLR | 2023 | [PUB] [CODE] |
联邦学习的一次性通用超参数优化 | IBM | ICLR | 2023 | [PUB] [PDF] [CODE] |
从哪里开始? 探讨联邦学习中的预训练和初始设置的影响 | ICLR | 2023 | [PUB] [PDF] [CODE] | |
FedExP: 通过外推加速联邦平均 | CMU | ICLR | 2023 | [PUB] [PDF] [CODE] |
将联邦学习中的异质性难题转化为OOD检测的福祉 | MSU | ICLR | 2023 | [PUB] [CODE] |
DASHA: 带通信压缩和最优Oracle复杂度的分布式非凸优化 | KAUST | ICLR | 2023 | [PUB] [PDF] [CODE] |
联邦集群的机器遗忘 | 伊利诺伊大学 | ICLR | 2023 | [PUB] [PDF] [CODE] |
联邦神经带 | NUS | ICLR | 2023 | [PUB] [PDF] [CODE] |
FedFA: 联邦特征增强 | 苏黎世联邦理工学院 | ICLR | 2023 | [PUB] [PDF] [CODE] |
联邦学习即变分推断:一种可扩展的期望传播方法 | CMU | ICLR | 2023 | [PUB] [PDF] [CODE] |
更佳生成再现的连续联邦学习 | 弗吉尼亚大学 | ICLR | 2023 | [PUB] [CODE] |
小规模数据集的联邦学习 | IKIM | ICLR | 2023 | [PUB] [PDF] |
联邦最近邻机器翻译 | 中科大 | ICLR | 2023 | [PUB] [PDF] |
用于联邦学习的元知识凝缩 | A*STAR | ICLR | 2023 | [PUB] [PDF] |
联邦学习的测试时间鲁棒个性化 | EPFL | ICLR | 2023 | [PUB] [PDF] [CODE] |
DepthFL : 针对异构客户端的深度联邦学习 | SNU | ICLR | 2023 | [PUB] |
解决一次性联邦学习中的标签偏斜问题 | NUS | ICLR | 2023 | [PUB] [CODE] |
理解和减轻异构联邦学习中的维度崩塌 | NUS | ICLR | 2023 | [PUB] [PDF] [CODE] |
联邦学习中的淘金:在任意大规模聚合下的目标文本提取 | UMD | ICLR | 2023 | [PUB] [CODE] |
SWIFT: 通过无等待模型通信实现快速去中心化联邦学习 | UMD | ICLR | 2023 | [PUB] [PDF] [CODE] |
无可信服务器的私密联邦学习:凸损失的最优算法 | USC | ICLR | 2023 | [PUB] [PDF] [CODE] |
针对过度参数化模型的联邦学习中的被动成员推断攻击 | 普渡大学 | ICLR | 2023 | [PUB] |
FiT: 用于个性化和联邦图像分类的参数高效小样本迁移学习 | 剑桥大学 | ICLR | 2023 | [PUB] [PDF] [CODE] |
通过对比表示集成的多模态联邦学习 | THU | ICLR | 2023 | [PUB] [PDF] [CODE] |
二阶相似性下更快的联邦优化 | 普林斯顿大学 | ICLR | 2023 | [PUB] [PDF] [CODE] |
FedSpeed: 更大的本地间隔、较少的通信轮次和更高的泛化精度 | 悉尼大学 | ICLR | 2023 | [PUB] [CODE] |
双重优势:通过数据无关的超知识蒸馏在联邦学习中实现准确的全局和个性化模型 | 德克萨斯大学 | ICLR | 2023 | [PUB] [PDF] [CODE] |
PerFedMask: 通过优化掩码向量实现个性化联邦学习 | UBC | ICLR | 2023 | [PUB] [CODE] |
EPISODE: 带周期性重采样校正的联邦学习逐段梯度裁剪 | GMU | ICLR | 2023 | [PUB] [CODE] |
FedDAR: 联邦领域感知表示学习 | 哈佛大学 | ICLR | 2023 | [PUB] [PDF] [CODE] |
仅共享表示:保证联邦学习中隐私效用权衡的改进 | 宾夕法尼亚大学 | ICLR | 2023 | [PUB] [CODE] |
FLIP: 用于后门干扰缓解的可证明防御框架 | 普渡大学 | ICLR | 2023 | [PUB] [PDF] [CODE] |
联邦学习的泛化界限:快速速率、不参与的客户端和无限损失 | RUC | ICLR | 2023 | [PUB] |
高效的联邦领域转换 | 普渡大学 | ICLR | 2023 | [PUB] [CODE] |
预训练在联邦学习中的重要性和适用性 | OSU | ICLR | 2023 | [PUB] [PDF] [CODE] |
诈骗者:在联邦学习语言模型中,破坏隐私的变压器 | UMD | ICLR | 2023 | [PUB] [PDF] [CODE] |
个性化联邦学习和估计的统计框架:理论、算法和隐私 | UCLA | ICLR | 2023 | [PUB] [PDF] |
联邦学习中的实例级批标签恢复方法 | 北京航空航天大学 | ICLR | 2023 | [PUB] [CODE] |
在高统计异质性下的数据无模型一次性联邦学习 | 威廉与玛丽学院 | ICLR | 2023 | [PUB] |
CANIFE:在联邦学习中制作金丝雀进行实证隐私测量 | 华威大学 | ICLR | 2023 | [PUB] [PDF] [CODE] |
用于通信效率的稀疏随机网络联邦学习 | Stanford | ICLR | 2023 | [PUB] [PDF] [CODE] |
解决加剧的异质性以打造强健的分散模型 | 香港浸会大学 | ICLR | 2023 | [PUB] [CODE] |
通过神经网络划分进行超参数优化 | 剑桥大学 | ICLR | 2023 | [PUB] [PDF] |
非独立同分布无标签数据的分散学习是否从自监督中受益? | 麻省理工学院 | ICLR | 2023 | [PUB] [PDF] [CODE] |
方差缩减是拜占庭问题的解药:更好的速率、更弱的假设和通信压缩只是锦上添花 | mbzuai | ICLR | 2023 | [PUB] [PDF] [CODE] |
用于图像到图像翻译的双重扩散隐式桥接 | Stanford | ICLR | 2023 | [PUB] [PDF] [CODE] |
一个准确、可扩展和可验证的联邦差分隐私平均协议 | INRIA Lille | Mach Learn | 2022 | [PUB] [PDF] |
联邦在线聚类带梯度的多臂赌博问题 | CUHK | UAI | 2022 | [PUB] [PDF] [CODE] |
隐私感知压缩用于联邦数据分析 | Meta AI | UAI | 2022 | [PUB] [PDF] [CODE] |
通过全局和局部动量加速非凸联邦学习 | UTEXAS | UAI | 2022 | [PUB] [PDF] |
Fedvarp:解决联邦学习中部分客户端参与引起的方差 | CMU | UAI | 2022 | [PUB] [PDF] |
基于SHPRG的联邦学习高效安全聚合 | CAS; CASTEST | UAI | 2022 | [PUB] [PDF] |
从观测数据中进行因果效应的贝叶斯联邦估计 | 新加坡国立大学 | UAI | 2022 | [PUB] [PDF] |
面向多核在线联邦学习的通信高效随机算法 | 汉阳大学 | TPAMI | 2022 | [PUB] |
量化梯度创新的通信高效联邦学习 | 浙江大学 | TPAMI | 2022 | [PUB] [CODE] |
通过加速原对偶算法进行通信加速以实现局部梯度方法 | 莫斯科物理技术学院 | NeurIPS | 2022 | [PUB] [PDF] |
LAMP:使用深度模型先验从梯度中提取文本 | 苏黎世联邦理工学院 | NeurIPS | 2022 | [PUB] [CODE] |
联邦平均与微调:本地更新导致表征学习 | 德克萨斯大学 | NeurIPS | 2022 | [PUB] [PDF] |
FedProx的收敛性:局部相似性不变界限、非平滑性及其他 | 南京信息工程大学 | NeurIPS | 2022 | [PUB] [PDF] |
通过自适应流中的最优线性算子改进SGD差分隐私 | 威斯康星大学 | NeurIPS | 2022 | [PUB] [CODE] |
通过通信网络上的分散算法进行双层优化 | 哥伦比亚大学 | NeurIPS | 2022 | [PUB] [PDF] |
投影随机近似的渐近行为:跳跃扩散的视角 | 北京大学 | NeurIPS | 2022 | [PUB] |
非各向同性噪音下的异构数据子空间恢复 | Stanford | NeurIPS | 2022 | [PUB] [PDF] |
EF-BV:有偏和无偏压缩分布式优化的误差反馈和方差缩减机制的统一理论 | KAUST | NeurIPS | 2022 | [PUB] [PDF] |
按需采样:从多个分布中最优学习 | 加州大学伯 克利分校 | NeurIPS | 2022 | [PUB] [CODE] |
改进私有计数草图的效用分析 | ITU | NeurIPS | 2022 | [PUB] [PDF] [CODE] |
用于分布学习的速率-失真理论界限 | 华为 | NeurIPS | 2022 | [PUB] [CODE] |
分散的局部随机梯度外梯度法用于变分不等式 | 莫斯科物理技术学院 | NeurIPS | 2022 | [PUB] [PDF] |
BEER:带通信压缩的分散非凸优化的快速 O(1/T) 速率 | Princeton | NeurIPS | 2022 | [PUB] [PDF] [CODE] |
通过偏差-方差减少的局部扰动SGD在通信高效非凸分布学习中逃离鞍点 | 东京大学 | NeurIPS | 2022 | [PUB] [PDF] |
副本间的近似最优协同学习 | INRIA; Inserm | NeurIPS | 2022 | [PUB] [PDF] [CODE] |
带有理论保证的分布式变分不等式压缩通信方法 | 莫斯科物理技术学 院 | NeurIPS | 2022 | [PUB] [PDF] |
连续非凸优化中的最优通信复杂度 | TTIC | NeurIPS | 2022 | [PUB] [CODE] |
FedPop:个性化联邦学习的贝叶斯方法 | Skoltech | NeurIPS | 2022 | [PUB] [PDF] |
通过核心稳定性在联邦学习中实现公平性 | UIUC | NeurIPS | 2022 | [PUB] [CODE] |
SecureFedYJ:一种用于联邦学习的安全特征高斯化协议 | 索邦大学 | NeurIPS | 2022 | [PUB] [PDF] |
FedRolex:滚动子模型提取的模型异构联邦学习 | 密歇根州立大学 | NeurIPS | 2022 | [PUB] [CODE] |
样本优化在个性化协作学习和联邦学习中的应用 | INRIA | NeurIPS | 2022 | [PUB] |
DReS-FL: 通过秘密数据共享在非独立同分布客户端上实现抗丢包安全联邦学习 | 香港科技大学 | NeurIPS | 2022 | [PUB] [PDF] |
FairVFL: 基于对抗学习的公平垂直联邦学习框架 | 清华大学 | NeurIPS | 2022 | [PUB] |
方差减少的ProxSkip: 算法、理论及其在联邦学习中的应用 | 沙特阿卜杜拉国王科技大学 | NeurIPS | 2022 | [PUB] [PDF] |
VF-PS: 如何选择重要参与者在垂直联邦学习中,高效且安全? | 武汉大学 | NeurIPS | 2022 | [PUB] [CODE] |
DENSE: 数据无关的一次性联邦学习 | 浙江大学 | NeurIPS | 2022 | [PUB] [PDF] |
CalFAT: 具有标签偏移的校准联邦对抗训练 | 浙江大学 | NeurIPS | 2022 | [PUB] [PDF] |
SAGDA: 在联邦Min-Max学习中实现O(ϵ−2)通信复杂度 | 俄亥俄州立大学 | NeurIPS | 2022 | [PUB] [PDF] |
在联邦学习中控制胖尾噪声 | 俄亥俄州立大学 | NeurIPS | 2022 | [PUB] [PDF] |
个性化联邦学习以提高通信效率、鲁棒性和公平性 | 北京大学 | NeurIPS | 2022 | [PUB] |
热数据和冷数据特征的联邦子模型优化 | 上海交通大学 | NeurIPS | 2022 | [PUB] |
BooNTK: 使用自举神经切线核凸化联邦学习 | 加州大学伯克利分校 | NeurIPS | 2022 | [PUB] [PDF] |
适用于流数据的拜占廷容错联邦高斯过程回归 | 宾夕法尼亚州立大学 | NeurIPS | 2022 | [PUB] [CODE] |
SoteriaFL: 带有通信压缩的隐私联邦学习统一框架 | 卡内基梅隆大学 | NeurIPS | 2022 | [PUB] [PDF] |
适用于垂直联邦学习的核集合方法:正则线性回归和K均值聚类 | 耶鲁大学 | NeurIPS | 2022 | [PUB] [PDF] [CODE] |
通信高效的广义线性绷带联邦学习 | 弗吉尼亚大学 | NeurIPS | 2022 | [PUB] [CODE] |
在语言模型的联邦学习中恢复私有文本 | 普林斯顿大学 | NeurIPS | 2022 | [PUB] [PDF] [CODE] |
从预训练模型进行联邦学习:对比学习方法 | 悉尼科技大学 | NeurIPS | 2022 | [PUB] [PDF] |
混合回归联邦学习的全局收敛性 | 东北大学 | NeurIPS | 2022 | [PUB] [PDF] |
资源自适应联邦学习的一体化神经合成 | 约翰霍普金斯大学 | NeurIPS | 2022 | [PUB] |
自适应个性化联邦学习 | 亚马逊 | NeurIPS | 2022 | [PUB] [PDF] |
具有线性收敛性和通信高效的联邦极小极大学习算法 | 东北大学 | NeurIPS | 2022 | [PUB] [PDF] |
一个联邦学习的异质因果效应的自适应核方法 | 新加坡国立大学 | NeurIPS | 2022 | [PUB] |
对异步随机梯度下降在分布式和联邦学习中的更精准收敛保证 | 洛桑联邦理工学院 | NeurIPS | 2022 | [PUB] [PDF] |
个性化在线联邦多核学习 | 加州大学尔湾分校 | NeurIPS | 2022 | [PUB] |
SemiFL: 通过交替训练对无标签客户端进行半监督联邦学习 | 杜克大学 | NeurIPS | 2022 | [PUB] [PDF] [CODE] |
具有任意客户端参与的联邦学习 统一分析 | IBM | NeurIPS | 2022 | [PUB] [PDF] |
非真实蒸馏在联邦学习中保护全局知识 | 韩国科学技术院 | NeurIPS | 2022 | [PUB] [PDF] [CODE] |
FedSR: 一种简单而有效的联邦学习领域泛化方法 | 牛津大学 | NeurIPS | 2022 | [PUB] [CODE] |
Factorized-FL: 基于参数因子分解和相似性匹配的个性化联邦学习 | 韩国科学技术院 | NeurIPS | 2022 | [PUB] [PDF] [CODE] |
一种简单且高效的异步联邦情景线性绷带算法 | 加州大学 | NeurIPS | 2022 | [PUB] [PDF] |
学习攻击联邦学习:一种基于模型的强化学习攻击框架 | 杜兰大学 | NeurIPS | 2022 | [PUB] |
在跨数据中心的联邦学习中的隐私和个性化问题 | 卡内基梅隆大学 | NeurIPS | 2022 | [PUB] [PDF] |
一种利用记录相似性设计进行实际垂直联邦学习的方法 | 新加坡国立大学 | NeurIPS | 2022 | [PUB] [PDF] [CODE] |
FLamby: 实际医疗环境中跨数据中心联邦学习的数据集和基准 | Owkin | NeurIPS 数据集和基准 | 2022 | [PUB] [CODE] |
基于树的模型均值方法从异质数据源估计个性化治疗效果 | 匹兹堡大学 | ICML | 2022 | [PUB] [PDF] [CODE] |
快速复合优化和联邦学习中的统计恢复 | 上海交通大学 | ICML | 2022 | [PUB] [PDF] [CODE] |
个性化提高了联邦学习中的隐私-准确权衡 | 纽约大学 | ICML | 2022 | [PUB] [PDF] [CODE] |
安全聚合在差分隐私联邦学习中的基本代价 | 斯坦福大学; Google 研究 | ICML | 2022 | [PUB] [PDF] [CODE] [SLIDE] |
泊松二项机制用于避免偏倚的安全聚合联邦学习 | 斯坦福大学; Google 研究 | ICML | 2022 | [PUB] [PDF] [CODE] |
DisPFL: 通过去中心化稀疏训练实现通信高效的个性化联邦学习 | 中国科学技术大学 | ICML | 2022 | [PUB] [PDF] [CODE] |
FedNew: 一种高效通信和隐私保护的 Newton 型联邦学习方法 | 奥卢大学 | ICML | 2022 | [PUB] [PDF] [CODE] |
DAdaQuant:一种用于高效通信的双自适应量化联邦学习 | 剑桥大学 | ICML | 2022 | [PUB] [PDF] [SLIDE] [CODE] |
通过解耦自适应优化加速联邦学习 | 奥本大学 | ICML | 2022 | [PUB] [PDF] |
联邦强化学习:马尔可夫采样下的线性加速 | 乔治亚理工学院 | ICML | 2022 | [PUB] [PDF] |
联邦学习的多级分支正则化 | 首尔国立大学 | ICML | 2022 | [PUB] [PDF] [CODE] [PAGE] |
FedScale:大规模联邦学习的模型和系统性能基准 :fire: | 密歇根大学 | ICML | 2022 | [PUB] [PDF] [CODE] |
使用阳性和未标记数据的联邦学习 | 西安交通大学 | ICML | 2022 | [PUB] [PDF] [CODE] |
通过图匹配融合深度神经网络,用于模型集成和联邦学习 | 上海交通大学 | ICML | 2022 | [PUB] [CODE] |
Orchestra:通过全局一致聚类实现无监督联邦学习 | 密歇根大学 | ICML | 2022 | [PUB] [PDF] [CODE] |
通过不变聚合和多样性传递解决属性偏差的解耦联邦学习 | 中国科学技术大学 | ICML | 2022 | [PUB] [PDF] [CODE] [SLIDE] [解读] |
神经网络架构无关的联邦学习 | 德克萨斯大学奥斯汀分校 | ICML | 2022 | [PUB] [PDF] [SLIDE] |
通过本地记忆实现个性化联邦学习 | 法国国家信息与自动化研究所 | ICML | 2022 | [PUB] [PDF] [CODE] |
临近和联邦随机洗牌 | 沙特阿卜杜拉国王科技大学 | ICML | 2022 | [PUB] [PDF] [CODE] |
使用部分模型个性化的联邦学习 | 华盛顿大学 | ICML | 2022 | [PUB] [PDF] [CODE] |
通过锐度感知最小化实现广义联邦学习 | 南佛罗里达大学 | ICML | 2022 | [PUB] [PDF] |
FedNL:使 Newton 型方法适用于联邦学习 | 沙特阿卜杜拉国王科技大学 | ICML | 2022 | [PUB] [PDF] [VIDEO] [SLIDE] |
联邦极小极大优化:改进的收敛分析和算法 | 卡内基梅隆大学 | ICML | 2022 | [PUB] [PDF] [SLIDE] |
虚拟同质性学习:在联邦学习中防御数据异质性 | 香港浸会大学 | ICML | 2022 | [PUB] [PDF] [CODE] [解读] |
FedNest:联邦双层优化、极小极大优化和成分优化 | 密歇根大学 | ICML | 2022 | [PUB] [PDF] [CODE] |
EDEN:高效通信和鲁棒的联邦学习分布式均值估计 | VMware 研究院 | ICML | 2022 | [PUB] [PDF] [CODE] |
高效通信的自适应联邦学习 | 宾夕法尼亚州立大学 | ICML | 2022 | [PUB] [PDF] |
ProgFed:通过渐进训练实现高效通信和计算的联邦学习 | 德国信息安全研究中心 | ICML | 2022 | [PUB] [PDF] [SLIDE] [CODE] |
在大批量联邦学习中,通过梯度放大钓取用户数据 :fire: | 马里兰大学 | ICML | 2022 | [PUB] [PDF] [CODE] |
无秩序的联邦学习 | 俄亥俄州立大学 | ICML | 2022 | [PUB] [PDF] |
QSFL:一种两级上行通信优化联邦学习框架 | 南开大学 | ICML | 2022 | [PUB] [CODE] |
带有渐进权重反量化的位宽异质性联邦学习 | 韩国科学技术院 | ICML | 2022 | [PUB] [PDF] |
使用神经切线核增强联邦学习 | 北卡罗来纳州立大学 | ICML | 2022 | [PUB] [PDF] [CODE] |
理解联邦学习中的修剪:收敛性和客户级差分隐私 | 明尼苏达大学 | ICML | 2022 | [PUB] [PDF] |
通过变分贝叶斯推断实现个性化联邦学习 | 中国科学院 | ICML | 2022 | [PUB] [PDF] [SLIDE] [UC.] |
通过对数校准解决标签分布偏差的联邦学习 | 浙江大学 | ICML | 2022 | [PUB] |
Neurotoxin:联邦学习中具有持久性的后门 | 东南大学; 普林斯顿大学 | ICML | 2022 | [PUB] [PDF] [CODE] |
异质联邦系统的高效通信和鲁棒学习 | 密歇根州立大学 | ICML | 2022 | [PUB] |
Minibatch vs Local SGD with Shuffling:严格收敛边界及其他 | 韩国科学技术院 | ICLR (oral) | 2022 | [PUB] [CODE] |
梯度泄露的贝叶斯框架 | 苏黎世联邦理工学院 | ICLR | 2022 | [PUB] [PDF] [CODE] |
仅通过标签数据和类条件共享客户端进行联邦学习 | 东京大学; 香港中文大学 | ICLR | 2022 | [PUB] [CODE] |
FedChain:用于联邦学习的链式算法,近乎最优的通信成本 | 卡内基梅隆大学; 伊利诺伊大学香槟分校; 华盛顿大学 | ICLR | 2022 | [PUB] [PDF] |
联邦学习加速与缓解本地训练遗忘 | 清华大学 | ICLR | 2022 | [PUB] [PDF] [CODE] |
FedPara: 低秩哈达玛积用于高效通信的联邦学习 | POSTECH | ICLR | 2022 | [PUB] [PDF] [CODE] |
一种针对类别不平衡的无偏见联邦学习方法 | 宾夕法尼亚大学 | ICLR | 2022 | [PUB] [CODE] |
高效分裂混合联邦学习用于按需和现场定制 | 密歇根州立大学; 德克萨斯大学奥斯汀分校 | ICLR | 2022 | [PUB] [PDF] [CODE] |
攻击联邦:通过修改模型直接获取私有数据 :fire: | 马里兰大学; 纽约大学 | ICLR | 2022 | [PUB] [PDF] [CODE] |
ZeroFL: 利用局部稀疏性实现高效的设备端联邦学习训练 | 剑桥大学; 牛津大学 | ICLR | 2022 | [PUB] [PDF] |
通过子模最大化实现多样化客户端选择的联邦学习 | 英特尔; 卡内基梅隆大学 | ICLR | 2022 | [PUB] [CODE] |
联邦学习中模型更新的再利用:梯度子空间是否低秩? | 普渡大学 | ICLR | 2022 | [PUB] [PDF] [CODE] |
白天还是黑夜?联邦学习从周期性变化的分布中学习多分支网络 :fire: | 马里兰大学; 谷歌 | ICLR | 2022 | [PUB] [CODE] |
通过知识蒸馏实现模型无关的联邦学习 | 洛桑联邦理工学院 | ICLR | 2022 | [PUB] [PDF] [CODE] |
分歧感知的联邦自监督学习 | 南洋理工大学; 商汤科技 | ICLR | 2022 | [PUB] [PDF] [CODE] |
我们在联邦学习中的泛化是什么意思? :fire: | 斯坦福大学; 谷歌 | ICLR | 2022 | [PUB] [PDF] [CODE] |
FedBABU: 朝着增强联邦图像分类表示迈进 | 韩国科学技术院 | ICLR | 2022 | [PUB] [PDF] [CODE] |
通过分桶实现拜占庭鲁棒学习在非均匀数据集上的应用 | 洛桑联邦理工学院 | ICLR | 2022 | [PUB] [PDF] [CODE] |
通过隐私无关的集群提升 联邦学习人脸识别性能 | Aibee | ICLR Spotlight | 2022 | [PUB] [PDF] [PAGE] [解读] |
异构通信中的混合本地SGD用于联邦学习 | 德克萨斯大学; 宾夕法尼亚州立大学 | ICLR | 2022 | [PUB] |
在联邦学习中桥接通用和个性化图像分类 | 俄亥俄州立大学 | ICLR | 2022 | [PUB] [PDF] [CODE] |
小批量与局部SGD及其洗牌:严格的收敛界限及其超越 | 韩国科学技术院; 麻省理工学院 | ICLR | 2022 | [PUB] [PDF] |
一次性联邦学习:理论极限及实现它们的算法 | JMLR | 2021 | [PUB] [CODE] | |
低带宽设备的受限差分隐私联邦学习 | UAI | 2021 | [PUB] [PDF] | |
基于动态正则化的联邦随机梯度朗之万动力学 | UAI | 2021 | [PUB] [PDF] | |
基于动态正则化的联邦学习 | 波士顿大学; ARM | ICLR | 2021 | [PUB] [PDF] [CODE] |
在不独立同分布的联邦学习中通过部分参与工人实现线性加速 | 俄亥俄州立大学 | ICLR | 2021 | [PUB] [PDF] |
HeteroFL: 面向异构客户的计算和通信高效联邦学习 | 杜克大学 | ICLR | 2021 | [PUB] [PDF] [CODE] |
FedMix: 平均增强联邦学习下的Mixup近似 | 韩国科学技术院 | ICLR | 2021 | [PUB] [PDF] |
通过后验平均实现联邦学习:新视角与实用算法 :fire: | 卡内基梅隆大学; 谷歌 | ICLR | 2021 | [PUB] [PDF] [CODE] |
自适应联邦优化 :fire: | 谷歌 | ICLR | 2021 | [PUB] [PDF] [CODE] |
使用一阶模型优化的个性化联邦学习 | 斯坦福大学; NVIDIA | ICLR | 2021 | [PUB] [PDF] [CODE] [UC.] |
FedBN: 通过局部批量归一化实现非独立同分布特征的联邦学习 :fire: | 普林斯顿大学 | ICLR | 2021 | [PUB] [PDF] [CODE] |
FedBE: 将贝叶斯模型集成应用于联邦学习 | 俄亥俄州立大学 | ICLR | 2021 | [PUB] [PDF] [CODE] |
通过客户间一致性和分离学习实现联邦半监督学习 | 韩国科学技术院 | ICLR | 2021 | [PUB] [PDF] [CODE] |
KD3A: 通过知识蒸馏实现无监督多源去中心域适应 | 浙江大学 | ICML | 2021 | [PUB] [PDF] [CODE] [解读] |
梯度解聚:通过重建用户参与矩阵打破联邦学习中的隐私 | 哈佛大学 | ICML | 2021 | [PUB] [PDF] [VIDEO] [CODE] |
FL-NTK: 基于神经切线核的联邦学习分析框架 | 北京大学; 普林斯顿大学 | ICML | 2021 | [PUB] [PDF] [VIDEO] |
通过超网络实现个性化联邦学习 :fire: | 巴伊兰大学; NVIDIA | ICML | 2021 | [PUB] [PDF] [CODE] [PAGE] [VIDEO] [解读] |
联邦复合优化 | 斯坦福大学; 谷歌 | ICML | 2021 | [PUB] [PDF] [CODE] [VIDEO] [SLIDE] |
利用共享表示进行个性化联邦学习 | 德克萨斯大学奥斯汀分校; 宾夕法尼亚大学 | ICML | 2021 | [PUB] [PDF] [CODE] [VIDEO] |
无数据知识蒸馏用于异构联邦学习 :fire: | 密歇根州立大学 | ICML | 2021 | [PUB] [PDF] [CODE] [VIDEO] |
带有加权跨客户端传输的联邦持续学习 | 韩国科学技术院 | ICML | 2021 | [PUB] [PDF] [CODE] [VIDEO] |
具有固定通信复杂性的异构数据联邦深度AUC最大化 | 爱荷华大学 | ICML | 2021 | [PUB] [PDF] [CODE] [VIDEO] |
偏差-方差减少的本地SGD用于减少异质性的联邦学习 | 东京大学 | ICML | 2021 | [PUB] [PDF] [VIDEO] |
在不共享嵌入的情况下学习用户验证模型的联邦学习 | 高通公司 | ICML | 2021 | [PUB] [PDF] [VIDEO] |
聚类采样: 用于客户选择的低方差和改进的代表性联邦学习 | 埃森哲公司 | ICML | 2021 | [PUB] [PDF] [CODE] [VIDEO] |
Ditto: 通过个性化实现公平和鲁棒的联邦学习 | 卡内基梅隆大学; Facebook AI | ICML | 2021 | [PUB] [PDF] [CODE] [VIDEO] |
异质性致胜:单次联邦聚类 | 卡内基梅隆大学 | ICML | 2021 | [PUB] [PDF] [VIDEO] |
具有安全聚合的联邦学习的分布式离散高斯机制 :fire: | 谷歌 | ICML | 2021 | [PUB] [PDF] [CODE] [VIDEO] |
更正模型更新以改善个性化联邦训练 | 波士顿大学; Arm公司 | ICML | 2021 | [PUB] [CODE] [VIDEO] |
一对一或所有对所有:联邦学习中协作的均衡与最优性 | 丰田公司; 伯克利大学; 康奈尔大学 | ICML | 2021 | [PUB] [PDF] [CODE] [VIDEO] |
CRFL: 经过认证的抗后门攻击的联邦学习 | 伊利诺伊大学厄巴纳-香槟分校; IBM | ICML | 2021 | [PUB] [PDF] [CODE] [VIDEO] |
任意通信模式下的联邦学习 | 印第安纳大学; 亚马逊 | ICML | 2021 | [PUB] [VIDEO] |
CANITA: 具有通信压缩的分布式凸优化的更快速度 | 卡内基梅隆大学 | NeurIPS | 2021 | [PUB] [PDF] |
多源提升 | 谷歌 | NeurIPS | 2021 | [PUB] |
DRIVE: 一位分布式均值估计 | VMware | NeurIPS | 2021 | [PUB] [CODE] |
由梯度驱动的奖励以保证协作机器学习的公平性 | 新加坡国立大学 | NeurIPS | 2021 | [PUB] [CODE] |
使用生成图像先验的梯度逆转 | 韩国科学技术院 | NeurIPS | 2021 | [PUB] [PDF] [CODE] |
稀疏异构数据的分布式机器学习 | 牛津大学 | NeurIPS | 2021 | [PUB] [PDF] |
分布式学习中重采样洗牌模型的Renyi差分隐私 | 加州大学洛杉矶分校 | NeurIPS | 2021 | [PUB] [PDF] |
Sageflow: 针对慢节点和对手的鲁棒联邦学习 | 韩国科学技术院 | NeurIPS | 2021 | [PUB] |
CAFE: 垂直联邦学习中的灾难性数据泄露 | 伦斯勒理工学院; IBM研究院 | NeurIPS | 2021 | [PUB] [CODE] |
具有理论保证的容错联邦强化学习 | 新加坡国立大学 | NeurIPS | 2021 | [PUB] [PDF] [CODE] |
联邦学习中的最优性和稳定性:一种博弈论方法 | 康奈尔大学 | NeurIPS | 2021 | [PUB] [PDF] [CODE] |
QuPeD: 通过蒸馏实现量化个性化及其在联邦学习中的应用 | 加州大学洛杉矶分校 | NeurIPS | 2021 | [PUB] [PDF] [CODE] [解读] |
联邦学习的Skellam机制差分隐私保护 :fire: | 谷歌研究院; 卡内基梅隆大学 | NeurIPS | 2021 | [PUB] [PDF] [CODE] |
无惧异质性:用于非独立同分布数据的联邦学习分类器校准 | 新加坡国立大学; 华为 | NeurIPS | 2021 | [PUB] [PDF] |
STEM: 一种实现近乎最佳样本和通信复杂性的随机双边动量算法 | 明尼苏达大学 | NeurIPS | 2021 | [PUB] [PDF] |
具有缺失邻居生成的子图联合学习 | Emory; 香港大学; 莱海大学 | NeurIPS | 2021 | [论文] [PDF] [代码] [解读] |
在联合学习中评估梯度反演攻击和防御🔥 | Princeton | NeurIPS | 2021 | [论文] [PDF] [代码] |
具有高斯过程的个性化联合学习 | 巴伊兰大学 | NeurIPS | 2021 | [论文] [PDF] [代码] |
具有分布式探索的差分隐私联合贝叶斯优化 | MIT; 新加坡国立大学 | NeurIPS | 2021 | [论文] [PDF] [代码] |
用于个性化联合学习的参数化知识转移 | 香港理工大学 | NeurIPS | 2021 | [论文] [PDF] [代码] |
联合重构:部分本地联合学习🔥 | Google Research | NeurIPS | 2021 | [论文] [PDF] [代码] [UC.] |
在设备不可用情况下的快速联合学习 | 清华大学; 普林斯顿; MIT | NeurIPS | 2021 | [论文] [PDF] [代码] |
FL-WBC:从客户端角度增强联合学习对模型投毒攻击的鲁棒性 | 杜克大学; 埃森哲实验室 | NeurIPS | 2021 | [论文] [PDF] [代码] |
FjORD:在有序丢弃下公平且准确的异构目标联合学习 | 沙特阿卜杜拉国王科技大学; 三星AI中心 | NeurIPS | 2021 | [论文] [PDF] |
在联合学习中的线性收敛:应对客户端异构性和稀疏梯度 | 宾夕法尼亚大学 | NeurIPS | 2021 | [论文] [PDF] [视频] |
集合分布下的联合多任务学习 | 法国国家信息与自动化研究所; 埃森哲实验室 | NeurIPS | 2021 | [论文] [PDF] [代码] |
非独立同分布图的联合图分类 | Emory | NeurIPS | 2021 | [论文] [PDF] [代码] [解读] |
联合超参数调优:挑战、基准和权重共享的联系 | CMU; 惠普企业 | NeurIPS | 2021 | [论文] [PDF] [代码] |
大规模团体训练联合学习🔥 | Google; CMU | NeurIPS | 2021 | [论文] [PDF] [代码] |
DeepReduce:用于联合深度学习的稀疏张量通信框架 | 沙特阿卜杜拉国王科技大学; 哥伦比亚大学; 中佛罗里达大学 | NeurIPS | 2021 | [论文] [PDF] [代码] |
PartialFed:通过部分初始化进行跨域个性化联合学习 | 华为 | NeurIPS | 2021 | [论文] [视频] |
COVID-19胸部X光联合分割非任务视觉转换器 | KAIST | NeurIPS | 2021 | [论文] [PDF] |
在联合学习中解决算法差异和性能不一致 | 清华大学; 阿里巴巴; 威尔康奈尔医学院 | NeurIPS | 2021 | [论文] [PDF] [代码] |
联合线性上下文相关带状 | 宾夕法尼亚州立大学; Facebook; 弗吉尼亚大学 | NeurIPS | 2021 | [论文] [PDF] [代码] |
少轮学习联合学习: | KAIST | NeurIPS | 2021 | [论文] |
打破跨设备联合学习的集中屏障 | EPFL; Google Research | NeurIPS | 2021 | [论文] [代码] [视频] |
具有异构性缓解和方差减少的联合EM | Ecole Polytechnique; Google Research | NeurIPS | 2021 | [论文] [PDF] |
延迟梯度平均:容忍联合学习的通信延迟 | MIT; Amazon; Google | NeurIPS | 2021 | [论文] [主页] [幻灯片] |
FedDR - 随机道格拉斯-拉奇福德拆分算法用于非凸联合复合优化 | 北卡罗来纳大学教堂山分校; IBM Research | NeurIPS | 2021 | [论文] [PDF] [代码] |
联合对抗域适应 | 波士顿大学; 哥伦比亚大学; 罗格斯大学 | ICLR | 2020 | [论文] [PDF] [代码] |
DBA:对联合学习的分布式后门攻击 | 浙江大学; IBM Research | ICLR | 2020 | [论文] [代码] |
联合学习中的公平资源分配🔥 | CMU; Facebook AI | ICLR | 2020 | [论文] [PDF] [代码] |
联合学习匹配平均🔥 | 威斯康星大学麦迪逊分校; IBM Research | ICLR | 2020 | [论文] [PDF] [代码] |
差分隐私元学习 | CMU | ICLR | 2020 | [论文] [PDF] |
生成模型有效进行私有、分散数据集上的机器学习🔥 | ICLR | 2020 | [论文] [PDF] [代码] | |
关于FedAvg在非独立同分布数据上的收敛性 :fire: | 北京大学 | ICLR | 2020 | [PUB] [PDF] [CODE] [解读] |
FedBoost: 一种通信高效的联邦学习算法 | 谷歌 | ICML | 2020 | [PUB] [VIDEO] |
FetchSGD: 使用素描技术的通信高效联邦学习 | UC Berkeley; 约翰霍普金斯大学; 亚马逊 | ICML | 2020 | [PUB] [PDF] [VIDEO] [CODE] |
SCAFFOLD: 联邦学习的随机控制平均 | EPFL; 谷歌 | ICML | 2020 | [PUB] [PDF] [VIDEO] [UC.] [解读] |
仅使用正标签的联邦学习 | 谷歌 | ICML | 2020 | [PUB] [PDF] [VIDEO] |
从本地SGD到本地固定点方法的联邦学习 | 莫斯科物理与技术学院; KAUST | ICML | 2020 | [PUB] [PDF] [SLIDE] [VIDEO] |
分布式和联邦优化中压缩梯度下降的加速 | KAUST | ICML | 2020 | [PUB] [PDF] [SLIDE] [VIDEO] |
差分隐私的联邦线性广告 | 麻省理工学院 | NeurIPS | 2020 | [PUB] [PDF] [CODE] |
联邦主成分分析 | 剑桥大学; Quine技术公司 | NeurIPS | 2020 | [PUB] [PDF] [CODE] |
FedSplit: 一种快速联邦优化的算法框架 | UC Berkeley | NeurIPS | 2020 | [PUB] [PDF] |
通过汤普森采样进行联邦贝叶斯优化 | NUS; 麻省理工学院 | NeurIPS | 2020 | [PUB] [PDF] [CODE] |
个性化联邦学习的下界和最优算法 | KAUST | NeurIPS | 2020 | [PUB] [PDF] |
鲁棒的联邦学习: 仿射分布转变的案例 | UC Santa Barbara; 麻省理工学院 | NeurIPS | 2020 | [PUB] [PDF] [CODE] |
高效的集群联邦学习框架 | UC Berkeley; DeepMind | NeurIPS | 2020 | [PUB] [PDF] [CODE] |
分布鲁棒的联邦平均 :fire: | 宾夕法尼亚州立大学 | NeurIPS | 2020 | [PUB] [PDF] [CODE] |
使用Moreau Envelope的个性化联邦学习 :fire: | 悉尼大学 | NeurIPS | 2020 | [PUB] [PDF] [CODE] |
具有理论保证的个性化联邦学习:一种模型无关的元学习方法 | 麻省理工学院; UT Austin | NeurIPS | 2020 | [PUB] [PDF] [UC.] |
集体知识传递:边缘设备的联邦大规模CNN学习 | 南加州大学 | NeurIPS | 2020 | [PUB] [PDF] [CODE] [解读] |
解决异质联邦优化中的目标不一致问题 :fire: | 卡内基梅隆大学; 普林斯顿大学 | NeurIPS | 2020 | [PUB] [PDF] [CODE] [UC.] |
尾部攻击:是的,你真的可以后门联邦学习 | 威斯康星大学-麦迪逊 | NeurIPS | 2020 | [PUB] [PDF] |
联邦加速随机梯度下降 | 斯坦福大学 | NeurIPS | 2020 | [PUB] [PDF] [CODE] [VIDEO] |
反向梯度——在联邦学习中破坏隐私有多容易? :fire: | 锡根大学 | NeurIPS | 2020 | [PUB] [PDF] [CODE] |
通过集成蒸馏实现联邦学习中的鲁棒模型融合 | EPFL | NeurIPS | 2020 | [PUB] [PDF] [CODE] |
交叉数据中心联邦学习的吞吐量优化拓扑设计 | INRIA | NeurIPS | 2020 | [PUB] [PDF] [CODE] |
贝叶斯非参数联邦学习神经网络 :fire: | IBM | ICML | 2019 | [PUB] [PDF] [CODE] |
通过对抗视角分析联邦学习 :fire: | 普林斯顿大学; IBM | ICML | 2019 | [PUB] [PDF] [CODE] |
不加区分的联邦学习 | 谷歌 | ICML | 2019 | [PUB] [PDF] |
cpSGD: 通信高效且差分隐私的分布式SGD | 普林斯顿大学; 谷歌 | NeurIPS | 2018 | [PUB] [PDF] |
联邦多任务学习 :fire: | 斯坦福大学; 南加州大学; 卡内基梅隆大学 | NeurIPS | 2017 | [PUB] [PDF] [CODE] |
</详情>
被顶级数据挖掘(Data Mining)会议和期刊接收的联邦学习论文,包括KDD(ACM SIGKDD知识发现与数据挖掘会议)和WSDM(Web搜索和数据挖掘)。