AIGC宇宙 AIGC宇宙

ScaleOT框架亮相AAAI 2025:提升隐私保护50%,降算力成本90%

作者:AI在线
2025-02-26 02:13
近日,在全球人工智能顶级学术会议AAAI2025期间,蚂蚁数科、浙江大学、利物浦大学和华东师范大学联合团队提出创新的跨域微调(offsite-tuning)框架——ScaleOT。 该框架能在模型性能无损前提下,将隐私保护效果提升50%,与知识蒸馏技术相比,算力消耗显著降低90%,为百亿级参数模型的跨域微调提供高效轻量化方案,论文因创新性入选AAAI的oral论文(本届大会近13000篇投稿,口头报告比例仅4.6%)。 跨域微调是目前业内保护模型产权与数据隐私的主流方案,通过有损压缩将大模型转换为仿真器,数据持有方基于其训练适配器并返回给大模型完成调优,数据和模型均未出域,可保护双方隐私,但存在局限性:一是“均匀抽积木”式处理易致模型关键层缺失,使性能显著下降;二是用蒸馏技术弥补性能损失,计算成本高;且现有方法隐私保护缺乏灵活性。

近日,在全球人工智能顶级学术会议AAAI2025期间,蚂蚁数科、浙江大学、利物浦大学和华东师范大学联合团队提出创新的跨域微调(offsite-tuning)框架——ScaleOT。该框架能在模型性能无损前提下,将隐私保护效果提升50%,与知识蒸馏技术相比,算力消耗显著降低90%,为百亿级参数模型的跨域微调提供高效轻量化方案,论文因创新性入选AAAI的oral论文(本届大会近13000篇投稿,口头报告比例仅4.6%)。

1740550392653.jpg

跨域微调是目前业内保护模型产权与数据隐私的主流方案,通过有损压缩将大模型转换为仿真器,数据持有方基于其训练适配器并返回给大模型完成调优,数据和模型均未出域,可保护双方隐私,但存在局限性:一是“均匀抽积木”式处理易致模型关键层缺失,使性能显著下降;二是用蒸馏技术弥补性能损失,计算成本高;且现有方法隐私保护缺乏灵活性。

蚂蚁数科技术团队介绍,ScaleOT提出三大创新思路平衡模型性能与隐私安全。一是评估大模型智能层重要性,用强化学习扫描自动识别关键层,动态保留“核心层”降低性能损耗;二是对保留的原始层“打码”,防止攻击者复原原始模型,在性能几乎无损时提升隐私保护强度;三是可根据不同场景灵活组装,实现隐私强度可调节。

解决数据和模型隐私安全问题是大模型在产业界尤其是金融行业落地的重要课题。蚂蚁数科的这一创新算法已融入旗下摩斯大模型隐私保护产品,且成为国内首批通过信通院大模型可信执行环境产品专项测试的产品之一。

相关标签:

相关资讯

蚂蚁数科发布金融智能体开发平台Agentar  内测上线超百个金融MCP服务

4月29日,在数字中国建设峰会期间,蚂蚁数科正式对外发布智能体开发平台Agentar,为金融机构提供一站式、全栈的智能体开发工具,助力金融机构高效打造能够自主决策、可信可靠的金融智能体应用,加速AI技术从“辅助工具”真正成为驱动体验变革、效率跃升的“生产力引擎”。 随着生成式AI的快速发展,行业大模型及智能体应用正在重塑金融服务。 然而,大模型训练成本高昂难以在普惠场景中规模化复制;金融行业数据的高敏感性与安全合规要求;以及金融核心场景数据样本量较小、通用模型在金融专业场景中泛化能力不足等问题都在制约大模型技术在金融行业应用的深度与广度。
4/29/2025 4:00:40 PM
AI在线

李飞飞谢赛宁新作「空间推理」:多模态大模型性能突破关键所在

李飞飞谢赛宁再发新成果:直接把o1式思考拉至下一个level——多模态大语言模型的空间思维! 这项研究系统评估了多模态大模型的视觉空间智能,结果发现:当前,即使是最先进的多模态大模型,在空间认知方面与人类相比仍有显著差距,测试中约71%的错误都源于空间推理方面的缺陷,即空间推理能力是当前主要瓶颈。 图片更为有趣的是,在这种情况下,思维链、思维树等常用的语言提示技术直接失灵了——不仅没有提升模型在空间任务上的表现,反而会使性能下降。
12/23/2024 12:37:34 PM

明确了:文本数据中加点代码,训练出的大模型更强、更通用

代码知识原来这么重要。如今说起大语言模型(LLM),写代码能力恐怕是「君子六艺」必不可少的一项。在预训练数据集中包含代码,即使对于并非专门为代码设计的大模型来说,也已是必不可少的事。虽然从业者们普遍认为代码数据在通用 LLM 的性能中起着至关重要的作用,但分析代码对非代码任务的精确影响的工作却非常有限。在最近由 Cohere 等机构提交的一项工作中,研究者系统地研究了代码数据对通用大模型性能的影响。论文链接:「预训练中使用的代码数据对代码生成以外的各种下游任务有何影响」。作者对范围广泛的自然语言推理任务、世界知识任
8/22/2024 6:20:00 PM
机器之心
  • 1