ScaleOT框架亮相AAAI 2025:提升隐私保护50%,降算力成本90%

近日,在全球人工智能顶级学术会议AAAI2025期间,蚂蚁数科、浙江大学、利物浦大学和华东师范大学联合团队提出创新的跨域微调(offsite-tuning)框架——ScaleOT。 该框架能在模型性能无损前提下,将隐私保护效果提升50%,与知识蒸馏技术相比,算力消耗显著降低90%,为百亿级参数模型的跨域微调提供高效轻量化方案,论文因创新性入选AAAI的oral论文(本届大会近13000篇投稿,口头报告比例仅4.6%)。 跨域微调是目前业内保护模型产权与数据隐私的主流方案,通过有损压缩将大模型转换为仿真器,数据持有方基于其训练适配器并返回给大模型完成调优,数据和模型均未出域,可保护双方隐私,但存在局限性:一是“均匀抽积木”式处理易致模型关键层缺失,使性能显著下降;二是用蒸馏技术弥补性能损失,计算成本高;且现有方法隐私保护缺乏灵活性。

近日,在全球人工智能顶级学术会议AAAI2025期间,蚂蚁数科、浙江大学、利物浦大学和华东师范大学联合团队提出创新的跨域微调(offsite-tuning)框架——ScaleOT。该框架能在模型性能无损前提下,将隐私保护效果提升50%,与知识蒸馏技术相比,算力消耗显著降低90%,为百亿级参数模型的跨域微调提供高效轻量化方案,论文因创新性入选AAAI的oral论文(本届大会近13000篇投稿,口头报告比例仅4.6%)。

1740550392653.jpg

跨域微调是目前业内保护模型产权与数据隐私的主流方案,通过有损压缩将大模型转换为仿真器,数据持有方基于其训练适配器并返回给大模型完成调优,数据和模型均未出域,可保护双方隐私,但存在局限性:一是“均匀抽积木”式处理易致模型关键层缺失,使性能显著下降;二是用蒸馏技术弥补性能损失,计算成本高;且现有方法隐私保护缺乏灵活性。

蚂蚁数科技术团队介绍,ScaleOT提出三大创新思路平衡模型性能与隐私安全。一是评估大模型智能层重要性,用强化学习扫描自动识别关键层,动态保留“核心层”降低性能损耗;二是对保留的原始层“打码”,防止攻击者复原原始模型,在性能几乎无损时提升隐私保护强度;三是可根据不同场景灵活组装,实现隐私强度可调节。

解决数据和模型隐私安全问题是大模型在产业界尤其是金融行业落地的重要课题。蚂蚁数科的这一创新算法已融入旗下摩斯大模型隐私保护产品,且成为国内首批通过信通院大模型可信执行环境产品专项测试的产品之一。

相关资讯

李飞飞谢赛宁新作「空间推理」:多模态大模型性能突破关键所在

李飞飞谢赛宁再发新成果:直接把o1式思考拉至下一个level——多模态大语言模型的空间思维! 这项研究系统评估了多模态大模型的视觉空间智能,结果发现:当前,即使是最先进的多模态大模型,在空间认知方面与人类相比仍有显著差距,测试中约71%的错误都源于空间推理方面的缺陷,即空间推理能力是当前主要瓶颈。 图片更为有趣的是,在这种情况下,思维链、思维树等常用的语言提示技术直接失灵了——不仅没有提升模型在空间任务上的表现,反而会使性能下降。

报名通道开启!CVPR 2021 NAS国际竞赛邀全球开发者迎接挑战

CVPR作为计算机视觉领域和模式识别领域的世界级学术顶会,不仅是展示前沿科技成果的学术会议,也是探索学术应用的一大平台。今年,百度联合澳大利亚悉尼科技大学和美国北卡罗来纳大学举办CVPR 2021 NAS workshop,同时于3月1日正式启动CVPR 2021 NAS国际竞赛,面向全球开发者开放报名通道。人脸识别、语音识别、机器翻译……每一项人工智能应用的背后都离不开AI技术算法模型,而神经网络结构对最终模型的效果起着至关重要的作用。为降低传统神经网络结构对人工经验和背景知识的依赖,近年来神经网络结构搜索(NA

苹果推出 300 亿参数 MM1 多模态 AI 大模型,可识别图像推理自然语言

感谢苹果公司旗下研究团队近日在 ArXiv 中公布了一篇名为《MM1:Methods, Analysis & Insights from Multimodal LLM Pre-training》的论文,其中介绍了一款 “MM1”多模态大模型,该模型提供 30 亿、70 亿、300 亿三种参数规模,拥有图像识别和自然语言推理能力。IT之家注意到,苹果研究团队相关论文主要是利用 MM1 模型做实验,通过控制各种变量,找出影响模型效果的关键因素。研究表明,图像分辨率和图像标记数量对模型性能影响较大,视觉语言连接器对模型的