伴随人工智能技术对产业智能化升级进程的推动作用不断加深,AI模型的安全防护与隐私保护问题也日渐成为业内关注的焦点。
9月26日,百度安全正式对外发布了基于百度飞桨开源深度学习平台的安全与隐私工具PaddleSleeve。以场景为驱动,覆盖现实风险,支持产业级模型,为企业和开发者打造更为贴近实践应用的模型安全强化选项,开启AI模型安全与隐私的新探索。
在同日举行的2021 CCS成都网络安全大会AI安全专题论坛上,百度安全部主任架构师包沉浮详细讲解了PaddleSleeve的主要功能和关键能力。
百度安全部主任架构师包沉浮在2021 CCS成都网络安全大会发布PaddleSleeve
众所周知,作为AI安全最为底层的保障环节之一,AI模型安全正面临着多维和紧迫的安全挑战。根据对目前已知攻击行为的分析,攻击者可通过数据投毒、模型后门等方式,在训练及预备部署阶段即生成有缺陷的AI模型;而利用模型鲁棒性自身存在的问题或借助模型窃取、数据提取等手段,其也能够在部署阶段非法获取模型和隐私数据。
为此,包括Google Tensorflow、Facebook Pytorch在内的不少国内外主流深度学习平台先后推出了相关安全工具,尝试为上述一系列问题的解决提供研究支撑。依托百度飞桨,百度安全的PaddleSleeve则旨在提供一个不止于学术研究、更适应于产业实践的安全工具。以场景驱动、现实风险、产业级模型为三大核心理念,为有高安全性、高隐私性需求的场景提供端到端的安全技术支撑,并全面覆盖AI模型所需应对的从Security到Safety再到Privacy的各个层面的安全挑战。
具体而言,PaddleSleeve可为企业和开发者带来两个层面的实用功能:
其一,在模型攻击与评估层面,PaddleSleeve融合了百度安全Advbox对抗样本攻击及Robustness鲁棒性评估等诸多能力,并新增了对飞桨2.X版本的支持,引入了更多前沿攻击算法和模型集成迁移攻击策略。同时,聚焦于隐私性,PaddleSleeve也能够支持AUC、Recall、结构相似度、峰值信噪比(Peak SNR)等隐私攻击效果评估指标,并可实现对模型数据被还原风险及模型是否存在关键信息泄露风险的检测。
其二,在模型防御层面,PaddleSleeve支持多个业界前沿、性能良好的对抗训练方法,企业和开发者可通过新训练、模型精调等方式进行对抗训练,并可借助多种过滤算法在不修改模型的情况下实现非侵入式的对抗鲁棒性增强。而基于差分隐私扰动、梯度压缩等方法的隐私增强优化器,其也可帮助企业和开发者更为便捷地训练出可有效抵御常见隐私窃取攻击的模型。
目前,PaddleSleeve已在多个场景中实现对飞桨自定义及预训练模型,ResNet、YOLO等通用产业级模型的支持。而伴随一系列新功能的不断加入,百度安全也希望与学术界、产业界持续展开合作,以场景为驱动,面向产业实践,为AI模型安全与隐私保护提供更好的能力支撑。
秉承“有AI,更安全”的使命,百度安全始终致力于携手多方力量共同推动AI安全开放生态的建设。作为一个开源项目,百度安全也欢迎企业和开发者的加入,一起推动PaddleSleeve功能的完善与拓展。