阿里安全新研究:给图片打“马赛克”就能骗过智能视觉系统
  • 文路
  • 2021年08月20日 15:34
  • 0

不久前,某知名品牌汽车被曝其自动驾驶系统无法识别白色货车箱体这样类似于“一堵墙”的障碍物。在自动驾驶中,行人、车辆被漏检或者未能及时被检测到,都可能导致交通事故的产生。此外,安防漏检危险人物与物品也可能导致安全隐患。这些风险都提示,AI视觉的安全性值得重视。

在研究AI视觉稳定性的过程中,阿里安全图灵实验室的研究人员札奇发现,AI视觉还有一个盲区:利用算法自动鉴别图片关键信息,并巧妙删除,就像给图片“打码”一样,AI视觉系统就会无法识别该图片。最近,这项研究成果被AI顶会ICCV 2021收录。

札奇的研究源于逛商场看到乐高玩具迸发的灵感。当时,她有一个疑问:“人眼如何识别‘马赛克’式样的玩具?还有早期的超级马里奥,虽然只是由几个简单像素组成,人却可以正确识别这种抽象的表达。AI模型面对‘马赛克’式的图片,能正确识别吗?”

札奇进行了验证。她发现,传统对图片“加工”以骗过AI的方法是给图片加上“噪音”,相当于在当前图片上针对模型"乱涂乱画",让AI无法识别,但原图片本身的关键信息没有丢失,只要用“橡皮擦”擦一擦,AI依然能识别。如果反向操作,删除图片的关键信息,就像打“马赛克”,图片的关键信息已经丢失,那么AI无论如何也难以识别。这意味着,针对“打码攻击”,难以有防御措施。

如下图所示,给猫咪图片加上噪声,去除噪声后,AI模型依然能认出这是一只猫咪。相反,基于信息丢失的对抗攻击在去噪声的操作下基本没什么变化,AI视觉模型“识别无能”。

阿里安全新研究:给图片打“马赛克”就能骗过智能视觉系统

图说:传统加噪音(上)与“打码”删信息(下)对比,“打码”攻击“无法还原”。

专注对AI的对抗样本和模型安全性进行研究的阿里安全高级算法专家越丰提醒,除了AI视觉场景,真实场景中也可能存在这种对抗攻击,例如针对某知名PS软件,只要提供具备对抗攻击性质的JPEG量化表,就能产出有“攻击性”的图片。

此外,在实际场景中,图片信息丢失是常见现象,例如用户将图片以JPEG形式上传到网络,就有一定的信息丢失,可能不经意间就会制造一个“对抗样本”。越丰认为,这对当前内容安全场景的AI识别而言,都是不小的挑战。

“比如有人将涉黄赌毒图片以损失部分信息的形式上传到网络,人眼依然能领会含义,但AI却没能正确识别,这对构建清朗、健康网络环境而言,就是一种对抗。”越丰举例道,AI安全行业应该警惕这种类型的对抗。

当然,“致盲AI”不是研究人员的目标,研究人员最终还是想发现AI模型的脆弱性,进一步提升AI安全。“在AI安全前沿技术上进行探索,一是为了让AI更安全,二是为了让AI助力安全,三是为解决具体社会问题寻找提效的新途径。”阿里安全图灵实验室负责人薛晖提醒,相比“事后弥补”,安全应前置,从源头守卫安全,对前沿技术进行研究布局,以科技创新造就最好的网络安全。

文章纠错

  • 好文点赞
  • 水文反对

此文章为快科技原创文章,快科技网站保留文章图片及文字内容版权,如需转载此文章请注明出处:快科技

观点发布 网站评论、账号管理说明
热门评论
查看全部评论
相关报道

最热文章排行查看排行详情

邮件订阅

评论0 | 点赞0| 分享0 | 收藏0