近期,随着生成式人工智能技术快速发展,利用相关技术进行诈骗、诽谤的违法案件愈发频繁,引起社会的广泛关注。5月22日,包头警方发布的一起利用AI实施电信诈骗的案例冲上热搜,骗子通过AI换脸技术进行伪装,受害人10分钟内被骗走430万元。作为全球领先的数字安全公司,三六零(下称“360”)负责搭建科技部发起的安全大脑-国家新一代人工智能开放创新平台,将依托国家级的数字安全能力,破解人工智能安全的时代难题。
生成式人工智能技术滥用事件的出现得益于深度合成和机器学习的快速发展,诈骗者可通过使用这些技术,训练出能够模拟人类语言和神态的AI,换脸之后的“数字人”口型、表情、微小的动作几乎毫无破绽。“换声”则是借助算法模型,根据已有的语音样本,生成近似的声音。OpenAI首席执行官Sam Altman曾表示,担心大模型可被用于大规模的虚假信息,也担心人类被控制。
5月24日,中国互联网协会发文表示,面对利用AI技术的新型骗局,广大公众需提高警惕,加强防范。早在2017年7月,国务院印发《新一代人工智能发展规划》,提出了面向2030年我国新一代人工智能发展的指导思想、战略目标、重点任务和保障措施,其中特别提到“到2025年初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力”。
作为全球领先的数字安全公司,360在人工智能安全领域深耕多年,涉及框架安全、模型安全、生成式AI安全等。截止目前,360已累计发现Tensorflow、Caffe、Pytorch等主流机器学习框架及供应链漏洞200多个,其中提交给谷歌Tensorflow的漏洞数98个,包括24个高危、严重漏洞,在全球各大厂商中排名第一,影响超过40亿终端设备,并入选了中央网信办“人工智能企业典型应用案例”。
2019年,“360安全大脑“入选科技部“国家新一代人工智能开放创新平台”,着力推动中国人工智能安全生态建设。目前,以GPT为代表的大模型技术席卷全球,360发现大模型既有传统AI模型面临的安全风险,也有大模型独有的新型安全风险,如模型窃取、提示注入风险等。为此,360全球首创了大模型安全风险评估体系“AISE”,为全球大模型安全赋能。
2023年6月13日,“360智脑”大模型应用发布会将在北京召开。届时,将释出更多人工智能安全相关的研究或产品解决方案,为人工智能的健康发展奠定安全基石。