360安全团队再登USENIX Security 展示研究成果

  • 时间:
  • 浏览:0

 

近日,3500 智能安全团队受邀参加信息安全领域顶级国际会议USENIX Security 2019,将在8月15日-17日举办的大会上进行《Seeing is Not Believing: Camouflage Attacks on Image Scaling Algorithms》的议题分享,介绍人工智能视觉系统的另俩个潜在安全风险和防御土办法。 USENIX Security是信息安全领域“四大”顶级学术会议(此外还包括S&P,CCS,NDSS)之一,但是开始 上世纪90年代初。一齐,USENIX Security 被中国计算机自学(CCF)归为“网络与信息安全”A类会议(共分为ABC三类,A类最佳);被清华大学列为计算机科学与技术系的重要国际学术会议A类会议。只能最具有创新性和显著价值的安全研究,不需要 通过全球顶级学者组成的技术委员会苛刻评审入选会议。 

继2017年3500冰刃实验室首次将中国公司独立研究成果发表在USENIX Security以前,这名拥有20多年历史的顶级安全会议再次迎来3500的研究成果展示,标志着在学术安全研究领域,3500继续保持国际一流水平。 

此次,3500 智能安全团队发现了本身在图像补救过程中潜藏的安全风险——图像维度变换攻击。攻击者可不还可否 通过构造攻击图片,致使输入图像在经过尺寸维度变化后占据 明显的内容语义改变,造成人与机器的认知差异,从而达到欺骗、逃逸检测的攻击效果。与 针对深度1学习模型的对抗样本不同,该攻击土办法不局限于特定模型,影响范围更大。 

为验证攻击土办法的有效性,3500智能安全团队对基于Caffe、Tensorflow、Torch等流行深度1框架搭建的多个AI视觉应用成功实施了欺骗攻击。此外,3500智能安全团队还考察了该风险对商业视觉服务的影响。实验结果证明,即使是黑盒系统,仍然不需要 通过测试策略获取被攻击对象的算法和相关参数,并发动图像维度变换攻击。经测试,在国内主流云AI服务和微软Azure等国际厂商提供的机器视觉服务中,均发现了类式风险。目前,3500智能安全团队已将评估结果和修复方案与相关厂商进行了沟通和修复协助。 

3500智能安全团队是3500专注研究人工智能安全风险的顶级团队,其在全球范围内率先发现众多安全问题报告 ,涉及AI系统实现安全、应用安全、模型安全、数据安全等各个环节。 

目前其已在多个深度1学习框架及其依赖组件中发现500多个漏洞,并可能性由于 任意代码执行、拒绝服务攻击、控制流劫持、信息泄露等危害。黑客可不还可否 通过哪几种漏洞攻击AI系统或应用,窃取用户隐私或AI厂商的知识产权(如用户数据、超参数、模型参数等)。目前,3500正与寒武纪、华为等厂商战略战略合作,在AI系统中部署相应的安全补救方案。 

另外,3500智能安全团队也参与多项人工智能安全标准的制定工作,以开放战略战略合作的态度不利于人工智能安全发展。