国内最专业的IT技术学习网

UI设计

当前位置:主页 > UI设计 >

脆弱的神经网络:UC Berkeley详解对抗样本生成机制

发布时间:2019/09/19标签:   神经网络    点击量:

原标题:脆弱的神经网络:UC Berkeley详解对抗样本生成机制
用于「诈骗」神经收集的抗衡样本(adversarial example)是近期盘算机视觉,以及呆板进修范畴的热点研讨偏向。只要懂得抗衡样本,咱们才干找到构建牢固呆板进修算法的思绪。本文中,UC Berkeley 的研讨者们展现了两种抗衡样本的制造方式,并对其背地的道理停止懂得读。经过神经收集停止暗害——听起来很猖狂吧?兴许有一天,这真的能够演出,不外方法能够与你设想中差别。明显,加以练习的神经收集可能驾驶无人机或操纵其余大范围杀伤性兵器。然而,即使是有害的(当初可用的)收集——比方,用于驾驶汽车的收集——也能够酿成车主的朋友。这是由于,神经收集十分轻易被「抗衡样本(adversarial example)」攻打。在神经收集中,招致收集输入不准确的输出被称为抗衡样本。咱们最好经过一个例子来讲明。让咱们从右边这张图开端。在某些神经收集中,这张图象被以为是熊猫的相信度是 57.7%,且其被分类为熊猫种别的相信度是全部种别中最高的,因而收集得出一个论断:图象中有一只熊猫。然而,经过增加十分大批的经心结构的噪声,能够失掉一个如许的图象(右图):关于人类而言,它和左图简直一模一样,然而收集却以为,其被分类为「长臂猿」的相信度高达 99.3%。这切实太猖狂了!脆弱的神经网络:UC Berkeley详解对抗样本生成机制上图源自: Explaining and Harnessing Adversarial Examples,Goodfellow et al那末,抗衡样本怎样停止暗害呢?设想一下,假如用一个抗衡样本调换一个泊车标记——也就是说,人类能够马上辨认这是泊车标记,但神经收集不能。当初,假如把这个标记放在一个忙碌的穿插路口。当主动驾驶汽车濒临穿插路口时,车载神经收集将无奈辨认泊车标记,间接持续行驶,从而能够招致搭客殒命(实践上)。以上只是那些庞杂、稍显耸人听闻的例子之一,实在还会有更多应用抗衡样本形成损害的例子。比方,iPhone X 的「Face ID」解锁功效依靠神经收集辨认人脸,因而轻易遭到抗衡性攻打。人们能够经过构建抗衡图象,避开 Face ID 保险功效。其余生物辨认保险体系也将面对危险:经过应用抗衡样本,合法或分歧宜的内容能够会绕开基于神经收集的内容过滤器。这些抗衡样本的存在乎味着,含有深度进修模子的体系现实上有极高的保险危险。脆弱的神经网络:UC Berkeley详解对抗样本生成机制为了懂得抗衡样本,你能够把它们设想成神经收集的「幻觉」。既然幻觉能够骗过人的大脑,一样地,抗衡样本也能骗过神经收集。下面这个熊猫抗衡样本是一个有针对性的 (targeted) 例子。大批经心结构的噪声被增加图象中,从而招致神经收集对图象停止了过错的分类。但是,这个图象在人类看来和之前一样。另有一些无针对性 (non-targeted) 的例子,它们只是简略实验找到某个能蒙骗神经收集的输出。关于人类来讲,这类输出看起来能够像是白噪声。然而,由于咱们没有被限度为查找对人而言相似某物的输出,以是这个成绩要轻易很多。咱们能够找到快要全部神经收集的抗衡样本。即便是那些开始进的模子,有所谓「超人类」的才能,也稍微地受此成绩搅扰。现实上,创立抗衡样本十分简略。在本文中,咱们将告知你怎样做到。用于开端天生你本人的抗衡样本的全部所需代码等材料都能够在这个 github 中找到:https://github.com/dangeng/Simple_Adversarial_Examples

上一篇:没有了

下一篇:没有了

返回
版权信息Copyright © 银河官网 版权所有    ICP备案编号:鲁ICP备09013610号