国内最专业的IT技术学习网

UI设计

当前位置:主页 > UI设计 >

新报告称人工智能无法保护人们免受Deepfakes技术

发布时间:2019/09/19标签:   技术    点击量:

原标题:新报告称人工智能无法保护人们免受Deepfakes技术
来自Data & Society的一份新讲演激发了人们对视频诈骗性转变的主动化处理计划的疑虑,包含呆板进修转变的视频deepfakes等。作者Britt Paris和Joan Donovan 以为,固然deepfakes是新的,但倒是媒体把持汗青长久的一局部 - 须要社会和技巧修复。依附野生智能现实上能够经过将更少数据和权利会合在公营公司手中来使事件变得更糟。Paris表现,“缭绕deepfakes的惊恐证实了疾速的技巧处理计划无奈处理构造性不服等成绩。这是一个宏大的名目,但咱们须要找到同时涵盖社会及政治方面的处理计划,以是没有权利的人不会被消除在外。”正如Paris和Donovan所看到的那样,只要技巧自身将不能处理deepfakes成绩。讲演中写道:“媒体与本相之间的关联从未如斯稳固。” 在19世纪50年月,当法官开端在法庭上同意拍照证据时,人们不信任新技巧,而且首选见证证词和书面记载。到了20世纪90年月,媒体公司经过抉择性地编纂晚间节目中的图象来参加曲解变乱。“这些图象是实在的图象,”讲演说。“把持的是他们怎样在有线电视上全天候停止情境化、说明和播送。”明天,经过同意人们应用呆板进修把持视频和图象,deepfakes乃至进一步把持,其成果简直弗成能用人眼检测到。当初,该讲演称,“这任何领有大众交际媒体材料的人都是公正的游戏。”一旦虚伪视频存在,它们便可以在几秒钟内涵交际媒体上大范围传布。为懂得决这个成绩,Facebook近来发布它正在公布一个数据集,同意人们测试旨在检测应用deepfakes视频的新模子。像TruePic如许应用AI和区块链技巧来检测被把持照片的始创公司也开端取得能源。近来,美国国防部高等研讨打算局(DARPA)投资了Medifor,后者研讨视频像素的差别,以断定甚么时间被改动。然而,简直全部这些处理计划的目的都是在捕捉点(即拍摄照片或视频时)或在检测级别(以便更轻易辨别改动和未改动的内容)之间停止把持。执法专家以为这类方式是踊跃的,并指出,只要经过法院才干处理deepfakes成绩。电子前沿基金会国民自在主任 David Greene说道,捏造的视频在政治批评和匿名化须要身份爱护的人群中也有主要用处。“假如要制订一项deepfakes执法,则须要斟酌舆论自在,”他弥补道,假如人们应用deepfakes停止守法行动 - 比方讹诈或人 - 他们能够会依据现行执法遭到告状。但Paris担忧野生智能驱动的内容过滤器和其余技巧修复能够会形成真正的损害。她说道:“他们为某些人做得更好,但能够会让其余人变得更糟。计划新的技巧模子为公司制造了能够捕捉种种图象并创立在线生涯库的空间。”《Deep Fakes: 对隐衷,平易近主和国度保险的迫在眉睫的挑衅》论文的合著者Bobby Chesney却并未将数据网络视为一个成绩。“我以为,假如不加控制,私家实体将取得更多信息,”他说道。“但这类原来就很蹩脚的主意让我感到没有压服力。”Chesney和Paris 批准须要某种技巧修复,而且它必需与执法体系一同告状不良行动者并禁止捏造视频的传布。“咱们须要念叨减缓和限度损害,而不是处理这个成绩,”Chesney弥补道。“Deepfakes将不会消逝。”【编纂推举】研讨职员开辟出新型加密技巧,加密强度达现有技巧14万倍大龄顺序员技巧治理路上的悲喜总结技巧口试时该反诘甚么成绩?魂魄50问,GitHub日入2500星手机开辟者年入153万,呆板进修并非最高:IEEE最新薪资讲演著名数据公司被查,你的爬虫会送老板进牢狱吗_技巧栈微信半月刊第49期【义务编纂:张燕妮 TEL:(010)68476606】 点赞 0

版权信息Copyright © 银河官网 版权所有    ICP备案编号:鲁ICP备09013610号