乐天集团中国产业园区品牌连锁运营商

诈骗现新招 犯罪分子AI软件冒充CEO

发布时间:2019-07-22 发布者:亚时财经

(照片来源于Unsplash)


美国快公司网站19号的文章称,目前世界上出现了几起利用“Deepfakes”软件合成CEO音频从而对公司实行诈骗的事件。

 

“DeepFakes”原先是一个AI深度换脸软件,通过技术可以将视频中的人脸换成另外一个毫不相干的人,目标人物的身体和脸部会像源视频中的人物那样,做一些自己实际上从未做过的事或说一些自己从未说过的话。

 

这项技术最早出现在几年前,当时这一技术还较为粗糙。早期用户大多数用它给名人换脸,来伪造他们的色情视频。

 

但根据爱可信基金会的报道,这一技术如今正越过色情领域,进入了犯罪领域。在那里,不法分子正利用这种技术冒充公司的首席执行官。但就目前而言,犯罪分子似乎正在使用“DeepFakes”的音频功能而非视频来实施诈骗。

 

骗子们用一个人工智能程序模仿各家公司的CEO们的声音,该程序从他们参与的财报电话会议、YouTube视频、TED演讲等内容中进行筛选,再根据他们的演讲时间对这些素材进行排列组合。

 

赛门铁克(Symantec)是一家大型网络安全公司,该公司表示,它目前已经看到三次针对私营企业的音频攻击,并且都成功了。在这三次攻击事件中,每家公司的“CEO”都会给高级财务官打电话,要求紧急转账。

 

袭击事件最早由BBC报道。每一家公司都有数百万美元被盗,但没有透露公司名称。

 

“DeepFakes”的伪造音频功能对企业构成的威胁不容小觑。虽然目前只是有人使用“DeepFakes”音频假装自己是一家公司的首席执行官,并让该公司的会计部门在“紧急情况”下给他们电汇100万美元,但这项技术也有可能被用于破坏活动,这就是另外一回事了。

 

如果一个竞争对手——甚至是一个民族国家——想让苹果的股价下跌怎么办?只需要一段“Deepfakers”的音频剪辑,声称是蒂姆•库克与某人就iPhone销量下滑进行私人谈话的视频,就能做到这一点——在几秒钟内股市就可以蒸发数十亿美元。

 

不幸的是,目前还没有可靠的工具可以轻松自动识别网络上的这些深度伪造的视频。或者说,即使我们可以揭穿一段伪造的视频或音频,但当它发布出来的那一刻,破坏其实就已经发生了。

 

文章来源:Fast Company

原文链接:

https://www.fastcompany.com/90379001/criminals-are-using-deepfakes-to-impersonate-ceos

实习编译:李思琪



特别声明:本站转载或引用之图文若侵犯了您的合法权益,请与本站联系,本站将及时更正、删除。版权问题及网站合作,请通过亚时财经邮箱联系:asiatimescn@sina.com

热门话题更多>>

推荐文章

更多>>

扫一扫手机阅读

ATimesCN手机网站