诈骗现新招 犯罪分子AI软件冒充CEO
发布时间:2019-07-22 发布者:亚时财经
(照片来源于Unsplash)
美国快公司网站19号的文章称,目前世界上出现了几起利用“Deepfakes”软件合成CEO音频从而对公司实行诈骗的事件。
“DeepFakes”原先是一个AI深度换脸软件,通过技术可以将视频中的人脸换成另外一个毫不相干的人,目标人物的身体和脸部会像源视频中的人物那样,做一些自己实际上从未做过的事或说一些自己从未说过的话。
这项技术最早出现在几年前,当时这一技术还较为粗糙。早期用户大多数用它给名人换脸,来伪造他们的色情视频。
但根据爱可信基金会的报道,这一技术如今正越过色情领域,进入了犯罪领域。在那里,不法分子正利用这种技术冒充公司的首席执行官。但就目前而言,犯罪分子似乎正在使用“DeepFakes”的音频功能而非视频来实施诈骗。
骗子们用一个人工智能程序模仿各家公司的CEO们的声音,该程序从他们参与的财报电话会议、YouTube视频、TED演讲等内容中进行筛选,再根据他们的演讲时间对这些素材进行排列组合。
赛门铁克(Symantec)是一家大型网络安全公司,该公司表示,它目前已经看到三次针对私营企业的音频攻击,并且都成功了。在这三次攻击事件中,每家公司的“CEO”都会给高级财务官打电话,要求紧急转账。
袭击事件最早由BBC报道。每一家公司都有数百万美元被盗,但没有透露公司名称。
“DeepFakes”的伪造音频功能对企业构成的威胁不容小觑。虽然目前只是有人使用“DeepFakes”音频假装自己是一家公司的首席执行官,并让该公司的会计部门在“紧急情况”下给他们电汇100万美元,但这项技术也有可能被用于破坏活动,这就是另外一回事了。
如果一个竞争对手——甚至是一个民族国家——想让苹果的股价下跌怎么办?只需要一段“Deepfakers”的音频剪辑,声称是蒂姆•库克与某人就iPhone销量下滑进行私人谈话的视频,就能做到这一点——在几秒钟内股市就可以蒸发数十亿美元。
不幸的是,目前还没有可靠的工具可以轻松自动识别网络上的这些深度伪造的视频。或者说,即使我们可以揭穿一段伪造的视频或音频,但当它发布出来的那一刻,破坏其实就已经发生了。
文章来源:Fast Company
原文链接:
https://www.fastcompany.com/90379001/criminals-are-using-deepfakes-to-impersonate-ceos
实习编译:李思琪
热门话题更多>>
国务院国资委网站3月31日发布消息,经报国务院批..[查看详细]
2021-04-01 10:43
3月份中国制造业采购经理指数、非制造业商务活动指..[查看详细]
2021-03-31 10:20
联合国粮农组织公布的数据显示,2021年2月份,..[查看详细]
2021-03-25 15:22
3月22日,中国电子信息产业发展研究院发布的《2..[查看详细]
2021-03-22 16:53
风电板块走强,节能风电拉升涨停,大金重工涨超6%..[查看详细]
2021-03-19 10:47
3月18日,国家互联网信息办公室、公安部加强对语..[查看详细]
2021-03-18 19:36
1-2月份,在以习近平同志为核心的党中央坚强领导..[查看详细]
2021-03-15 14:41
3月11日,国务院总理李克强在人民大会堂三楼金色..[查看详细]
2021-03-12 10:00
今日,核电板块走强,整个指数大涨4%。截至发稿,..[查看详细]
2021-03-08 15:11
今天上午,十三届全国人大四次会议在人民大会堂开幕..[查看详细]
2021-03-05 15:06