手机端
当前位置:主页 > 生活 >

您好,Adele-真的是您吗?带着假货被抢购,抢占和冒充。



威胁要欺骗明星和政客以显示民主的视频?可能,与我们想象的不同。英国歌手阿黛尔(Adele)在“纽约时报”(New York Times)的一段录像中谈论了假货。她说,这项影响名人的技术有意义地摇了摇头。虽然,一瞬间-不,那根本不是阿黛尔(Adele):在两个句子之间,眨眼间,她的脸就变成了另一个人的脸。验证专家和First Draft反信息网络的共同创始人克莱尔·沃德(Claire Wardle)说:“这也是一次深深的欺骗。”

Deepfake是可操纵的视频,可用于交换面孔,将他们从未说过的话放到人们的嘴里,他们的身体可以做他们从未做过的事情。这项技术目前正在引发激烈的讨论。毕竟,人们可以在其中发表声明的视频,或者首先看起来像是一个人,然后却又变成另一个人的视频-那是造成噩梦的东西。

不难想象,在这个时代,当人们对虚假信息的恐惧与对社交网络上几乎所有事物做出反应的瘦弱和歇斯底里一样大时,可能会发生骚扰的可能性。当然,您可以使用非常无害的技术:卡斯珀特(Kaspert)喜剧演员到处都是假货,或者证明不是真正的阿黛尔(Adele)在有关技术和社会的视频中讲话,因此不必担心,

但是,如果假冒深造丑闻的政客被强加于人呢?还是女警?如果该技术被用来恐吓政治活动家和新闻记者怎么办?是否有人被欺负并被此类影片曝光?其中一些已经在今天发生了。众所周知,错误陈述可以放在文本中。另外,出于虚假目的,可以伪造照片。视频,但是,声音文件,以前被认为是许多证据。Deepfake现在甚至对此表示质疑。将来我们可以不再相信自己的耳朵和耳朵吗?这一前景惊动很多-也助长危言耸听的媒体报道和评论。

木偶繁重的计算工作Deepfakes在技术上所发生的事情已经以它们的名字为名:它们是使用深度学习(即基于大量数据和人工神经网络的机器学习)创建的视频伪造品。通过大量的计算,这些网络的行为大致相似,就像人脑中的神经连接一样,它们从两个视频源中创建了一个新的人造视频。也就是说,例如,通过将流行歌星阿黛尔的原始唱片与事实检查员沃德尔的记录相交-并让其计数直到产生结果为止,这似乎就像阿黛尔本人一样,尽管实际上可以看到阿黛尔和Wardle的混合体,其结果是,视频是一种由人工智能(AI)创建的技术上复杂的木偶:创建者可以控制人的手势和面部表情,还可以在他们的嘴里加上新的句子。

但是,深造不一定非要是视频:这项技术还使操纵录音成为可能-听起来好像一个人说了从未发生过的话。胜过后该怎么办?尤其是在美国社会政治动荡的气候中,人们深深地担心假冒产品具有破坏性的潜力。2016年总统大选活动以虚假信息和涉嫌操纵为标志。2020年将再次当选-人们对同样糟糕的担忧也很大。如果深造假继续助长该国的分裂,该怎么办?如果候选人名誉受损-就在进行正面投票之前吗?

诸如此类的忧虑使人们到处都有反应。DARPA,美国国防部门的研究机构,有利于两位数百万量的该方法正在研究中的深假货的揭露Facebook已经发起了一项竞赛,支付1000万美元来开发虚假检测和预防。即使谷歌承诺。美国正在研究Deepfake的检测,但德国和其他国家/地区的研究小组也在对此进行研究。  与此同时,一些美国Bundesstaatem都已经法律决定深假货在某些情况下禁止。举例来说,在选举前-或录像带显示的性行为并非在所有示威者的同意下发生的。同样在华盛顿讨论深假货。媒体和科学家也在热议。

完美欺骗的演变如今,有些伪造品仍然很笨拙,而其他伪造品却令人信服- 尤其是当您看到观看者不太熟悉的人时。最重要的是,令人难以置信的是,深造品变得越来越快。显然,电影和计算机游戏产业正在燃烧深造的技术。仅仅因为该技术会使后期制作中的干预变得微不足道。即使数字时装零售商用它进行试验-他们人为制造的模型创作存在。其他行业也是如此。再一次,他人可以完全无害甚至具有建设性的方式使用或开发被他人视为社会风险的技术。

郝莉最近在接受采访时说,当它们看起来真实时,只需要六个月到一年的时间。Li从事基于AI的运动图像编辑工作 -甚至有人认为他是伪造的先驱。他是同时在这项技术上扮演许多角色的人。一方面,这位38岁的年轻人成立了一家公司,该公司在电影和计算机游戏行业中使用先进的AI技术。他曾用面部表情为Apple表情符号制作动画,并将已故演员保罗·沃克(Paul Walker)死后推迟到好莱坞大片《狂怒7》(Furious 7)中。

李还是南加州大学的副教授,并正在进行研究以更好地识别深层假货。他在写给ZEIT ONLINE的电子邮件中写道,他深信有可能产生人类和机器都无法检测到的深层造假。翻译的含义是:将来,不仅肉眼可见,而且伪造精良的IT法证鉴识都可能无法将真实内容与编辑过的,深度融合的视频资料区分开。
分享至:

®关于本站文章™ | 若非注明其他来源,默认 均为本站编辑部原创文章,如有侵权,请联系我们™