假视频很快就足以愚弄所有人了-王其杉博客|程序员|科技新闻
戴维多兰
突发新闻:一段视频“泄露”了一位著名的恐怖分子领导人与一位来自中东国家的特使秘密会面。新闻机构将这段视频作为“未经证实的报道”播出。美国官员既不能确认也不能否认视频的真实性——这是一个典型的关于情报问题的谨慎回答。
美国总统谴责这个胆敢与这个被辱骂的恐怖分子主谋秘密会晤的国家。国会讨论实施制裁。随之而来的是外交危机。也许,看到有机会利用公众的愤怒,总统下令对恐怖分子头目最后一个已知的地点进行巡航导弹袭击。
广告
所有这些都是因为几秒钟的胶片——一个巧妙的制作。
2019年,我们将首次体验一项新技术的地缘政治影响:利用机器学习伪造视频、图像和音频的能力,令人信服地复制真实的公众人物。
阅读下一步
人类,而不是人工智能,将把我们从无尽的虚假新闻泥潭中拯救出来。
人类,而不是人工智能,将把我们从无尽的虚假新闻泥潭中拯救出来。
通过
古尔利
“deepfake s”这个词是对一系列操纵视频和图像的简写,包括人脸交换(身份交换)、音频deepfake s(语音交换)、deepfake木偶(将目标的脸映射到演员的脸上进行面部重现)和deepfake唇形同步(创建合成视频以匹配音频文件和他们的脸)这个词是由一个同名的Reddit用户于2017年12月创造的,他使用开源人工智能工具将名人的脸粘贴到色情视频剪辑上。一个迅速发展的在线Deepfake创作者社区也紧随其后。
DeepFakes将继续提高易用性和复杂性,因为开发人员会创建更好的人工智能和新技术,从而更容易创建伪造的视频。假视频的信号——受试者不眨眼、面部轮廓闪烁、面部特征过于集中——将变得不明显,最终变得难以察觉。最终,也许几年后,就可以在不依赖任何现有视频的情况下,综合生成人们的视频。(当前的Deepfakes需要库存片段来为交换的面提供背景。)
广告
协同网络造假行动的实施者将欣然加入新的人工智能数字模拟技术,以推进政治目标,例如加强对军事运动的支持或动摇选民。这些视频也可能仅仅是用来破坏公众对媒体的信任。
除了地缘政治干预或造假活动,很容易看出这项技术如何具有犯罪的商业应用,如操纵股票价格。想象一下,一个流氓国家创造了一个假面具,描绘了首席执行官和首席财务官偷偷摸摸地讨论失踪的预期在接下来的一周的季度收益电话。在向一些记者发布这段视频之前,他们会做空这只股票——押注当市场对这个“新闻”反应过度时,股价会暴跌。当视频被揭穿,股市得到纠正时,犯罪者已经获得了健康的利润。
也许最令人毛骨悚然的认识是,深海生物的崛起并不需要完美才能发挥作用。他们需要足够好,让目标观众被欺骗的时间足够长。这就是为什么人类主导的揭穿和所需的时间将是不够的。为了保护人们免受最初的欺骗,我们需要开发能够实时工作的算法检测能力,并且我们需要进行心理和社会学研究,以了解在线平台如何最好地通知人们他们所观看的内容是伪造的。
阅读下一步
机器学习可以解决我们如何在全球范围内管理健康的问题。
机器学习可以解决我们如何在全球范围内管理健康的问题。
通过
皮奥特
2019年,世界将面对新一代的伪造视频,这些视频被用于欺骗整个人口。在我们做出反应之前,我们可能不会意识到视频是假的——也许反应过度了。事实上,对于我们所有人来说,不仅从技术和平台的角度,而且从日常市民的角度,以及“眼见为实”的错误假设,考虑我们如何与快速移动的在线信息联系起来,可能需要如此过度的反应。
Yasmin Green是一家专注于安全的字母表公司Jigsaw的研发总监。
更多来自《连线世界》2019
–与通过刺激神经元来修复抑郁症的公司会面。
–电动自行车革命将颠覆城市交通
广告
–公司将如何使用人工智能解决工作场所的骚扰
–区块链需要防范量子黑客
利用每周星期六的有线新闻稿,在收件箱中充分利用有线新闻。