加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 移动互联 > 正文

AI 的“矛与盾”:有人用它来制造虚假色情内容,也有人用它来反击

发布时间:2018-02-24 18:33:56 所属栏目:移动互联 来源:36氪
导读:前不久,有人用人工智能技术来制造虚假的色情内容引发了轩然大波。现在,也有公司开始利用人工智能技术来识别这些虚假的内容了。一场关于人工智能的矛与盾故事开始展开,到底孰强孰弱?文章发表在《连线》杂志 编者按:前不久,有人用人工智能技术来制造虚
副标题[/!--empirenews.page--]

前不久,有人用人工智能技术来制造虚假的色情内容引发了轩然大波。现在,也有公司开始利用人工智能技术来识别这些虚假的内容了。一场关于人工智能的矛与盾故事开始展开,到底孰强孰弱?文章发表在《连线》杂志

编者按:前不久,有人用人工智能技术来制造虚假的色情内容引发了轩然大波。现在,也有公司开始利用人工智能技术来识别这些虚假的内容了。一场关于人工智能的矛与盾故事开始展开,到底孰强孰弱?文章发表在《连线》杂志,由36氪编译。

AI 的“矛与盾”:有人用它来制造虚假色情内容,也有人用它来反击

面部识别和机器学习程序已经正式被普及,现在,互联网也在使用这种技术来制作色情内容。正如Motherboard率先报道的,人们现在正在制作人工智能辅助的“换脸”色情片,通常是一个明星的脸被映射到一个色情明星的身体上,比如盖尔·加朵(Gal Gadot)就深受其害,在一个视频片段她被认为和她的继兄在一起“睡觉”。怎么杜绝这些所谓的色情“deepfakes”让Reddit、Pornhub和其他社区头疼不已,但GIF动图托管公司Gfycat认为它找到了更好的解决方案。

目前,大多数平台都依赖于关键词过滤以及用户手动标记内容来打击deepfakes。Gfycat表示,他们已经找到了一种方法,可以训练人工智能来识别假视频。这项技术建立在 Gfycat 已经使用的一些工具上,这些工具通常用于在其平台上索引GIF动图。这项新技术展示了科技平台如何在未来对抗虚假的视觉内容的。随着Snapchat等平台旨在将众包视频带到新闻行业,这可能会变得越来越重要。

Gfycat拥有至少2亿活跃的日活跃用户,它希望能推出一种更全面的方法,将deepfakes从平台中剔除掉,而不是像Reddit、Pornhub和其他社区那样。Mashable此前报道称,Pornhub并未能从其网站上移除大量的deepfakes视频,其中一些视频的浏览量高达数百万。(文章发表后,这些视频被删除了)。本月早些时候,Reddit封禁了大量关于“deepfakes”的社区,但一些相关的子网站——比如r/deepfakesrequest和r/deepfaux——并没有引起Reddit的关注,直到《连线》杂志的这篇报道发布后,它们才被封禁。

这些努力不应该被忽视。但它们也显示了人工监控一个庞大的互联网平台有多么困难。特别是当计算机能够识别出deepfakes时,就不需要人来做了。

AI开始工作了

Gfycat的人工智能方法利用了它已经开发的两种工具,都是用猫科动物命名的:Angora项目和Maru项目。当用户上传一张低质量的GIF动图时,比如是关于泰勒·斯威夫特(Taylor Swift )的内容到Gfycat,Angora项目可以在网页上搜索分辨率更高的GIF来替代它。换句话说,它可以找到同样的片段,并上传一个更好的版本。

现在,即使你不给你的剪辑贴上“泰勒·斯威夫特”的标签。这不是问题。据称,Maru项目可以区分不同的人脸,并会自动给GIF加上斯威夫特的名字。从Gfycat的角度来看,这是有意义的——它希望将用户上传到平台上的数百万个GIF编入索引。

现在,在对抗deepfakes上,它们也有了用武之地。由业余爱好者创造的大多数的deepfakes都不是完全可信的。如果你仔细看,这些画面并不能完全吻合;在下面这段视频(为方便观看,转成了GIF)中,唐纳德·特朗普(Donald Trump)的脸并没有完全覆盖安吉拉·默克尔(Angela Merkel)的。你的大脑做了一些工作,填补了技术无法将一个人的脸变成另一个人的缺口。

AI 的“矛与盾”:有人用它来制造虚假色情内容,也有人用它来反击

但Maru项目并不像人类的大脑那么宽容。当Gfycat的工程师们在人工智能工具中运行deepfakes的时候,它会注册一个类似于尼古拉斯·凯奇(Nicolas Cage)的剪辑,但是不足以发出一个正面的匹配,因为脸部在每一帧中都没有完美的呈现。使用 Maru 是 Gfycat 来识别deepfakes的一种方法——当GIF只是在某些部分与名人相似时,它就会发现其中的问题。

当然,Maru很可能无法阻止所有的deepfakes。随着它们变得更加复杂, 未来可能会有更多的麻烦。有时,deepfakes伪造的并不是名人的脸,而是一个普通人的面孔——甚至是只有创作者本人所知道的人。为了对抗这种变化,Gfycat开发了一种类似于Angora项目的屏蔽技术。

如果Gfycat怀疑一个视频被修改为了别人的脸(如果 Maru 没有正面地说这是泰勒·斯威夫特的脸),该公司就可以“屏蔽”受害者的脸,然后搜索身体和背景是否出现在互联网上的其他地方。举个例子,在一段将别人的脸置于特朗普身体的视频中,人工智能可以搜索整个互联网,并找到其原来的国情咨文视频。如果新的GIF图片和源文件不匹配,人工智能就可以断定视频已经被修改了。

AI 的“矛与盾”:有人用它来制造虚假色情内容,也有人用它来反击

Gfycat计划利用它的屏蔽技术不仅仅只来屏蔽更多的人脸,而且用于检测不同类型的虚假内容,如假的天气预报或科学视频。“Gfycat一直以来都非常依赖人工智能来分类、管理和调节内容。人工智能领域的创新加速步伐有可能极大地改变我们的世界,我们将继续把我们的技术应用于这些新的发展,”Gfycat的首席执行官理查德·拉巴特(Richard Rabbat)在一份声明中说。

并非万无一失

Gfycat的技术至少在一个deepfakes的场景中是行不通的:在互联网上其他地方都不存在的面部和身体。比如说,有人直接拍下性爱视频,然后将其中的主角换成其他人的脸。如果这里面没有一个人是名人,而且这段视频在其他地方也无法找到,那么Maru或Angora就不可能知道这些内容是否被修改过了。

目前看来,这是一个相当不可能的场景,因为制作一个“deepfake”需要访问一个人的视频和照片库。但也不难想象,以前的恋人会利用手机上之前从未公开过的视频来制作相关的视频。甚至对于那些以色情明星或名人为主角的deepfake,有时人工智能也不确定到底发生了什么,这就是为什么Gfycat雇佣了人类审核员来帮忙的原因。该公司还使用其他的元数据——比如分享的地方或者上传的数据——来确定GIF动图是否是一个deepfake。

“我不能阻止你制造虚假内容,但我可以让制造它变得非常困难,而且非常耗时。”

——哈夫·法里德(Hany Farid),达特茅斯学院

(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读