从deepfakes被禁止,看TensorFlow的泛滥应用

1,890 阅读7分钟
本文由 「AI前线」原创,原文链接:从deepfakes被禁止,看TensorFlow的泛滥应用
作者|Dave Gershgorn
译者|Debra
编辑|Emily

AI 前线导读:”由世界各地的点对点计算机节点支撑的区块链技术日趋火热。随着区块链技术在娱乐产业的应用,它能够通过用点对点网络取代集权的娱乐产业守门人来打破作品创作发行的垄断,从根本上颠覆娱乐产业,带来有线电视和 Netflix 的终结。”


2015 年,谷歌宣布将发布其内部开发的人工智能算法 TensorFlow 工具。这是一个改变世界各地人工智能研究和开发基本基础的举动。借用谷歌首席执行官的话来说,“这个可以和电力带给人类社会同样深远影响的技术方法将是开放的、易于使用和免费的。”从此,进入人工智能算法的壁垒从一张博士证书,降低到一台笔记本电脑。

但是这也意味着 TensorFlow 的洪荒之力已经超出了 Google 的控制。仅两年多之前,学术界和硅谷还是软件领域最大的贡献者,但现在这个局面正在发生变化。deepfakes 就像是催化剂一样,搅动了局面的发展。这是一个匿名 Reddit 用户用 AI 软件构建的项目,可自动将任何脸部图像(几乎)无缝地拼接到视频中。Motherboard 首先报道了这个项目,这个软件可以用来把任何人的脸,比如 Facebook 上一位著名女影星或者朋友的面部图像,完美地嫁接到色情女演员的脸上。

此后,有用户创建了自己的 subreddit,用户累计超过 91000 名。另一个名为 deepfakeapp 的 Reddit 用户也发布了一个名为 FakeApp 的工具,在有硬件保障的前提下,所有下载这款 AI 软件的人都能够轻而易举地上手自己做假色情视频。直到 2 月 7 日,Reddit 上的这个社区已经被禁止,理由是它违反了网站的非自愿色情政策。

根据 FakeApp 的用户指南,该软件建立在 TensorFlow 框架之上。谷歌员工使用 TensorFlow 开创性地进行了类似的工作,只是设置和主题略有不同,训练算法从头开始生成图像。deepfake 其实也是挺有意思的,比如有人用它把 Nicolas Cage 放在一堆不同的电影里,画面诙谐有趣。但是,不得不承认事实上订阅 deepfakes 中的 91000 名 subreddit,就是为了看色情片而来。

然而,虽然 TensorFlow 的开源带来了很多好处,例如潜在的癌症检测算法,但是 FakeApp 的盛行却代表了开源的黑暗面。谷歌(以及微软、亚马逊和 Facebook)无私地将强大的技术力量赐予了全世界,不求回报,所有人都可以下载 AI 软件,并将其用于任何数据集的创建,包括从伪造政治性演讲(在语音模仿 AI 工具的帮助下),到生成假的色情内容。所有的数字媒体都是由一系列的“0”和“1”组成,而人工智能则可以巧妙的方式“创造”从未存在过的事情。

由于软件可以在计算机上本地运行,因此大型科技公司在软件在离开服务器之后会失去对它们的控制。开放源代码的信条,或者至少在现代软件开发中的发展状况,决定了这些公司无法对其他公司利用这些软件做了些什么负责。就这样,它的存在就像一把枪或一支香烟。

而且似乎没什么动力可以改变它的现状:正是因为它让更多的人可以开发 AI,自由软件成为这些公司盈利相当好的业务。每个大型科技公司都在争夺尽可能多的 AI 人才,而涌入这个领域的人越多越好。另外,其他人使用能够激发新产品生产的代码进行项目开发,公司以外的人员可以找到并修复错误其中的错误,并用这个软件对本科和博士生进行教学,为这些已经了解公司内部使用工具的新人创造了机遇。

“人们在过去的五年中谈到机器学习方面的重大突破,但真正的重大突破不是算法。算法实际上与 70 年代,80 年代和 90 年代没有大的区别,真正的突破是开源,”AT&T 先进技术部副总裁,前机器学习研究员 Mazin Gilbert 说:“开放源码降低了进入门槛,让算法不再是 IBM、谷歌和 Facebook 独有的技术实力了。“

开源软件也使得 AI 开发中的道德问题变得复杂化。Google 今天提供的工具并不是创建天网或其他超级智慧的关键,但它们仍然可能造成很大的负面影响。谷歌和微软等提供开源人工智能框架的公司一直声称人造智能不会违背伦理道德,他们的在职人员科学家已经签署了承诺,并成立了专门研究这个主题的小组。但是这些公司不会为下载他们的免费软件的用户提供任何指导或授权。 TensorFlow 网站有软件运行的说明,但却没有关于软件使用软件伦理道德的免责声明,以及确保数据集无偏见的说明。

几个月前,当我问微软人工智能副总裁 Harry Shum,公司计划如何引导那些使用开源软件和付费开发者工具来创建符合道德标准的机器学习系统时,他表示他也不太清楚。

Shum 说道:“这真的很难,我不认为我们现在能提出一个简单的解决方案。我们正在逐渐学习的一件事是,当我们设计机器学习算法时,要尝试找到盲点。”

Google 亦没有回应类似问题。

将 AI 从开放源代码移出也不是一个理想的解决方案。如果闭塞软件的信息,我们很难了解这些不透明的科技公司究竟如何开发他们的人工智能算法。我们可以在 ArXiv 等网站上免费发布研究成果,在 Github 上分享原始代码,这意味着记者、学者和伦理学家可以从中发现潜在的问题并要求问责。而且,大多数人使用 AI 工具包进行生产性使用,例如应用程序中的标准图像识别或分类黄瓜等物品。

并不难想象,不久可能会有其他类型的假视频将通过 Facebook 和 Twitter 等主流平台得以散播,并在这些社交媒体中找到立足之地,这并不是什么遥不可及的事情。虽然人工智能研究人员一直在寻找解决方案,但不会很快找到方法。毕竟,这样的软件已经出现了。

由于这种核心技术的开发者,比如 deepfakes 的创作者将拒绝为承担责任,所以负担将落在视频和图像共享平台。例如,Gfycat 删除了网站上所有 Deepfakes GIF。Reddit 已经关停了 deepfakes 社区。色情视频网站 PornHub 也表示将删除此类视频,因为其认为相关人的肖像使用没有得到本人的首肯。但是 deepfakes.club 仍然没有禁止。

无论 deepfakes 软件将来的境遇如何,相信这都只是一个开始。

原文链接:qz.com/1199850/goo…

更多干货内容,可关注AI前线,ID:ai-front,后台回复「AI」、「TF」、「大数据」可获得《AI前线》系列PDF迷你书和技能图谱。