在俄勒冈州 Prineville 的山上一栋 350,000 平方英尺(32516.064 平方米)的大楼里,嵌在一台不起眼的服务器机架狭缝里面的是 Facebook 最有价值的人工智能工具,它叫 Big Sur ,是一种训练软件不断提升性能的硬件系统。它使用从全世界筛选而来的海量数据,并利用这栋大厦内部的超级计算能力将以前需要几个月才能做完的事加速到只需要几个小时就能完成。有了 Big Sur ,Facebook 能够训练启动桌面游戏播放程序和帮助软件“解读”图片并向人们解释图片内容的人工智能程序。

Big Sur 系统可以在第二代 Facebook 的 Prineville 数据中心找到,第一代建成仅在六年前。 Prineville 是俄勒冈州中部的小城市,居民仅在 9,000以上。这座城以 Facebook 这家社交网络公司的第一家美国服务器农场为标志,这些服务器被建造出来用于承纳 Facebook 节节升高的用户量和网站剧增的计算需求。现在,此园区包围了 100 万平方英尺土地,在 735 Connect 街上有将近六栋整体灰色大厦,从 126 大道向各个方向延伸。

其运作方式看上去更像政府办公大楼,而不是像数据中心,而且它的安保措施覆盖了所有进出口。对于科技产业之外的人来说,他们很容易将 Big Sur 视为等同于机密文件,存放在深处的建筑群里的封锁的多层次的物理空间之中。

2015071500032

在 Facebook Prineville 第二代的两个数据操作中心内部;第三代数据中心正在构建中。

真正的惊喜:第三代数据中心都确实不会被严格保密。事实上, Facebook 去年宣布, Big Sur 在取代 Prineville 数据中心和全美国其它几个地方的系统之前会成为一个开源项目。这家公司已经将 Big Sur 的设计提交给了开源计算项目 (Open Compute Project) 。由 Facebook2010 年开创的数据中心社区,其设计宗旨是让硬件更高效节能,并分享公司及其竞争对手从全美国日益增长的服务器群组中学到了什么。

通过使用 8 个现成的——尽管很昂贵的—— Nvidia 图形处理器 (Nvidia GPUs) 和生产商 Quanta 的设计参考书,你甚至可以自己动手建立初级版本的Big Sur ,就像 Facebook 做的那样。但是,如果不像 Facebook 在 Prineville 将成千上万的基于 GPUs 的系统绑定在一起,你就不可能获得符合设计初衷的能够进行人工智能训练的能力。建立真实可靠的 Big Sur 设施需要只有像谷歌或微软这种大公司才愿意投资的某些资源。(这两家公司都参与开源计算项目,而且只要他们愿意,他们就能创建 Big Sur 的类似版本。)

“我们的职责不是保守秘密,”Kevin Lee 是 Facebook 技术项目经理,监管 Big Sur 和位于 Prineville 的其它服务器设计,他说,“我们的目标是理解世界,是驱动人工智能的发展。”当然,谷歌有它自己的训练人工智能的开源软件,即 Tensor Flow ,所以 Facebook 出于与谷歌竞争的理由,也会继续分享它的秘密。

Lee 说,人工智能是 Facebook 未来的三大核心支柱之一。其CEO Mark Zuckerberg 四月份在 F8 开发者大会勾勒了 Facebook 十年的战略规划图,解释了社交网站 Facebook.com 如何成为这样的公司的第一步,而它的许多移动应用程序是第二步。接下来十年,Zuckerberg 想让 Facebook 引领网络互连、无人机、增强现实、虚拟现实和人工智能行业。

人工智能正在帮助 Facebook 软件看见和理解世界,解读人类语言,独自进行推理,并安排自己的行为过程。其中一些已经能实际操作了。例如, Facebook 的新款多语言编辑器(multilingual composer) 让你以某种语言编排文本,然后自动翻译成其它语言。另一个新鲜的例子是使用 Facebook 的人工智能去分析图片并向盲人和视觉受损的用户描述图片内容。每次你上传图片,训练 Big Sur 的图片识别算法都会识别人脸并建议图片中哪些人需要标记。

这些特征中,每个特征的中心都是机器学习,一项几乎和人工智能本身一样历史悠久的人工智能训练技术。多亏了海量数据集的开放以及最近计算能力的飞跃,机器学习已经渐渐成为一种改善这类软件日益有效的方法。和许多竞争者一样,Facebook 使用机器学习训练神经网络,机器学习是受人类大脑启发可以绘制模式并且把概率结果从复杂数据集中摘出的算法。

2015071500034

Nvidia 公司加速计算部的副总裁 Ian Buck 与 Facebook 人工智能与数据中心团队有着密切合作,他说,“第一次培训一个独立的神经网络花费了我们整整三个月。”而在使用新型 Nvidia GPUs 优化培训硬件后,培训时间被缩短到了一个月。他还说有了配备最新 Nvidia 硬件的 Big Sur,现在不到一天就可以培训一个神经网络执行以往需要人来完成的任务。

Nvidia 公司的 Ian Buck 站在一架由 Big Sur培训的神经网络旁,它正在基于 12,000 多幅画作来创造艺术

Buck 在低层级的 FacebookPrineville 数据中心深处实时展示这个场景。一个由 Big Sur 培训过的 Facebook 人工智能消耗数不胜数的看似是法国印象派画家的画作,并且开始自己作画。他不使用虚拟画架和笔刷,而是基于这些消耗的画作设想出画该是什么样子,然后创造出图形文件。Buck 说团队给它提供了 12,000 幅左右的画作,30 分钟内它便开始输出原创作品了。他补充说,还有一些培训它的更精细的方法——告诉人工智能更多地关注一幅比方说没什么云彩的画上,同时不太去关注那些画着阴沉天空的作品。

这还只是一个测试版本,Google Deep Dream 的神经网络同样使用计算机视觉来建造超现实图像。但是 Facebook 的概念验证暗示出它计划让人工智能远远超出图片标记和翻译的范畴——Facebook 公司刚刚开始探索这些可能。

Facebook 的作画人工智能暗示出它计划超越图片标记。

现阶段,Facebook 希望凭借越来越强大的部件来改进 Big Sur。Lee 表示该系统为模块化,从而支持更新的 GPUs 以及不同的服务器与机架设计。以它现在的状态,Facebook 的数据科学家们和人工智能研究者们能够登陆位于 Prineville 的服务器并且使用 Big Sur 培训尚未被投入使用的离线算法。

2015071500034

Facebook 的 Kevin Lee 在 FacebookPrineville 展示一个 Big Sur 系统

该公司也从未回避让第三方研究者接触这些机会的问题。公司和个人可以通过开源计算项目加入该团体,使用开源硬件和软件并为其做出贡献。

Lee 说,“保密硬件不是我们要做的事。”一队参观记者聚集在一个他从服务器机架里挪出的 Big Sur 系统前,证明了 Lee所说非虚。当 Lee 取出部件并解释它们的功能时,记者们一直在疯狂地拍照。对 Big Sur 内部运作的强烈兴趣在 Lee 看来似乎有些蠢——有一份 95 页的 PDF 在线文件可以准确地告诉你 Big Sur 的模样,工作原理以及你该如何构建它。

本文选自:The Verge,作者:Nick Statt,机器之心编译