Facebook,Microsoft使用新的A.I来实现更快的服务。服务器设计
Facebook周三推出了与其社交网络相关的一些惊人的统计数据。每天,用户观看100万小时的视频,4亿人使用信使,超过9500万张照片和视频在Instagram上发布。
在数据中心的Facebook的S服务器上对Facebook的服务器进行了沉重的负担,这有助于协调所有这些服务,以确保及时回复。此外,Facebook“S服务器使用机器学习技术来改进服务,其中一个可见的示例是图像识别。
故事与Microsoft类似,它不断寻求平衡其服务器上的负载。例如,Microsoft的数据中心将机器学习应用于Cortana等自然语言服务。
[进一步阅读:开源硬件正在获得临界质量]两家公司都推出了新的开源硬件设计,以确保更快地对这种人工智能服务的回应,并且设计将使公司通过其网络和软件提供更多服务。服务器设计是在周三开放计算项目(OCP)美国峰会的开放式计算项目(OCP)。
其他公司可以使用这些服务器设计作为参考设计自己的服务器内部,然后在亚洲发送群众制造,Facebook和谷歌一直在做多年。金融组织也在试验OCP设计,为其组织制作服务器。
Facebook的大盆是一个非正统的服务器盒,该公司已被称为“JBOG” - 仅为一堆GPU - 这可以为机器学习提供前所未有的电力。系统没有CPU,并作为一个独立的框,需要连接到离散服务器和存储框。
大盆地提供了数据中心解耦处理,存储和网络单元的承诺。在独立的池中,存储和处理可以缩放得多,但是当填充在今天的一个服务器盒中时有限。当处理和存储在一起时,计算也更快。解耦单位也分享电力和冷却资源,减少了数据中心中的电费。
大盆地系统可以连接到TioGa Pass,一个新的Facebook开源双CPU服务器设计。
解耦的数据中心设计对于像Facebook和Google这样的公司非常重要,这是购买成千上万的服务器,以满足他们不断增长的处理需求。通过解耦,处理和其他资源,这些公司可以扩展Web服务和机器学习任务。
英特尔也追逐了类似的设计与其机架规模架构,以及像戴尔和惠普的公司,企业为这种服务器实现提供蓝图。
Facebook的大型盆地系统有八个NVIDIA TESLA P100 GPU加速器,通过超快速NVLINK互连在网格体系结构中连接。网格互连类似于NVIDIA的DGX-1服务器中的一个,该服务器中的一个在日本富士通的A.I.超级计算机中使用。
另一个新的A.I.服务器设计来自Microsoft,该Microsoft宣布了项目奥林巴斯,为AI协处理器提供了更多空间。Microsoft还宣布了一个GPU加速器与NVIDIA和INGRASYS称为HGX-1,类似于Facebook的大血管,但可以扩展以将32个GPU联系在一起。
Project Olympus是一种更传统的服务器设计,不需要服务器安装中的大规模更改。它是一个带CPU,GPU,MEMORY,存储和网络中的1U机架服务器。
Microsoft的新服务器设计具有通用的主板插槽,将支持最新的服务器芯片,包括英特尔的Skylake和AMD的那不勒斯。项目奥林巴斯将在服务器中进行一些很少见的事情:通过X86交叉,以支持高通公司的“S Centriq 2400或Cavium”雷霆X2芯片。
Qualcomm将根据OCP峰会的项目Olympus设计显示主板和服务器。Qualcomm服务器将运行Windows Server,第一次在ARM芯片上显示操作系统运行。
Universal X86和Arm主板支持将允许客户在不购买新硬件的情况下在芯片架构之间切换。为项目奥林巴斯带来ARM支持是Microsoft的新服务器设计的大量成就,Microsoft Azure Hardware基础架构总经理Kushagra VAID,在博客条目中表示。
英特尔的SOURS FIPGA(现场可编程门阵列)有空间,这将加速服务器中的搜索和深度学习应用程序。Microsoft使用FPGA来提供更快的Bing结果。服务器还具有最多三个PCI-Express卡的插槽,如GPU,最多八个NVME SSD,以太网和DDR4内存。它还具有多个风扇,散热器和多个电池,以保持服务器在电源损耗时运行。
Project Olympus HGX-1通过NVLink互连技术支持八个NVIDIA Pascal GPU。四个HGX-1 AI加速器可以链接以创建32个GPU的大量机器学习集群。
今天的数据中心正在进行巨大的转变,以支持快速采用A.I. IAN BUCK表示,COMPERING,NVIDIA加速计算副总裁兼总经理。
“来自Microsoft和Facebook的新OCP设计表明,超高度数据中心需要高性能GPU来支持A.I.计算的巨大需求。”Buck表示。