谷歌的新TPU在这里加速AI培训
谷歌在机器学习硬件领域取得了另一个飞跃。科技巨头已经开始部署其张量处理单元的第二个版本,这是一个专门的芯片意味着加速机器学习应用,公司首席执行官Sundar Pichah周三宣布。
新的云TPU体育若干改进的前身。最值得注意的是,它还支持培训机器学习算法,除了处理现有模型的结果。每个芯片都可以为这些任务提供180 Teraflops处理。谷歌还能够以允许更大的计算增益的所谓TPU Pods将芯片组合在一起。
企业将能够通过谷歌的云平台使用新芯片,作为其计算引擎基础架构的一部分的一部分。此外,该公司还推出了一个新的Tensorflow研究云,如果他们承诺公开发布他们的研究结果,将为研究人员提供免费访问。
这是一个有可能急促加速机器学习的举动。谷歌表示,其最新机器翻译模型占据了最高动力的现代GPU的32个训练的全天,而TPU Pod的第八次可以在下午做同样的任务。
机器学习对于推动下一代应用程序越来越重要。加速创建新模型意味着谷歌这样的公司更容易尝试不同的方法,以找到最适合特定应用的方法。
谷歌的新硬件还可以在公司与Microsoft,Amazon和其他技术泰坦竞争时,吸引新客户到云平台。谷歌首次揭开其I / O开发人员会议上的张量处理单位进行了一年的云TPU公告。
在TPU上运行的编程算法将需要使用Tensorflow,该算法源于Google的开源机器学习框架。TensoRFlow 1.2包括新的高级API,使其更容易采用在CPU和GPU上运行的系统,并在TPU上运行它们。据谷歌高级研究员杰夫·迪恩杰夫·迪恩统计,其他机器等机器学习框架的制造商可以通过设计呼叫Tensorflow API来使他们的工具与TPU一起工作。
院长不会详细说明云TPU的任何具体性能指标,超出芯片潜在的Teraflops。最近的谷歌研究论文指出的是不同算法在原始TPU上执行不同的算法,并且如果云TPU以类似的方式行事则不清楚。
谷歌不是唯一投资硬件的公司来帮助机器学习。Microsoft正在将现场可编程门阵列部署在其数据中心中,以帮助加速其智能应用程序。
此故事已被纠正,以澄清云TPU的可用性作为Google Compute引擎的一部分。