谷歌的机器学习云管道解释道

你会依赖TensorFlow得到充分利用,但你会得到一个真正的端到端引擎机器学习

当谷歌第一次告诉世界对其张量处理单元,它背后的策略似乎足够清晰:速度抛出定制硬件大规模机器学习的问题。使用商品gpu训练机器学习模型;使用自定义tpu部署这些训练模型。

新一代的谷歌的tpu设计来处理这两种职责,培训和部署在同一芯片。新一代也更快,自己和与他人在缩放的时候在所谓的“TPU豆荚”。

但更快的机器学习并不是唯一的受益于这样的设计。TPU,尤其是在这种新形式,构成另一块相当于谷歌建立一个端到端的机器学习管道,涵盖从摄入的数据训练模型的部署。

机器学习:管道穿过它

使用机器学习的最大障碍之一是现在是如何艰难的在一个管道数据接收、归一化、模型训练、模型和部署。碎片仍然高度不同的和不协调。像百度这样的公司有暗示想要创建一个单一的,统一的,unpack-and-go解决方案,但到目前为止,这只是一个概念。

最有可能的地方出现了这样一个解决方案是在云端。随着时间的流逝,更多的收集的数据的机器学习(和其他所有的事情,真的)默认住在那里。那么硬件需要产生可行的结果。给人们一个端到端,为机器学习计划中工作流程,一个只有几个旋钮在默认情况下,他们会很高兴建立在其上。

大多已经意识到,谷歌的愿景是,每个阶段的管道可以在云中,执行的数据,尽可能最好的速度。与tpu,谷歌还旨在提供许多定制的硬件加速的阶段,可以向外扩展的需求。

新tpu旨在提高管道加速度在几个方面。一个加速来自能够帮多个tpu。另一个是来自于训练和部署模型从相同的硅板。与后者,更容易逐步训练模型作为新数据,因为数据不需要移动。

optimization-operating数据,它是加速操作——也与其他机器学习的性能改进,比如一些提出了Linux内核补丁常见的机器学习的数据访问api

但是你愿意把自己锁进TensorFlow呢?

谷歌的愿景:有一个可能的缺点,提供的性能提升tpu只能如果使用合适的机器学习框架。这意味着Google自己的TensorFlow。

这并不是说TensorFlow是一个糟糕的框架;事实上,这是很好。不过只是一个框架的,适合不同需求和用例。所以tpu的支持只是TensorFlow限制意味着你必须使用它,无论其健康,如果你想挤最大的性能谷歌的ML云。另一个框架可能是更方便用于一个特定的工作,但它或许不会很快火车或预测服务,因为它只会委托运行在gpu上。

这也排除了这种可能性,谷歌可以介绍其他硬件,如customer-reprogrammable fpga,允许框架没有直接由谷歌也有优势。

但对大多数人来说,能够使用的不便tpu加速只有某些事情会方便管理,远比云everything-in-one-place管道对机器学习的工作。所以,不管你喜欢与否,准备使用TensorFlow。

这个故事,”谷歌的机器学习云管道解释道“最初发表的信息世界

加入网络社区足球竞猜app软件脸谱网LinkedIn上面的评论主题思想。

版权©2017足球竞彩网下载

工资调查:结果是在