首页

欢迎访问中国电子企业协会!

您现在所在的位置是:首页 >   > 正文

第二代TPU带来更大运算效能, 但应用领域仍有局限

2017-06-06

    对于标榜可发挥高达180TFLOPS的第二代TPU(TensorProcessingUnit),Google说明此项处理器依然是针对开放学习框架TensorFlow加速为主,因此无法像NVIDIA提出TeslaV100等GPU加速模式可额外支持Caffe、CognitiveToolkit等学习框架。

    相比第一代TPU仅能针对逻辑推演作加速,Google此次宣布推出的第二代TPU不但大幅提升运算效能,更增加对应深度学习应用加速设计,配合越来越多人使用的TensorFlow学习框架,将使TPU应用领域变得更加多元,甚至直接挑战NVIDIA以GPU加速的深度学习应用模式。

    不过,在GoogleI/O2017期间进一步向Google询问,确认第二代TPU设计依然是以针对开放学习框架TensorFlow加速为主,本身并不像NVIDIATeslaV100等藉由GPU加速模式可额外支持Caffe、CognitiveToolkit等学习框架,因此在实际布署应用弹性可能相对受限。只是从TPU大幅去除非必要组件,仅针对深度学习、逻辑推演加速功能优化,预期仍将使NVIDIA面临不少竞争压力。

    但从NVIDIA为使加速学习效率提升,在新款加速卡TeslaV100架构设计额外加上对应TensorFlow学习框架的Tensor核心,藉此让深度学习效率可进一步提升,显然也是呼应越来越多藉由TensorFlow学习框架产生的深度学习应用需求,同时更有向Google说明GPU加速仍有较广泛应用的叫阵意味。

    而对于开发者需求部分,Google方面则认为无论是什么样的加速学习模式都有其优点,例如聚焦在TensorFlow学习框架的深度学习,或许第二代TPU能带来更好加速学习效率,但若是针对TensorFlow以外学习框架应用,NVIDIA的TeslaV100显然就有较高使用弹性,因此主要还是看本身设计内容挑选较合适的学习模式。同时在越来越多的选择之下,对于开发者所能使用资源、带动市场发展动能都能带来好处。