谷歌在Google I / O大会上宣布了测试版,这是一年一度的开发者活动,谷歌通常会发布一些与AI相关的公告,包括针对企业客户发布的AI产品和服务。
单个云TPU Pod可包含1,000多个单独的TPU芯片。它们通过二维环形网状网络连接,TPU软件堆栈使用该网络通过各种高级API将多个机架作为一台机器进行编程。用户还可以利用Cloud TPU Pod的一小部分,称为“切片”。
最新一代Cloud TPU v3 Pod采用液冷式设计,可实现最佳性能。每一个都提供超过100 petaFLOP的计算能力。谷歌表示,就每秒原始数学运算而言,Cloud TPU v3 Pod与全球五大超级计算机相当 - 尽管它的数值精度较低。
凭借这种功能,TPU Pod可能只需几分钟或几小时即可完成ML工作负载,这些工作负载需要数天或数周才能在其他系统上完成。具体来说,谷歌表示它们非常适合有特殊需求的客户,例如在培训大型ML模型时更快地迭代,使用更大的数据集(数百万标记的示例;数TB或数PB的数据)训练更准确的模型,或者重新训练模型每天或每周提供新数据。