Google IO 2022:Google 第四代 TPU 加速器建构最大规模机器学习中枢 90% 无碳排放能源驱动 透过 Google Cloud 服务对外开放使用

包含Cohere、LG人工智慧研发中心 (LG AI Research)、Meta AI,以及Salesforce Research等业界团队都已经实际体验Google此机器学习中枢,并且可透过TPU VM架构自行设定互动式开发环境,并且能

包含Cohere、LG人工智慧研发中心 (LG AI Research)、Meta AI,以及Salesforce Research等业界团队都已经实际体验Google此机器学习中枢,并且可透过TPU VM架构自行设定互动式开发环境,并且能弹性应用JAX、PyTorch,或是TensorFlow等机器学习框架,另外也藉由快速互联与最佳化软体堆栈特性,藉此打造更突出效能与扩充性表现。

去年宣布推出第四代TPU加速器之后,Google在此次Google I/O 2022宣布以8组Cloud TPU v4 Pod运算装置构成最大规模的机器学习中枢,更强调使用90%无碳排放能源驱动。

在先前说明中,Google表示第四代TPU加速器运算效能相比前一代产品提昇一倍,同时藉由4096组第四代TPU加速器构成的POD运算装置,更可对应1 exaFLOPS以上的运算表现 (即每秒1018次浮点运算)。而此次以8组Cloud TPU v4 Pod运算装置构成的机器学习中枢,在峰值运算最高可达每秒900万兆次浮点运算,成为全球规模最大的公开机器学习中枢,并且将透过Google Cloud服务对外开放使用。

包含Cohere、LG人工智慧研发中心 (LG AI Research)、Meta AI,以及Salesforce Research等业界团队都已经实际体验Google此机器学习中枢,并且可透过TPU VM架构自行设定互动式开发环境,并且能弹性应用JAX、PyTorch,或是TensorFlow等机器学习框架,另外也藉由快速互联与最佳化软体堆栈特性,藉此打造更突出效能与扩充性表现。

而Google此次在Google I/O 2022提及的PaLM (Pathways Language Model)语言模型,便是透过2组TPU v4 Pod训练而成,藉此对应更迅速的语言翻译、理解效果。

-

原创文章,作者:普拉斯,如若转载,请注明出处:https://www.53moban.com/297.html

联系我们

400-800-8888

在线咨询:点击这里给我发消息

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息