谷歌和NVIDIA宣布2023年在Google Cloud上进行合作

AI行业新闻9个月前发布 yundic
277 0 0

Google Cloud和Nvidia加深了他们在人工智能、计算、软件和服务方面的合作关系。

会议期间强调了这种合作。 Google Cloud Next 2023大会新的人工智能基础设施和软件在那里亮相。

这些技术旨在促进大型生成人工智能模型的开发和部署,并加速数据科学任务。

英伟达创始人兼首席执行官Jensen Huang表示:“我们正处于一个拐点,加速计算和生成人工智能已经走到一起,以前所未有的速度加速创新。我们与Google Cloud的扩大合作将帮助开发人员加快其基础设施、软件和服务的工作,从而提高能源效率并降低成本。

Google Cloud首席执行官Thomas Kurian补充说:“Google Cloud在人工智能领域进行创新以促进和加快我们客户的创新方面有着悠久的历史。谷歌的许多产品都是在NVIDIA图形处理器上制造和服务的,我们的许多客户都在寻找NVIDIA加速计算来推动LLMS的高效开发,以推进高生产力的人工智能。“

此次合作旨在通过利用基于NVIDIA技术的谷歌云服务来简化人工智能超级计算机的操作。

此次合作的一个关键方面是为Nvidia的H100和A100 Tensor Core GPU优化Google PaxML框架。这将允许更先进和可扩展的实验。

此外,该合作伙伴关系还包括Google通过Google的Dataproc服务将无服务器Spark与Nvidia GPU集成,旨在加速AI开发中的Apache Spark工作负载。

该合作还扩展到新推出的由Nvidia H100 GPU提供支持的Google Cloud A3虚拟机,预计将于2023年9月正式上市。

这些虚拟机旨在使Nvidia的人工智能功能可用于更广泛的工作负载。

此外,Google Cloud还将访问Nvidia的DGX GH200人工智能超级计算机,使他们能够探索其处理生成人工智能工作负载的能力。

Nvidia和Google合作的程度

以下是Nvidia和Google的合作的全部范围, NVIDIA新闻稿

  • 搭载NVIDIA H100 GPU的Google Cloud A3虚拟机:这些将于下月正式上市,旨在使NVIDIA的人工智能平台可用于广泛的工作负载。与以前的机型相比,A3 VM提供了3倍的训练速度和更高的网络带宽。
  • NVIDIA H100 GPU在顶点AI中的应用Google Cloud的Vertex AI平台将很快整合NVIDIA的H100 GPU,使客户更快、更高效地开发生成AI大型语言模型(LLM)。
  • 访问NVIDIA DGX GH200超级计算机Google Cloud将成为首批访问NVIDIA的DGX GH200 AI超级计算机的公司之一,该计算机由NVIDIA Grace Hopper Superchip提供支持,用于生成人工智能的探索性研究。
  • 谷歌云上的NVIDIA DGX云NVIDIA的DGX Cloud AI超级计算和软件将通过Google Cloud客户的Web浏览器提供,从而更容易地访问高级培训工作负载。
  • NVIDIA AI Enterprise在Google Cloud Marketplace:用户可以从Google Cloud Marketplace访问NVIDIA AI Enterprise,这是一个安全的云本地软件平台。该平台简化了一系列人工智能应用程序的开发和部署,包括生成式人工智能、语音人工智能和计算机视觉。
  • 第一个推出NVIDIA L4 GPU:Google Cloud是首家在推出G2 VM时提供NVIDIA L4张量核心图形处理器的云提供商。与CPU相比,这些GPU承诺将AI视频工作负载的性能提高高达120倍,效率提高99%。

英伟达在人工智能军备竞赛中的相当软件不可知的立场确保了对其硬件的巨大需求,几乎所有寻求人工智能转型的公司都在购买这些硬件,包括在中国和中东。不过,美国政府正在限制对这两个国家的贸易,最近的一次是对中东。

毫无疑问,谷歌和英伟达是一个强大的组合,这一最新的声明并不不合性格,因为两家公司已经合作了几十年。

© 版权声明

相关文章

暂无评论

暂无评论...