Nvidia和Snowflake合作提供创新的云AI服务

AI产品新闻11个月前发布 yundic
479 0 0

云平台Snowflake和Nvidia合作推出了一个平台,使Snowflake用户能够使用他们的数据创建定制的人工智能应用程序。

这项合作是在2023年雪花峰会上宣布的,当时Nvidia首席执行官Jensen Huang被雪花首席执行官Frank Slootman赠送了一个滑雪板作为礼物。

该合作涉及将Nvidia的NeMo大型语言模型(LLM)平台集成到Snowflake Data Cloud中。这将使企业能够使用存储在Snowflake账户中的数据来开发LLM。

它的工作原理如下:

  • 许多企业已经使用Snowflake存储内部数据。
  • 企业使用NVIDIA的NEMO框架来利用他们的数据构建人工智能。
  • 他们使用NVIDIA的图形处理器来培训和部署这些应用程序。

微软Azure在今年早些时候提供了一款类似的产品,表明大型科技公司希望为企业提供更多选择,让他们能够使用自己的数据来构建人工智能模型。

Nvidia的NeMo是一个云原生企业平台,使用户能够构建、定制和部署具有数十亿参数的生成AI模型。该计划是让Snowflake在Snowflake Data Cloud中托管和运行NeMo,为客户开发和推出用于生成性人工智能应用程序的定制LLM铺平道路。

Nvidia企业计算主管Manuir Das讨论了如何让Snowflake客户利用Nvidia尖端的人工智能基础设施。

“他们可以使用自己的专有数据来构建……领先的生成AI应用程序,而无需将其移出安全的数据云环境。这将降低成本和延迟,同时保持数据安全,”他说。

Huang强调了数据在利用企业数据构建生成性人工智能应用程序方面的作用,“Nvidia和Snowflake将共同创建一个人工智能工厂,帮助企业将其宝贵的数据转化为定制的生成性人工智能模型,以支持开创性的新应用程序—就在他们用于运营业务的云平台上。

此设置使企业能够使用存储在Snowflake中的数据—他们不需要从其他地方移动数据。这不仅比从头开始构建人工智能开发管道快得多,而且更安全。

企业正在寻求利用他们的数据进行人工智能

企业希望充分利用人工智能,但他们往往缺乏实现这一点的技术—即使他们拥有数据科学和工程专业知识。

一些企业正在转向使用其资源构建和部署的开源模型,但Nvidia的解决方案可以扩展到涉及TB甚至PB数据的大数据应用程序。

DAS假设,部署基于自己专有数据训练的定制生成性人工智能模型的企业将比使用供应商特定模型的企业领先一步。这是两全其美的,专有数据与NVIDIA在Snowflake生态系统内的尖端人工智能工具结合在一起。

“超过8000个Snowflake客户在Snowflake Data Cloud中存储了EB数据。随着企业希望在其应用程序和服务中添加生成性人工智能功能,这些数据是创建定制生成性人工智能模型的燃料,”Das解释说。

Nvidia提供加速计算和人工智能软件作为合作伙伴关系的一部分。两家公司目前正在与Snowflake的Data Cloud共同开发Nvidia的人工智能引擎。

用达斯的话来说,“生成式人工智能是一个价值数万亿美元的机会,随着企业开始使用其宝贵的数据构建和部署定制模型,它有可能改变每个行业。

英伟达今年价值的大幅飙升推动了大量新的软件和硬件项目。

例如,他们的新H100 GPU在人工智能训练性能方面设定了新的基准,使新一代更大、更好的型号成为可能。

© 版权声明

相关文章

暂无评论

暂无评论...