英伟达推出了H200,这是其最新的高端芯片,专为训练人工智能模型而设计。
2023年11月13日星期一宣布,这款新的GPU将通过整合141GB的下一代“HBM3”内存来增强AI模型的能力。
H200代表着与其前身H100的演变,H100在人工智能生态系统中发挥了重要作用。
对NVIDIA人工智能图形处理器的兴奋在2023年将其股价推高了230%,该公司预计第三财季收入约为160亿美元,比上一年增长170%。
H200的一个关键特性是其增强的推理性能,这是指使用经过训练的人工智能模型基于新的、不可见的数据做出预测或决策的过程。
这与模型的训练阶段不同,人工智能从大型数据集学习模式。
目前的数据显示,H200的S性能几乎是H100的两倍,Meta的Llama 2大型语言模型(LLM)基准就证明了这一点。
预计将于2024年第二季度发货,H200可能会开始从世界各地的人工智能公司获得大量订单,但中国、伊朗和俄罗斯除外,美国的人工智能硬件出口被禁止。
H200将与使用H100的现有系统兼容,允许人工智能公司在不需要更换服务器系统或软件的情况下进行升级。
它将在Nvidia的HGX完整系统上提供四个GPU或八个GPU服务器配置,也可以作为一个名为GH200的单独芯片,将H200 GPU与ARM处理器配对。
然而,H200作为最快的Nvidia AI芯片的地位可能是短暂的。由于对其GPU的高需求,Nvidia计划转变为每年发布模式,以确保人工智能行业完全掌握在自己的口袋里。
还有另一个芯片正在开发中,B100芯片基于全新的Blackwell架构,可能会在2024年宣布和发布。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...