昨日晚间,英伟达Nvidia 推出了 H200,这是一款专为训练和部署生成式人工智能模型的图形处理单元(GPU)。
它基于 NVIDIA[] Hopper[] 架构,具有先[]进的内存和处[]理能力,可处[]理海量的数据[]用于生成式 AI 和高性能计算[]工作负载。 H200是第[]一款具有 HBM3e 内存的 GPU,提供[]了141GB[] 的内存和4.[]8TB/s 的内存带宽,[]几乎是 NVIDIA[] H100Te[]nsor Core GPU 容量的两倍,[]内存带宽也增[]加了1.4倍[]。
在 AI 领域,业务需[]要使用大型语[]言模型来满足[]各种推理需求[]。H200在[]处理类似 Llama2[]这样的大型语[]言模型时,相[]比 H100GP[]U 的推理速度提[]高了2倍。 对于高性能计[]算应用,内存[]带宽对于提高[]数据传输速度[]、减少处理瓶[]颈至关重要。[]H200的更[]高内存带宽确[]保高效地访问[]和操作数据,[]使得与 CPU 相比,处理时[]间快了110[]倍。
此外,H20[]0的能效和总[]拥有成本也有[]所降低。这项[]前沿技术不仅[]提供了卓越的[]性能,而且功[]耗与 H100相同[]。
预计 H200将在[]2024年第[]二季度开始发[]货。
Nvidia 表示,H200将兼容 H100,这意味着已经在使用先前模型进行训练的人工智能公司无需更改其服务器系统或软件即可使用新版本。
评论区