当地时间周一,英伟达宣布推出 NVIDIA HGX™ H200,为全球领先的 AI 计算平台带来强大动力。
该平台基于 NVIDIA Hopper™ 架构,是 H100 GPU 的继任者,也是该公司首款使用 HBM3e 内存的芯片,可加速生成式 AI 和大型语言模型,同时推进 HPC 工作负载的科学计算。
借助 HBM3e,英伟达 H200 以每秒 4.8 TB 的速度提供 141GB 内存,与 A100 相比,容量几乎翻倍,带宽增加 2.4 倍。
H200 的推出将带来进一步的性能飞跃,在 Llama 2 上的推理速度比 H100 快一倍。英伟达表示,未来的软件更新预计会带来 H200 的额外性能领先优势和改进。
英伟达 H200 芯片将于 2024 年第二季度开始向全球系统制造商和云服务提供商供货。
欢迎光临 机械必威体育网址 (//www.szfco.com/) | Powered by Discuz! X3.4 |