您的位置 首页 知识

NVIDIA Hopper H200 GPU 配备世界上最快的 HBM3e 内存

NVIDIA官宣推出最新 H200 Hopper GPU,该 GPU 今年配备了美光全球更快的 HBM3e 内存。除了新的人工智能平台之外,NVIDIA 还官宣凭借 Grace Hopper 超级芯片赢得超级计算机重大胜利,该芯片现已为 Exaflop Jupiter 超级计算机提供动力。

NVIDIA 通过更新的 Hopper GPU、Grace Hopper 超级芯片与超级计算机继续打造 AI 动力

NVIDIA 的 H100 GPU 是迄今为止业界需求量最大的 AI 芯片,但绿色团队希望为其客户提供更高的性能。HGX H200 是全新的 AI H电脑 与计算平台,由 H200 Tensor Core GPU 提供支持。这些 GPU 在硬件与软件上均采用全新的 Hopper 优化,同时提供迄今为止世界上更快的内存化解方案。

NVIDIA H200 GPU 配备了美光的 HBM3e 化解方案,内存容量高达 141 GB,带宽高达 4.8 TB/s,和 NVIDIA A100 相比,带宽增加了 2.4 倍,容量增加了一倍。在 Llama 2(700 亿参数 LLM)等应用中,这种新的内存化解方案使 NVIDIA 的 AI 推理智能比 H100 GPU 提升了近一倍。TensorRT-LLM 套件的全新进展也为大量人工智能应用带来了巨大的性能提高。

在化解方案方面,NVIDIA H200 GPU 将广泛应用于具有 4 路与 8 路 GPU 设置的 HGX H200 服务器中。HGX 系统中 H200 GPU 的 8 路设置将提供高达 32 PetaFLOP 的 FP8 计算性能与 1.1 TB 的内存容量。

NVIDIA H200 GPU:配备 HBM3e 内存,将于 2024 年第二季度上市

GPU还将和现有的HGX H100系统兼容,使客户能够更轻松地更新其平台。华硕、华擎 Rack、戴尔、Eviden、技嘉、慧和、鸿毅科技、联想、QCT、纬颖科技、超微与纬创等 NVIDIA 合作伙伴将在 H200 GPU 于 2024 年第二季度上市时提供升级的化解方案。