NVIDIA官宣推出最新 H200 Hopper GPU,该 GPU 今年配备了美光全球更快的 HBM3e 内存。除了新的人工智能平台之外,NVIDIA 还官宣凭借 Grace Hopper 超级芯片赢得超级计算机重大胜利,该芯片现已为 Exaflop Jupiter 超级计算机提供动力。
NVIDIA 通过更新的 Hopper GPU、Grace Hopper 超级芯片与超级计算机继续打造 AI 动力
NVIDIA 的 H100 GPU 是迄今为止业界需求量最大的 AI 芯片,但绿色团队希望为其客户提供更高的性能。HGX H200 是全新的 AI H电脑 与计算平台,由 H200 Tensor Core GPU 提供支持。这些 GPU 在硬件与软件上均采用全新的 Hopper 优化,同时提供迄今为止世界上更快的内存化解方案。
NVIDIA H200 GPU 配备了美光的 HBM3e 化解方案,内存容量高达 141 GB,带宽高达 4.8 TB/s,和 NVIDIA A100 相比,带宽增加了 2.4 倍,容量增加了一倍。在 Llama 2(700 亿参数 LLM)等应用中,这种新的内存化解方案使 NVIDIA 的 AI 推理智能比 H100 GPU 提升了近一倍。TensorRT-LLM 套件的全新进展也为大量人工智能应用带来了巨大的性能提高。
在化解方案方面,NVIDIA H200 GPU 将广泛应用于具有 4 路与 8 路 GPU 设置的 HGX H200 服务器中。HGX 系统中 H200 GPU 的 8 路设置将提供高达 32 PetaFLOP 的 FP8 计算性能与 1.1 TB 的内存容量。
NVIDIA H200 GPU:配备 HBM3e 内存,将于 2024 年第二季度上市
GPU还将和现有的HGX H100系统兼容,使客户能够更轻松地更新其平台。华硕、华擎 Rack、戴尔、Eviden、技嘉、慧和、鸿毅科技、联想、QCT、纬颖科技、超微与纬创等 NVIDIA 合作伙伴将在 H200 GPU 于 2024 年第二季度上市时提供升级的化解方案。