NVIDIA 宣布推出了下一代 AI 超级计算机芯片,该芯片可能会在深度学习和大型语言模型 (LLM)(例如 OpenAI 的 GPT-4)的未来突破中发挥重要作用。该技术代表了上一代技术的重大飞跃,有望用于数据中心和超级计算机——处理天气和气候预测、药物发现、量子计算等任务。
关键产品是基于 NVIDIA“Hopper”架构的 HGX H200 GPU,它是流行的 H100 GPU 的替代品。这是该公司首款使用 HBM3e 内存的芯片,速度更快、容量更大,因此更适合大型语言模型。该公司写道:“借助 HBM3e,NVIDIA H200 以每秒 4.8 TB 的速度提供 141GB 内存,与前身 NVIDIA A100 相比,容量几乎增加了一倍,带宽增加了 2.4 倍。”
就人工智能的优势而言,NVIDIA 表示,与 H100 相比,HGX H200 在 Llama 2(一个 700 亿参数的 LLM)上的推理速度提高了一倍。它将提供 4 路和 8 路配置,与 H100 系统中的软件和硬件兼容。它将适用于各种类型的数据中心(本地、云、混合云和边缘),并可由 Amazon Web Services、Google Cloud、Microsoft Azure 和 Oracle Cloud Infrastructure 等进行部署。它预计于 2024 年第二季度上市。
NVIDIA 的另一个关键产品是 GH200 Grace Hopper“超级芯片”,它使用该公司的 NVLink-C2C 互连将 HGX H200 GPU 和基于 Arm 的 NVIDIA Grace CPU 结合在一起。 NVIDIA 写道,它专为超级计算机而设计,可让“科学家和研究人员通过加速运行 TB 数据的复杂 AI 和 HPC 应用程序来解决世界上最具挑战性的问题”。
该公司表示,GH200 将用于“全球研究中心、系统制造商和云提供商的 40 多台人工智能超级计算机”,其中包括戴尔、Eviden、惠普企业 (HPE)、联想、QCT 和 Supermicro。其中值得注意的是 HPE 的 Cray EX2500 超级计算机,它将使用四颗 GH200,可扩展到数万个 Grace Hopper Superchip 节点。
也许最大的 Grace Hopper 超级计算机将是位于德国于利希工厂的 JUPITER,它将在 2024 年安装时成为“世界上最强大的人工智能系统”。它采用液冷架构,“带有一个由近24,000 个 NVIDIA GH200 超级芯片与 NVIDIA Quantum-2 InfiniBand 网络平台互连。”
NVIDIA 表示,JUPITER 将有助于在气候和天气预报等多个领域取得科学突破,通过交互式可视化生成高分辨率的气候和天气模拟。它还将用于药物发现、量子计算和工业工程。其中许多领域都使用定制的 NVIDIA 软件解决方案,以简化开发,但也使超级计算团队依赖 NVIDIA 硬件。
新技术对于 NVIDIA 来说至关重要,该公司目前的大部分收入来自人工智能和数据中心领域。上季度,该公司仅在该领域就实现了创纪录的 103.2 亿美元收入(总收入为 135.1 亿美元),比去年同期增长 171%。毫无疑问,它希望新的 GPU 和超级芯片将有助于延续这一趋势。就在上周,NVIDIA 使用较旧的 H100 技术打破了自己的人工智能训练基准记录,因此其新技术应该有助于它在已经占据主导地位的领域扩大对竞争对手的领先优势。
免责声明
本文内容(图片、文章)翻译/转载自国内外资讯/自媒体平台。文中内容不代表本站立场,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除。