一种新芯片可以为人工智能时代所需的数十亿次计算提供动力
当前的人工智能热潮需要大量的计算能力。目前,其中大部分来自英伟达的图形处理单元——该公司供应大约90%的人工智能芯片市场。在本周的一份声明中,它旨在通过新宣布的下一代GH200 Grace Hopper超级芯片平台扩大其主导地位。
虽然大多数消费者更有可能认为GPU是游戏PC或视频游戏机的一个组件,但它们的用途远远超出了娱乐领域。它们被设计成并行执行数十亿次简单计算,这一功能不仅使它们能够以高帧速率渲染高清计算机图形,还使它们能够挖掘加密货币、破解密码、训练和运行大型语言模型(LLM)和其他形式的生成人工智能。真的,GPU这个名字已经过时了——它们现在是功能强大得令人难以置信的多用途并行处理器。
英伟达本周在计算机图形会议SIGGRAPH上宣布了其下一代GH200 Grace Hopper超级芯片平台。该公司在一份新闻稿中解释说,这些芯片“旨在处理世界上最复杂的生成式人工智能工作负载,涵盖大型语言模型、推荐系统和矢量数据库。”换句话说,它们旨在尽可能快速高效地进行这些人工智能系统所需的数十亿次微小计算。
GH200是H100的继任者,H100是英伟达当前最强大(需求量也非常大)的人工智能专用芯片。GH200将使用相同的图形处理器,但与H100上的80 GB相比,它有141 GB的内存。GH200还将提供其他一些配置,包括结合两个GH200的双重配置,这将提供“比当前一代产品多3.5倍的内存容量和3倍的带宽”
[相关:人工智能广阔世界的简单指南]
GH200专为数据中心而设计,如亚马逊网络服务和微软Azure运营的数据中心。“为了满足对生成性人工智能激增的需求,数据中心需要具有特殊需求的加速计算平台,”英伟达创始人兼首席执行官黄仁勋在新闻稿中表示。“新的GH200格雷斯·霍珀超级芯片平台提供了卓越的内存技术和带宽,以提高吞吐量,能够毫不妥协地将图形处理器连接到聚合性能,以及可以轻松部署在整个数据中心的服务器设计。”
像GH200这样的芯片对于训练和运行(或“推理”)人工智能模型都很重要。当人工智能开发人员创建一个新的LLM或其他人工智能模型时,数十个或数百个图形处理器被用来处理大量的训练数据。然后,一旦模型准备好,就需要更多的图形处理器来运行它。额外的内存容量将允许每个GH200运行更大的人工智能模型,而不需要将计算工作负载分成几个不同的图形处理器。尽管如此,对于“巨型模型”,多个GH200可以与英伟达NVLink结合使用。
尽管英伟达是最具统治力的玩家,但它并不是唯一一家制造人工智能芯片的制造商。AMD最近宣布了具有192 GB内存的MI300X芯片,它将与GH200正面交锋,但它是否能够占据很大的市场份额还有待观察。还有许多初创企业正在制造人工智能芯片,如SambaNova、Graphcore和Tenstorrent。谷歌和亚马逊等科技巨头已经开发了自己的芯片,但它们在市场上同样落后于英伟达。
英伟达预计使用GH200芯片构建的系统将于明年第二季度上市。它还没有说它们的价格是多少,但是考虑到H100的售价可以超过4万美元,它们不太可能被用于许多游戏电脑。
一种新芯片可以为人工智能时代所需的数十亿次计算提供动力