传奇芯片设计师舍弃高带宽内存 (HBM) ,设计比 Nvidia 更高效的芯片
传奇芯片设计师、现任美国 AI 芯片设计新创公司 Tenstorrent 执行长的 Jim Keller,正致力于开发比 Nvidia GPU 更具效率的芯片,以降低 AI 应用的成本,并意图抢占 Nvidia 的市场份额。
随着人工智能技术逐渐应用于智能手机、电动车和云端服务,许多企业正在寻求更具经济效益的解决方案。许多小型企业不愿意花费 2 万美元购买 Nvidia 的高端 GPU。为了针对那些尚未被 Nvidia 覆盖的细分市场,Jim Keller 正在努力设计更具性价比和效率的芯片。
Tenstorrent 计划在 2024 年底推出其第二代多用途 AI 芯片。实际上,与 Nvidia 的 DGX 系列 AI 伺服器相比,Tenstorrent 的 Galaxy 系统在效率上提升了三倍,并且成本降低了33%。
降低耗电量和价格的关键:舍弃 HBM
高带宽内存(HBM)是一种广受欢迎的高性能内存芯片,能够迅速传输大量数据。它是生成式人工智能芯片的关键组成部分,对 Nvidia 产品的成功至关重要。然而,HBM 同时也是 AI 芯片高功耗和高成本的主要原因之一。通常,GPU 在处理每个任务时都需要将数据传送到内存,这就需要依赖 HBM 的高速数据传输能力。
与此不同,Tenstorrent 芯片大幅降低了资料传输次数,并不依赖 HBM。每个 Tenstorrent 芯片拥有数百个核心,每个核心都配备一个小型 CPU,能够独立决定哪些数据需要优先处理,哪些任务可以放弃,从而提升整体效率。 Keller 相信,这种创新的设计有潜力使 Tenstorrent 芯片在某些 AI 研究领域取代 GPU 和 HBM。此外,公司还将致力于提高产品的性价比。
由于每个核心相对独立,Tenstorrent 芯片可以根据需求进行灵活的堆叠,以适应更广泛的应用场景。例如,少量核心足以用于智能手机或可穿戴设备,而 100 个核心则可以组合用于人工智能数据中心。
Keller 承认,要颠覆目前大规模 HBM 产业可能需要数年的时间。他预测,将来会有更多新兴公司进入Nvidia 目前无法覆盖的人工智能市场,而非单一公司完全取代 Nvidia。
相关文章: AI 芯片短缺持续,但曙光乍现