访问原网址
媒体报道
事件追踪
品玩5月29日讯,据英伟达在 2023 年台北电脑展会上的演讲,该公司宣称其 GPU 可以大幅降低训练大型语言模型(LLM)的成本和耗能。
黄仁勋在演讲中,向CPU行业发起了挑战,他认为生成式人工智能和加速计算是未来计算的方向。他宣布传统的摩尔定律已经过时,未来的性能提升将主要来自生成式人工智能和基于加速计算的方法。
相比之下,如果保持成本不变,购买一个价值 1000 万美元的 GPU 集群,可以在同样的成本和更少的电力消耗(3.2 千兆瓦时)下训练 44 个 LLM。如果转而保持电力消耗不变,那么可以通过 GPU 集群实现 150 倍的加速,以 11 千兆瓦时的电力消耗训练 150 个 LLM,但这需要花费 3400 万美元,此外这个集群的占地面积比 CPU 集群小得多。最后,如果只想训练一个 LLM,那么只需要一个价值 40 万美元、消耗 0.13 千兆瓦时电力的 GPU 服务器就可以了。
英伟达所要表达的意思是,相比 CPU 服务器,客户可以以 4% 的成本和 1.2% 的电力消耗来训练一个 LLM,这是一个巨大的成本节省。
媒体报道
- 英伟达:CPU 已落伍,用 GPU 训练大语言模型成本可降低 96% IT 之家 2023-05-29
- 英伟达:CPU已落伍,用GPU训练大语言模型成本可降低96% 搜狐 2023-05-29
- 英伟达:CPU已落伍,用GPU训练大语言模型成本可降低96% 品玩 2023-05-29
事件追踪
- 2023-05-29 英伟达:CPU已落伍,用GPU训练大语言模型成本可降低96%
- 2023-02-18 英伟达将于3月21日举行GTC 2023主题演讲
- 2020-01-12 NVIDIA有望今年3月公布全新GPU核心“安培”:三星7nm打造
- 2019-07-10 英伟达:下一代GPU将由三星和台积电同时代工
- 2019-07-02 英伟达证实三星力压台积电代工下一代GPU芯片
相关内容