黄仁勋:英伟达AI芯片机能增速远超摩尔定律设定
发表时间:2025年01月10日浏览量:
在拉斯维加斯举办的国际花费电子展 (CES) 上,英伟达 CEO 黄仁勋在一次面向万人的主题报告后接收 TechCrunch 采访时表现,其公司 AI 芯片的机能晋升速率已远超数十年来推进盘算机技巧提高的“摩尔定律”设定的尺度。“咱们的体系提高速率远超摩尔定律,”黄仁勋周二表现。据懂得,“摩尔定律”由英特尔结合开创人戈登 摩尔于 1965 年提出,猜测盘算机芯片上的晶体管数目将大概每年翻一番,从而使芯片机能也大抵翻一番。这一猜测基础实现了,并在多少十年里推进了盘算机机能的疾速晋升跟本钱的急剧降落。比年来,“摩尔定律”的开展速率有所放缓。但是,黄仁勋宣称,英伟达的 AI 芯片正以本身的减速节拍开展;该公司表现,其最新的数据核心超等芯片在运转 AI 推理任务负载方面的速率比上一代产物快 30 多倍。“咱们能够同时构建架构、芯片、体系、库跟算法,”黄仁勋说,“假如如许做,咱们就能比摩尔定律更快地开展,由于咱们能够在全部技巧栈中停止翻新。”英伟达 CEO 宣布这一勇敢舆论之际,正值很多人质疑 AI 开展能否停止之时。包含谷歌、OpenAI 跟 Anthropic 在内的当先 AI 试验室都应用英伟达的 AI 芯片来练习跟运转其 AI 模子,而这些芯片的提高可能会转化为 AI 模子才能的进一步晋升。这并非黄仁勋初次表示英伟达正在超出“摩尔定律”。早在客岁 11 月的一次播客节目中,黄仁勋就曾提出 AI 天下正以“超摩尔定律”的速率开展。黄仁勋还批驳了“AI 停顿放缓”的观念。他以为,以后 AI 范畴存在三年夜扩大定律:预练习(pre-training)、后练习(post-training)跟推理时盘算(test-time compute)。预练习阶段,AI 模子从海量数据中进修形式;后练习阶段,经由过程人类反应等方式微调模子;推理时盘算则让模子在答复每个成绩后有更多时光“思考”。黄仁勋夸大,跟着盘算才能的晋升,AI 推理本钱将逐渐下降,相似于摩尔定律推进盘算本钱降落的汗青过程。英伟达的 H100 芯片曾是科技公司练习 AI 模子的首选,但当初科技公司愈加存眷推理,一些人开端质疑英伟达昂贵的芯片能否还能坚持当先位置。现在,应用测试时盘算的 AI 模子运转本钱昂扬。有人担忧 OpenAI 的 o3 模子(应用了范围化的测试时盘算)对年夜少数人来说过于昂贵。比方,OpenAI 应用 o3 在一项通用智能测试中到达人类程度的分数,每项义务破费近 20 美元。而 ChatGPT Plus 的订阅用度为每月 20 美元。在周一的主题报告中,黄仁勋像举着盾牌一样展现了英伟达最新的数据核心超等芯片 GB200 NVL72。这款芯片在运转 AI 推理任务负载方面的速率比英伟达之前最滞销的芯片 H100 快 30 到 40 倍。黄仁勋表现,这种机能的奔腾象征着像 OpenAI 的 o3 如许在推理阶段应用大批盘算的 AI 推理模子,其本钱将跟着时光的推移而下降。黄仁勋表现,他总体上专一于发明机能更强的芯片,而机能更强的芯片从久远来看会带来更低的价钱。“无论是在机能仍是本钱蒙受才能方面,测试时盘算的直接处理计划是进步咱们的盘算才能,”黄仁勋表现。他指出,从久远来看,AI 推理模子能够用于为 AI 模子的预练习跟后练习创立更好的数据。在从前一年里,咱们确切看到了 AI 模子的价钱年夜幅降落,局部起因是英伟达等硬件公司的盘算技巧冲破。黄仁勋表现,他估计这种趋向将跟着 AI 推理模子的开展而持续下去。黄仁勋宣称他明天的 AI 芯片比 10 年前的产物好 1000 倍。这是一个比“摩尔定律”设定的尺度快得多的速率,黄仁勋表现他以为这种速率不结束的迹象。