未来人人都可以是程序员?_模型_英伟_成本

作 者丨骆轶琪,朱艺艺

编 辑丨张伟贤,巫燕玲

图 源丨图虫

“我们正处于AI的‘iPhone时刻’。”78分钟的GTC演讲过程中,NVIDIA(英伟达)创始人兼首席执行官黄仁勋提了三次这一观点。

正当一些行业人士感慨跑一次GPT4训练需要庞大的资金成本支持时,英伟达自己来炸场了。面向迄今历史上用户数量增长最快的应用ChatGPT,英伟达发布了包括硬件迭代和云服务一系列组合, 核心目的之一,就是加速运算速度、极大降低成本。

(ChatGPT是迄今历史上用户数量增长最快的应用,图源:英伟达发布会现场展示)

黄仁勋表示,类似ChatGPT大型语言模型(LLM)的部署是一个重要的全新推理工作负载,为了支持这类模型推理,英伟达发布一款新GPU,是带有双GPU NVLink的H100 NVL。同时基于NVIDIA Hopper架构的H100配有一个Transformer引擎,是为处理驱动ChatGPT的类似模型,相比用于GPT3处理的HGX A100来看,配备四对H100和双GPU NVLink的标准服务器速度最高可达10倍。“H100可以将大型语言模型的处理成本降低一个数量级。”他续称。

展开全文

为什么在AI变革进程中GPU尤为重要? 这是源于AI大模型在训练时,对基础设施的要求是大规模并行计算,这也是GPU相比于其他类型计算芯片如CPU(串行运算为主)等的显著优势。当然计算的同时也需相应配套高速数据存储、光模块、通信等一系列能力。

其中对英伟达的诉求最为旺盛。今年2月份发布最新业绩时,黄仁勋就曾表示:“AI正处于一个拐点,从初创企业到大型企业, 我们看到生成式AI的多功能性和能力让全球企业感受到开发和部署AI战略的急迫性。”这也成为彼时业绩交流中的核心关键词。

在3月21日深夜的演讲中,他再次提到这一点,并且指出,“生成式AI是一种新型计算机,一种我们可以用人类语言进行编程的计算机,与PC、互联网、移动设备和云类似, 每个人都可以命令计算机来解决问题,现在每个人都可以是程序员。”

黄仁勋认为生成式AI是一种新型计算机,图源:英伟达发布现场

在英伟达和一众合作伙伴的推动下,关于前两天还在火热探讨的“GPT会取代哪些职业”这个话题,似乎也并不那么让人困扰了。

算力账单

先看看这次炸场之前,用英伟达GPU产品部署一次GPT训练需要的实力。

CINNO Research半导体事业部总经理Elvis Hsu对21世纪经济报道记者分析,2023年是ChatGPT元年,构成人工智能的三大要素包括:数据、算法、算力, 其中尤以芯片的算力是最重要一环。由于模型训练参数量的使用与算力成正相关,ChatGPT持续升级进程中,其参数使用量增长幅度不可谓不大,投入资金自然水涨船高。 每一次模型训练所需的资金从数百万到千万美金不等,随着硬件和云计算服务的价格不断变化。

(GPT3论文概要,其参数使用量为1750亿,图源:Open AI官网公布)

“英伟达GPU A100每片约1万美金,除了投入的人力成本、网络宽带成本和数据储存之外, 最重要的就负责算力的芯片成本支出,如何降低成本与功耗便成为未来发展AI芯片的重要课题。”他总结道。

之所以现阶段较难以准确预估训练背后的整体成本,是因为OpenAI在最新关于GPT4的论文中,明确提到出于竞争和安全等因素考虑,相关模型具体信息选择并不公开。由此业内目前对于GPT4背后的具体训练参数量并没有十分统一的测算结果,有认为是万亿级别,也有认为是百万亿级别。

(GPT4论文中并未公布训练量和模型架构等信息,图源:Open AI官网公布)

当然其中核心的成本考虑避不开GPU。IDC亚太区研究总监郭俊丽也对记者指出,算力是AI模型的能源,将最直接受益于人工智能的普及,也成为GPT4最重头的成本投入。同时,想要训练类似ChatGPT的大模型,除了芯片投入,还包括服务器、通信等基础设施。

考虑到不同时期英伟达GPU相关芯片产品的价格有所波动,背后所需的软件能力配置也有不同,造成其具体算力账本一般是一个大概的构想。

郭俊丽进一步指出,基于参数数量和token数量估算,GPT-3训练一次的成本约为140万美元;对于一些更大的LLM模型,比如拥有2800亿参数的Gopher和拥有5400亿参数的PaLM,采用同样的公式可得出, 训练成本介于200万-1200万美元之间。

“以GPT-3.5为模型的ChatGPT模型,都要460万-500万美元。据OpenAI测算,自2012年以来,全球头部AI模型训练算力需求每3-4个月翻一番,每年头部训练模型所需算力增长幅度高达10倍。以此来推测,GPT4的运行成本将大幅高于GPT3.5。对于想要切入该赛道的企业来说,资金成本将会是一个门槛。”她得出结论。

TrendForce集邦咨询分析师曾伯楷综合对记者分析,从GhatGPT开发历程看,其在发展初期约采用1万颗NVIDIA A100 GPU(以下简称“A100”),经扩充升级后,运算资源估计已等同2万颗A100 GPU。目前ChatGPT并未实时更新文本数据,所有信息只涵盖至2021年,GPT4也是如此,一旦ChatGPT开始更新数据、为用户提供更长篇幅的生成内容,且用户数持续成长至1.5亿户以上,则运算资源可能得再扩充1倍,届时或许要增加1.5-2万颗A100 GPU才能满足算力需求。

“在此基础上推估, 大约到2025年,每一款类似ChatGPT的超大型AI聊天机器人算力需求,约等同2.5-4万颗A100 GPU;若以每张A100 GPU显卡价值2万美元估算,总体GPU建置成本将落在5-8亿美元。”他补充道,叠加考虑到GPT4相比前代升级为多模态(multimodal)模型,能分析文字输入、也能进行图片解读,估计超大型AI聊天机器人的整体运算资源可能须再扩张5%左右。

从这个角度看,若是从无到有打造、训练类似GPT4的超大型AI聊天机器人,并且能够向全球用户提供流畅的生成内容服务,其构建成本必然比ChatGPT 3.5高出一倍。“ 至于日后成本是否呈现倍数成长,仍取决于三方面:一是大型语言模型的发展趋势,二是全球AI聊天机器人应用的使用情况,三是硬件资源分配优化方案的进展。”曾伯楷续称。

在当前半导体行业仍没有完全走出周期低点的过程中,AIGC对算力的需求无疑对英伟达的业绩带来较大支撑,但是对于其他芯片类型来说可能影响不会那么显著。

Elvis对记者指出,由于在执行计算期间需要大容量、高速的存储支持,预计高阶的内存芯片需求将会扩大,短期对于低迷的市场助长有限,是因为普及度不够,但 有利于长期高性能高带宽内存HBM及高容量服务器DRAM存储器市场的增长,这对于训练成本的下降稍有助益。

计算生态

基于前面的计算和判断,行业一种观点认为,当前要部署相关AI大模型需要较大的资金实力和能力魄力。由此引发进一步思考:难道AI大模型就只能以如此高成本运行,一般企业根本无力应对吗?

这在3月21日的发布中黄仁勋已经给出了答案:GPU本身已经在快速通过硬件产品和软件生态服务等综合方式,帮助更多AI大模型成长。

GTC期间,英伟达在硬件方面针对大型语言模型发布了新款GPU——带有双GPU NVLink的H100 NVL,配套Transformer引擎,相比前代用于处理GPT3的HGX A100相比,配置四对H100和双GPU NVLink标准服务器的 速度最高可达10倍,由此将大型语言模型的处理成本降低一个数量级。

(新版本GPU产品将令AI大模型处理成本降低一个数量级,图源:英伟达发布现场)

同步发布的还有Grace Hopper超级芯片,黄仁勋指出这是处理超大型数据集的理想选择,比如可以用于推荐系统的AI数据库和大型语言模型。据介绍,通过900GB/s高速芯片对芯片的接口,英伟达Grace Hopper超级芯片可以连接Grace CPU和Hopper GPU。

为了加速生成式AI的工作,在软件方面英伟达还发布了AI Foundations云服务系列,为需要构建、完善、运行自定义大型语言模型和生成式AI的客户提供服务。

倘若换个角度,在目前全球GPU霸主英伟达之外,是否还能找到其他选择,用以探索更低成本,或者其他计算能力构成的基础设施模型?比如CPU+FPGA/ASIC,亦或是正在冉冉升起的技术路线Chiplet芯粒?

对此Elvis对记者分析,从技术架构来看,AI芯片一般可以分为GPU、FPGA、ASIC和类脑芯片四大类。GPU的关键性能是矩形并行计算,无论性能还是内存带宽均远大于同代的CPU,因此很适合人工智能发展。CPU因算力有限,但若能搭配开发周期短且灵活运用度高的FPGA,或是小型化、低功耗及高性能的ASIC,甚至是芯粒Chiplet的低成本优势,也不失为良策。

曾伯楷则指出,AI模型训练当前仍多以GPU为主,是因AI芯片功能各异、取向不同。比如GPU专为同时处理多重任务而设计,诸如处理图形、图像相关运算工作。由于该芯片采用统一渲染架构,能在算法尚未定型的领域中使用,故通用性程度较高、商业化较成熟。

相比之下,FPGA、ASIC虽然各有优缺点,但其历史积累不够。 “即便CPU加FPGA或ASIC的单颗成本存在低于GPU的可能,但考虑芯片开发时间、通用性程度、算法成熟度等因素,仍以GPU为主流采用芯片。”他分析道。

这里需要补充的是,英伟达之所以能够制霸GPU领域多年,除了其很早就选择了这一路线外,也由此搭建了十分丰富的CUDA生态,这是GPU领域后来者尤为缺失的一项竞争力。

(黄仁勋称英伟达构建了加速计算的良性循环,图源:英伟达发布现场)

大模型未来

一方面底层基础设施随着软硬件持续迭代升级,匹配应用场景增加,成本已经快速下降;另一方面随着微软发布Microsoft 365 Copilot,应用到了GPT4的能力这一举动,则体现出应用端对于大模型的思考。

正式推出市场几个月至今,GPT本身就在演绎着关于商业化的探索以及实战训练的迭代。

作为一项尤为强悍的智能工具,距离“我们都可以是程序员”这件事,还有多远?

郭俊丽对记者分析,相比ChatGPT之前版本,GPT4具备四大优点:

更可靠、更有创造力,可以理解并处理指令的微妙之处;

具备更高智能,在学术和专业考试中表现接近人类最好水平;

接受图文类模特输入,可将应用范围拓展至机器人、智能驾驶等领域;

利用模型调试、工程补丁、众包测评等方式减少谬误性显示,解决体验痛点。

综合这些都显示出AI大模型未来将对各种行业带来的模式重塑。本质上从训练成本到应用成本的双双下滑,将有望更快让我们真正拥抱AI大时代,包括其将进一步对工业、医疗等各行各业的提升。

3月初,官方再度宣布开放API应用程序接口,允许第三方开发者通过API将ChatGPT集成至他们的应用程序和服务中。按照每一千个Tokens/0.002美元收费, 相比此前的GPT3,费用下降90%。

IDC中国研究总监卢言霞对21世纪经济报道记者分析,“个人认为,降低定价才能提高该产品的用量,如此也能让算法模型快速迭代。用量起来反哺模型,该产品的准确度会越来越高。”

她进一步指出,一般来说,AI大模型的变现有3种路线:卖算力,大模型用户自己训练自己部署;卖模型与算力高度结合,软硬一体优化方案;模型即服务,就是开放API。

随着核心且高昂的算力基础设施已经在积极提速降本、拥抱各行各业伙伴,我们距离黄仁勋提出的畅想似乎又接近了一些。

AI大咖谈人工智能的机遇与挑战:

数字化革命给很多行业带来颠覆性影响

事实上,自2月起AI现象级产品ChatGPT突然爆火以来,人工智能相关话题的热度也是直线攀升。

3月21日,一场与此相关的话题讨论就在上海虹桥国展洲际酒店展开。

这场由长三角商业创新研究院主办的“2023中国新经济年会”上,在数字中国论坛秘书长、原华为互联网业务总裁朱波主持下,上海交通大学人工智能研究院常务副院长杨小康、云从科技高级副总裁杨桦、达观数据创始人陈运文、科大讯飞上海研究院院长李海鹰等业内人士,围绕“人工智能加速巨变带来的经济新动能和安全新挑战”等话题,展开讨论。

谈及中国AI技术与国外ChatGPT等热门产品的差距,杨小康认为,前景还是乐观的,尤其在前十年判别式的人工智能时代,中国相关企业的产品在相关应用场景里表现的相当好。 但自ChatGPT出来之后,两者还是体现出了明显的差距。

“我们也试用过百度的文心一言,它能率先地把这件事推出来,尽管还有待改进的地方,但是我对百度走出这一步非常钦佩,必须走出来,然后快速迭代。”杨小康指出。

陈运文则从实践的角度判断,“ 目前主要的差距是在数据和算法上。国内算力大规模的集群相对较弱,高质量文字资料的数据还不如英文世界积累那么多和丰富。算法方面还是有一些细节需要摸索,但是一定都能解决。”

杨桦则谈到了中国在应用端的强大优势。“知识结构有三层:一个是创造,二是集成,三是应用。现在在创造这一层面上还不行,发明和发现是不一样的,所以人类一直不会被替代。但是在集成上面,人工智能做得非常好,第三个所有的东西要到应用层面上才是OK的,所以中国的应用层面会蓬勃触发出很多的东西,这块在过往经验,中国也是比国外强的。”

而展望人工智能的未来,陈运文分析,“有一个数据,工业革命以后,工厂里面的体力劳动自动化程度提升了70%,但是白领工作到今天经历上百年的发展,自动化程度只提升了5%。 所以未来数字化的革命,是在白领的办公领域,一个人提升10倍的效率,这对很多的行业带来颠覆性的影响”。

这种颠覆性影响是否会对就业产生威胁?科大讯飞上海研究院院长李海鹰谈了自己的看法。

“人工智能是人的智能的儿子,你想一想家里面你的儿子超过你了,应该是高兴的事。自古以来只要发明了新的东西, 传统的做法一定是搞不过它,但是它对人类的威胁几乎为零,因为它和人类是一脉相承的。”李海鹰表示。

值得注意的是,当天与会的陈运文所创办的达而观信息科技(上海)有限公司也在积极探索大语言模型(LLM)实践,并研发出了国产版GPT“曹植”系统。

SFC

本期编辑 刘雪莹 实习生 肖楠

21君荐读

AI卖水工,盆满钵满

芯片巨头大消息!AI的“iPhone时刻”来了,CEO:90岁时我会以机器人形式继续工作

裁员与AI能救Meta吗?

特别声明

本文仅代表作者观点,不代表本站立场,本站仅提供信息存储服务。

分享:

扫一扫在手机阅读、分享本文