ChatGPT热潮背后,算力如何突围?

来源:今报在线 2023-05-22 15:59:19
A+ A-

作为史上用户增速最快的消费级应用,ChatGPT,自新年肇始至今,热度持续发酵,每天都有超2亿人次疯狂抛出各式各样的问题“调教”ChatGPT,“请代替产品经理写一篇年终结”、“如何评价马云回国”、“请写出一段爬取网页内容的程序”……诸如此类问题,OpenAI开发的ChatGPT都能轻松给出“中肯”的回答,不久前推出的最新一代版本GPT-4,撕掉“Chat”的标签再次进化,不但比前代更“聪明”、更安全,还掌握了“读图技能”。

“百模大战”全面打响

ChatGPT这只蝴蝶扇动翅膀,掀起今年春天最强劲的AI大模型风暴。作为一个集高级会话、创作答题等多重能力于一身的新一代人工智能聊天机器人,ChatGPT强大的“超能力”背后,隐藏着的是以天量级数据为基础训练出的“巨无霸”通用大模型。

回溯ChatGPT 的发展历程可知,OpenAI自GPT 1.0 开始,就将大型语言模型( LLM)视为通往通用人工智能(AGI)的必由之路,该模型使用“利用人类反馈强化学(RLHF)”训练方式,通过人类提问机器回答、机器提问人类回答,并不断迭代,让模型逐渐具备对生成答案的评判能力,变得“越来越聪明”。

随着ChatGPT的应用热情被点燃,AI大模型技术应用在业界激起层层浪花。继百度“文心一言”聊天机器人产品发布后,包括阿里巴巴、360、华为、昆仑万维、商汤、腾讯、知乎等在内的各大厂商纷纷摩拳擦掌,相继布局加入AI大模型赛道。

AI大模型产品百花齐放的背后,算力场上的角力也悄然展开。在这场人工智能大模型从“可用”进化为“好用”的涅槃之旅中,不断经历着人力研发和应用计算成本高、模型算法从实验室场景到真实场景效果差距大等痛点考验。参战大模型竞赛,算法、算力、数据环环相扣,如何在AI计算上缩小GAP、实现技术突破、降本增效,成为一个求共解的命题,也是新一轮科技创新的焦点。

AI大模型,正在“榨干”算力?

大模型的实现依赖强大的计算资源支撑训练和推理过程, 其中的“训练”表现为AI的学过程,通过对大量数据的分析处理,形成至关重要的“模型”,“推理”则是AI的应用过程,利用模型对用户输入的数据进行分析,产生输出结果。

根据OpenAI报告,训练一次1746亿参数的GPT-3模型需要的算力约3640PFlop/s-day,即假如每秒计算一千万亿次,也需要计算3640天,对应训练成本超过1200万美元,而历经GPT-1、GPT-2、GPT-3三次迭代的GPT-3.5模型,参数量从1.17亿增至1750亿,预训练数据量从5GB增至45TB(数据相当于整个维基百科英文版的160倍),中泰证券研报据此分析认为,ChatGPT类生成式AI应用的迭代优化主要源自模型的不断增大以及由此引爆的算力激增。

AI大模型对算力资源需求贯穿于模型预训练、日常交互运营及模型迭代训练全过程场景。数据显示,自2012年至2018年,训练AI的算力需求大约每隔3~4个月翻倍,所耗费的算力增长30万倍。通用AI时代下,呈指数级上涨的算力需求,不断刷新摩尔定律新认知,正以困兽冲破牢笼之势迅猛攀升。

在这场大模型引发的技术军备竞赛中,“算力幕后兵”被推至前,成为行业炙手可热的焦点。伴随着人工智能技术的加速变革,大模型的训练和推断需求不断跃升,要想实现AI模型的“智力”进阶,并从技术理论到大规模场景加速落地,真正走入“寻常百姓家”,需要更为强大的运算能力和更加丰富的算力资源,而传统的CPU架构已难以满足AI算法对算力的多元需求。

面对大模型中成千上万个神经元和参数作为计算机图形学领域的主流技术,具备海量数据并行计算能力、擅长加速计算处理的GPU算力越来越广泛地应用于人工智能大模型领域,成为实现高效训练和推断的核心驱动力。除了显著的速度提升优势外,GPU算力还可帮助实现GPT类更加复杂和精确的深度学模型。

算力,作为人工智能的“发动机”,是AI大模型得以实现的基础,而AI领域的算法进步同时反哺GPU算力提升成为可能。算力的升级与加持,为纷繁多元的AI大模型场景应用按下加速键。

未来已来,ChatGPT开启通用AI新时代

ChatGPT的问世开启人工智能新纪元,加快现代生产方式变革的步伐。以ChatGPT为代表的生成式AI未来的应用场景充满无限可能,从工业设计到广告创意,从影视娱乐到编程代码……,每个创造的行业生态都在悄然被颠覆重塑。

作为GPU算力云服务商,蓝耘通过20年深厚的IT基础设施建设与GPU算力云服务积累,应对模型规模和算力指数级增长的未来潜在趋势,为AI“智力”升维注入澎湃动力。公司拥有成熟的GPU算力云服务,针对诸如AI大模型训练、机器学、计算机视觉等多样化需求的前沿科技应用场景,可为客户提供从私有云解决方案到以GPU云服务器、GPU裸金属服务器以及HPC等产品为核心的算力云服务。

蓝耘AI算力云服务集成AI深度学算法,协同GPU和CPU异构集群资源,搭建数据集创建、数据预处理、模型训练、模型超参调优、模型部署等全流程的开发环境,为AI计算开发、AI模型训练提供强大的计算力支撑。

以普惠算力提升生产力曲线,厚植AI发展的底层土壤,助力企业突破算力瓶颈,推动产业链上下游协同创新,蓝耘已经做好了准备,以极致算力“乘风破浪”,不断探索未知的边界。

(搜索“蓝耘”官网、公众号,了解更多产品和解决方案详情)

免责声明:市场有风险,选择需谨慎!此文仅供参考,不作买卖依据。

责任编辑:kj005
文章投诉热线:156 0057 2229  投诉邮箱:29132 36@qq.com

相关新闻

精彩推荐