科技
业界 互联网 行业 通信 科学 创业

大咖共探AGI时代机遇,腾讯云助力大模型规模化应用提速

来源:财讯网 2023-09-18 22:41:07
A+ A-

2023年,科技圈的“顶流”莫过于大模型。自ChatGPT的问世拉开大模型与生成式AI产业的发展序幕后,国内大模型快速跟进,已完成从技术到产品、再到商业的阶段跨越,并深入垂直行业领域。

新技术的爆发,催生新的应用场景与产品模式,撬动影响全行业的智能化变革。滚滚趋势下,作为从业者、创业者,将面对怎样的机遇和挑战,又该如何破局迎来AGI新时代?

近日,「大模型时代的机遇与挑战」腾讯云TVP AI创变研讨会在上海腾云大厦举行,特邀 AI 领域顶级大咖,围绕大模型热点话题进行深度分享与研讨,共同探索大模型时代的未来风向。

大模型——技术、价值、生态

IDEA研究院认知计算与自然语言研究中心讲席科学家、腾讯云TVP 张家兴老师,带来《大模型——技术、价值、生态》主题分享。

谈及GPT大模型诞生的历程,张家兴老师从十余年在深度学习领域的资深研究经验出发,用模型结构、训练技术、算力+系统和数据四条主线来阐述整个技术发展的背后趋势,并重点分享了几个关键节点:

● 模型结构创新:深度学习的兴起推动了模型结构的创新,其中Transformer结构起到了关键作用。它突破了模型1亿参数的瓶颈,统一了各种注意力机制的尝试方法,也解决了任务设计的难题;

● 训练技术突破:标志性事件是2018年BERT模型,张家兴老师认为模型结构是物理基础,而训练技术使得人工智能具备特定能力;

● 算力与数据的进步:底层的芯片不断进步,性能提升了100倍以上。

张家兴老师指出,任何一次大的技术范式的变化,都是一次类型的消失,或者都是一种走向统一的过程,大模型就是这样的一种新的技术范式变化。在ChatGPT 出现后,模型结构走向统一,之后就会快速“分歧”,整个技术领域重新分工,促使新的生产链的形成,这种变化标志着大模型将成为一个新的产业。

在整个技术的范式变化过程中,张家兴老师所带领团队研发的模型方向也在变化,从一开始的封神榜,到如今构建姜子牙系列专家大模型。张家兴老师分析到,构建一个全能力的大模型存在一定挑战,不同能力之间可能存在冲突和不兼容性,因此将各个能力拆分成独立的模型,以便能够专注于每个能力的发展。通过定制针对性的训练策略,从而达到每个能力的最佳表现。

张家兴老师认为,在“百模大战”的竞争格局中,训练技术的探索性极为重要。他强调,训练技术本身即是一个探索的过程。在训练过程中探索好的生成方式,并在人类反馈学习中引导模型的发展。

在大模型应用产品方面。张家兴老师提出从专家模型到客户端进行层层封装的思路:

第一层封装是一体化封装:包括代码模型及微调、应用和高效推理工具等,并设置好各种使用场景;

第二层封装是模型和算力整合封装:张家兴老师在这一方面正在和腾讯云展开合作,积极推进将模型和算力结合在一个大模型产品中提供给客户,做到“开箱即用”。

AGI时代的技术创新范式与思考

Boolan首席技术专家、全球机器学习技术大会主席、腾讯云TVP 李建忠老师,带来了题为《AGI时代的技术创新范式与思考》的主题演讲。

李建忠老师首先从产业的角度对技术的发展进行了时间线的梳理,他认为连接和计算都经历了从1.0到2.0的革命性变化。1840-1940年的这100年间是连接的1.0时代,电报之后电话、广播、电视相继诞生,是最早的连接技术。1946年第一代计算机出现,而后大型机、小型机、微型机、PC出现,这是计算的1.0时代。之后随着1995年互联网出现后,Web2.0、移动互联网、云服务问世,这是连接2.0时代,相比上一代,连接从单向走向双向。再到2017年Transformer结构的出现,GPT的迭代是计算2.0时代,这个时代还将继续,李建忠老师认为按照过往技术发展的曲线,这个时间会持续到2035年左右。

同时,李建忠老师分析指出,在技术的发展过程中,呈现出一种连接和计算的“钟摆”状态。而这两者之间的关系,他认为连接解决的是生产关系,而计算解决的是生产力的问题。连接模式的逻辑是提供信息供用户决策,是广告天然的土壤;而计算模式的逻辑是要用户向机器提供数据来帮助决策,其商业模式更趋向收费。在计算逻辑下,效率优先,结果至上。

李建忠老师提出了范式转换的“立方体”模型,在该模型中X轴代表人类需求,如信息、娱乐、搜索、社交、商业;Y轴代表技术平台,即连接1.0、计算1.0、连接2.0、计算2.0;Z轴代表媒介交互,如文字、图片、音频、视频、三维等。他认为需求和技术的交叉点是创新的关键,同时强调媒介的变化对于产品和创新的影响。在智能时代,填充不同象限代表对应不同方向,比如大模型与不同领域结合,为其创新和产品发展提供新的思路。

基于此,李建忠老师总结了大模型具备四大核心能力:

● 生成模型:是其最成熟和最强大的部分,能够生成各种内容;

● 知识抽象:压缩人类知识,为知识密集型行业带来革新;

● 语言交互:是人机对话的核心,有巨大的想象空间;

● 逻辑推理:具备逻辑、规划、记忆能力,成为具身智能。

以大模型核心能力为支点与不同领域结合会带来怎样的创新机会?李建忠老师以大模型应用层为切入点提出两个主要方向:AI-Native和AI-Copilot。AI-Native是指完全融入AI的新型产品或服务。AI-Copilot则是以渐进增强的方式,将AI能力嵌入现有的商业闭环中,并与现有的基础设施兼容和扩展。

同样,在软件领域,李建忠老师分享了大模型为软件开发带来的三大范式转换:

● 开发范式:大模型将改变代码编写方式,从工程师写代码为主到AIGC生成代码为主;

● 交互范式:从图形交互界面(GUI)转为自然语言交互界面(NUI),包括NUI+GUI协同、渠道结构化输入中间环节的变革,以及拆除孤立应用间的壁垒,实现应用和服务的无缝集成;

● 交付范式:即用户共创可塑软件,这种开放性将使软件的功能范围变得更为广泛。

李建忠老师认为,在未来的三到五年内,整个AGI产业的成熟度将达到一个新的高度,带来巨大的创新机会。

利用无处不在的硬件算力和开放软件解锁生成式人工智能

英特尔院士、大数据技术全球CTO、腾讯云TVP 戴金权老师,带来《利用无处不在的硬件算力和开放软件解锁生成式人工智能》主题分享。

戴金权老师首先分享了英特尔团队在生成式人工智能领域的工作。他提到,影响生成式AI的众多因素中,算力是非常重要的支撑因素,英特尔针对端到端的AI的流水线如何提升效率、如何对AI加速进行了针对性的优化。

通过软硬件结合,英特尔成功提高了AI深度学习的速度,甚至可以实现免费的软件AI加速器;在生成式AI计算加速方面,戴金权老师提到数据中心端是重点,它将有力支持大模型的训练和超大规模推理。

在英特尔最近发布的Gaudi2深度学习加速器中,与Hugging Face合作进行模型优化。同时,英特尔在服务器上加入了Intel AMX,其由两部分组成:一个是2D的寄存器文件,另一个是矩阵加速支持。戴金权老师提到,这样做的好处在于能够在通用CPU的服务器上实现硬件加速的能力,在通用计算的场景下具有一定意义。

针对云端存储的用户数据和私有化部署的大模型如何保障安全不泄漏的行业需求,戴金权老师分享到,通过硬件保护和软件安全技术,可实现全链路的隐私保护,确保数据和模型在计算过程中对其他用户不可见,只在硬件保护的环境中进行计算,既保证了安全,又接近明文计算的效率。

为实现AI无所不在的愿景,近期英特尔开源了基于INT4在 Intel CPU上的大模型推理库,支持在英特尔上跑超过百亿参数的大模型,戴金权老师介绍并演示了其功能特性:

● 支持INT3、INT4、NF4、INT8等多种技术;

● 技术易于使用和迁移,可以加速任何基于PyTorch的大模型,并实现高效优化;

● 兼容社区常用的API;一两行代码即可迁移现有应用。

最后,戴金权老师表达了他对于大模型应用在从PC无缝扩展到GPU到云这一未来趋势的期待,这一新的应用场景值得大家共同去探索。

面向大模型,如何打造云上最强算力集群

腾讯云高性能计算研发负责人 戚元觐老师,带来《面向大模型,如何打造云上最强算力集群》的主题分享。

首先,戚元觐老师对深度学习与AI分布式训练进行了介绍。他提到为了解决大模型训练中语料数据集过大和模型参数剧增的问题,需要采用分布式计算。就此,戚元觐老师分享了当下大模型训练中的一些分布式计算方案:

● 数据并行:按照模型的数据集切分并发送到各个GPU上进行计算,每个GPU分别计算自己的梯度,再进行全局同步以更新模型参数;

● 模型并行-流水线并行:按照模型的层级进行切分,不同部分将分配到不同的GPU上进行计算,进行梯度计算和传递;

● 模型并行-张量并行:对模型进行更细粒度的切分,将模型的参数权重进行横向或纵向的切分;

此外,还有如专家并行,由各个专家系统组成并路由到不同的系统中进行计算。

戚元觐老师提到,分布式计算可以充分利用多个GPU的计算资源,加快训练速度,并解决单个GPU内存不足的问题。不同的方法适用于不同的场景和模型结构,选择合适的并行策略可以提升训练效率和性能。

分布式训练方法对网络通信有较高的要求,业内大都采用3D并行方式,特别是在3D并行的场景下,带宽需求对于吞吐量是敏感的。在训练中,想要不让网络成为计算瓶颈,机器与机器之间的通信带宽需要达到1.6Tbps。

为了应对以上挑战,腾讯云推出了AI算力底座——高性能计算集群HCC,可广泛应用于大模型、自动驾驶、商业推荐系统、图像识别等人工智能模型训练场景,其具有以下特性优势:

● 搭配高性能GPU:提供强大算力;

● 低延时RDMA网络:节点互联网络低至2us,带宽支持1.6Tbps-3.2Tbps;

● GpuDirect RDMA:GPU计算数据无需绕行,跨机点对点直连;

● TACO训练加速套件:一键提升人工智能训练性能。

腾讯云首发的H800计算集群采用多轨道的流量架构,能够大大减少不必要的数据传输,提升网络性能,在业界处于领先地位。

除了硬件支持外,腾讯云还提供了自研的集合通信库TCCL,得益于自研的交换机架构,TCCL实现了端网协同,解决流量负载不均的问题,可以在双网口环境下提升流量约40%。同时提供拓扑感知亲和性调度功能,旨在最小化流量绕行。它具有动态感知能力,可根据最优顺序进行任务分配,避免通信数据拥堵。

戚元觐老师提到,腾讯云的方案都采用双上联的网络设计结构,相比单口训练的可用性更高。数据存储方面,腾讯云提供了Turbo CF5文件存储方案和COS方案,通过多级加速提升数据访问性能。

同时,为提高用户的算力使用率,腾讯云推出了TACO Kit加速套件,通过对内存和显存的统一管理,减少数据的来回搬移,加快参数更新的速度;还有TACO lnfer推理加速,让支持推理透明、加速,带给用户更好的体验服务。

戚元觐老师总结到,腾讯云高性能计算集群HCC方案能够从数据读取、训练计算、网络交换等多个层面助力用户又快又持续地完成每一个训练任务,为用户云上训练提供完整的流程支持。

探讨辩论环节

主题分享结束后,主持人中国信通院低代码/无代码推进中心技术专家、腾讯云TVP 沈欣老师做了精彩的总结,他提到大模型的发展所带来最核心和关键的影响是生产关系的变化。如“程序员是否会消失”这个问题,可以将程序员比喻成马车时代赶马的人,现在还会有养马的人,但是他们已经被开车的人淘汰了。软件开发行业将被AI重塑,这是未来的程序员所将面对的迭代和变化挑战。

随后,迎来了火花迸发的探讨辩论环节。主持人沈欣老师提出了颇具深度的四个开放话题与两个辩论题目,现场嘉宾以小组形式,对各个话题展开了充分的讨论,在热烈的交流与辩论中碰撞出众多精彩的观点。

话题1:随着大模型的发展,未来将会形成怎样的AI生态,会如何影响IT行业的格局?

来自第二组的发言代表,盛派网络创始人兼首席架构师、腾讯云TVP 苏震巍老师提出,AI未来将重塑整个软件行业的生态及商业模式,包括现在软件应用的形态、互联网运行的模式、用户付费的方式等等。同时随着AI进一步推动生产力发展,可以预见未来企业对人员的需求将发生极大的改变,程序员将在一定程度上减少。

苏震巍老师进一步总结到,AI会在三大方面影响我们未来的商业和工作:AI推动生产效率变革,影响生产力和生产关系的变化;获取知识和使用知识的方式改变,效率提升;AI会成为资产的一部分,数据确权等问题值得关注。

话题2:AI算力的私有化部署和云部署有哪些差异和优势,分别更适合哪些场景?

第三组的发言代表,美团金融服务平台研究员、腾讯云TVP 丁雪丰老师,从成本、安全性和灵活性三个视角对AI算力的私有化部署和云部署进行了比较。

● 从成本角度看:云部署对于中小企业而言,无论在硬件投入还是维护方面都更符合当下企业的降本增效需求;

● 从安全性角度看:他认为部分行业,如金融行业的的安全性和合规性要求极高,私有化部署更为适用;

● 从灵活性角度看:公有云不仅可以单纯地按需提供算力,对于成熟的场景也能提供一站式解决方案,用户可以根据实际需求选择合适的使用方式,在满足安全与合规的场景下更推荐选择云部署。

话题3:企业应如何衡量AI的价值,如何量化成本结构和价值,在不同的业务有哪些案例?

来自第四组的发言代表,腾讯云TVP 徐巍老师提出以下五个评估维度:是否为企业创造价值、节约成本、提升企业生产力、提升客户满意度,以及助力业务增长。徐巍老师补充到,不同企业和行业面临的挑战和目标也各不相同,因此评估AI的价值需要结合其具体情况和目标进行综合考量。

同时,就ToB和ToC的业务场景而言,在ToB领域,智能客服、数字人、AI知识库和企业培训等已经被许多企业应用;在ToC领域,当下AI生成等是主流的应用场景。

谈及AI的成本构成,徐巍老师认为当下主要包括算力成本、AI技术的开发和维护成本,以及AI产品的运营和推广成本。

话题4:在大模型的热潮下,大公司和创业公司分别有哪些可以切入的创新机遇?

第一组的发言代表,Boolan首席技术专家、全球机器学习技术大会主席、腾讯云TVP 李建忠老师认为从数据的优势角度看,当下AI领域的创新对大公司或成熟的公司友好,但从开源的角度来看,他认为对创业公司更友好。

李建忠老师以产品的发展模式展开阐述,AI-Native的模式更适合创业型公司,因为面对新事物的到来它们具备全新的起点和思维模式,而且一些创业公司的投入并不弱于大公司。

辩论题目1:未来大模型开源是主流or 闭源是主流?

第一组的发言代表,Boolan首席技术专家、全球机器学习技术大会主席、腾讯云TVP 李建忠老师是“开源方”,他首先定义了“主流”一词:用户最多就是主流;他认为与闭源相比,开源可以实现边缘层和模型层的良好标准化;同时开源能够集合整个行业之力在一个点上进行优化,带来更多的资源和投入;

随后,来自第二组的发言代表,盛派网络创始人兼首席架构师、腾讯云TVP 苏震巍老师作为“闭源方”先就“主流”定义进行了反驳,他认为真正能够有影响力推动整个行业变革,同时在商业上形成持久循环的,有更健康生态的才是主流,并以闭源的ChatGPT4为例进行了论证。他强调,大模型包含了模型本身和数据源,因此算法开源和成果的开源,并不就代表大模型的开源,并举例了Lama2的各种限制。苏震巍老师认为当前的一些所谓开源框架,被用作营销工具,违背了开源的真正的精神。

之后“开源方”的李建忠老师进行了针对性反驳,他首先纠正了对方的“开源营销说”,强调开源是生态级的革命。同时就ChatGPT4的例子,他认为其最初源头是来自谷歌的开源,且OpenAI也在准备开源中。

“闭源方”的苏震巍老师随后补充,不否认开源的生态革命,但事实上很多开源是迫于竞争压力下的抢占市场份额的商业行为。同时他表示,知识的共享并不代表是开源。

辩论题目2:更看好通用大模型赛道or垂直大模型赛道?

第三组的发言代表,美团金融服务平台研究员、腾讯云TVP 丁雪丰老师更看好通用大模型赛道,他认为从更大、更高的历史观视角看,通用大模型的发展是必然的,而且在应用层可以避免垂直大模型的局限性。同时未来随着通用大模型的学习范围不断拓展,当前的垂直领域都将被覆盖。

更看好垂直大模型赛道的第四组的发言代表,腾讯云TVP 徐巍老师则是从三个角度阐述他的观点:从商业模式看,垂直大模型有丰富的应用场景,可落地,商业模式经过验证是成立的;从成本角度看,大模型的算力成本极高,垂直大模型的成本更加可控;从数据角度来说,作为大模型训练极为重要的部分,通用大模型所需要的数据量巨大,数据源限制性高,垂直知识库的可实现性更高。

随后“通用大模型”方的丁雪丰老师进一步论述,通用大模型在当前AI领域的重要性不言而喻,它提供了技术基座,为各种应用提供了支持;而且,基础的、通用的能力发展是自主可控的必然要求。

“垂直大模型”方的徐巍老师做了最后的补充,他认为从赛道生态角度来看,垂直大模型赛道的玩家更多,更能形成百花齐放的生态,带来更高的商业价值和社会价值。

结语

本次研讨会的探讨与辩论话题没有确定的答案,大模型发展方兴未艾,将为每一个技术从业者、企业和行业都带来新的影响。本次活动已圆满落下帷幕,但腾讯云TVP专家们对于技术的探索还将继续,他们秉持着“用科技影响世界”的初心和愿景,持续以创新之心积极拥抱大模型时代的变革与趋势,以敬畏之意理性迎接未来的机遇和挑战。

TVP,即腾讯云最具价值专家(Tencent Cloud Valuable Professional),是腾讯云授予云计算领域技术专家的一个奖项。TVP致力打造与行业技术专家的交流平台,促进腾讯云与技术专家和用户之间的有效沟通,从而构建云计算技术生态,实现“用科技影响世界”的美好愿景。

免责声明:市场有风险,选择需谨慎!此文仅供参考,不作买卖依据。

责任编辑:kj005
文章投诉热线:156 0057 2229  投诉邮箱:29132 36@qq.com

相关新闻

精彩推荐