《ChatGPT专家深度解读.docx》由会员分享,可在线阅读,更多相关《ChatGPT专家深度解读.docx(6页珍藏版)》请在优知文库上搜索。
1、1、ChatGPT和以前GPT大模型的区别:ChatGPT是基于GPT3.5的基础模型框架,核心变化在于通过真实的调用数据以及人类反馈的强化学习进行训练。2、国内企业与ChatGPT的差距:百度、华为等头部厂商都有大模型,百度文心模型参数量已经达到2600亿,从技术能力上国内相比专家判断比ChatGPT约晚12年,OPenAl第一梯队,Google第二梯队,百度第三梯队。从数据、算力、模型的维度上,主要是差在模型环节,包括清洗、标注、模型结构设计、训练推理的技术积累。3、训练成本昂贵:GPT3.0离线训练成本高达1200万美元,大模型重新训练成本达400万美元,都是租用微软的计算资源,成本与训
2、练数据量成比例,增加GPU也可提升训练速度,中小厂商或将无法承担高昂的大模型自研成本。4、模型训练所依赖的高性能Xin片被M国卡b。子的解决方案:1)采用国内自研GPU;2)用分布式CPU替代,部分大厂应用采用分布式CPU的方式进行训练。5、未来商业模式:OPenAl或将对外输出模型能力,国内百度等企业也会跟进,国内应用软件企业未来可能采用OPenAl或百度等厂商的Al模型作为基础能力。专家介绍:首先介绍一下ChatGPT,ChatGPT去年出来后,在全球Al界、创投界掀起热烈的讨论潮。很多人想了解ChatGPT具体是做什么的,我们可以理解为通用的问答系统,发布方是OPenAl公司,OPenA
3、l是业内比较知名的人工智能研究机构。ChatGPT模型从18年开始迭代为GPT1,到19年有GPT2,到20年有GPT3等等,通过一系列的模型迭代,在今年推出了ChatGPTo这个模型是基于GPT3的模型框架,GPT3的参数量级非常大,有1700多亿,所以这个模型出来后效果比较好,大家体验下来发现功能强大,在业界受欢迎。很多人好奇,能力跟之前比具体有哪些进步?ChatGPT模型关键的能力来自于三个方面:1)前身是InStrUCtGPT,通过真实的调用数据以及反馈学习,ChatGPT在模型结构、学习方式和InstructGPT基本上是完全一样的,InstriJCtGPT基于GPT3.5的强大能力
4、,整个模型通过OPenAl一个系列的迭代,有很多技术积累;2)ChatGPT主要的3个学习阶段包括,从OPenAl调用数据集中采取Al训练编写答案,第一阶段通过监督学习方法训练GPT3版本,然后用比较型的数据训练一个reward模型,用到一些对比学习和rewardmodel,第三阶段是强化学习里面的PPO算法和奖励模型的语言生成策略;3)跟之前的很多模型比,单纯用监督学习或无监督学习以及强化学习的端到端形式,现在分成多阶段来做,整体模型的训练开销非常大,这个模型有1700亿参数,训练一次要400多万美元的成本,对资源的使用比较大。Q&A:Q:分享一下国内头部玩家,比如百度、阿里、腾讯、字节、讯
5、飞、商汤等目前Al大模型的参数量,以及与ChatGPT的差距在哪里?我们用多久能追上?A:国内这样的大模型非常多,百度、华为都有大模型。百度文心模型参数量已经达到2600亿,不逊于GPT30.百度今年宣称3、4月份推出类似于ChatGPT的模型,可能首期的应用场景会跟搜索结合,会形成ChatGPT、搜索的双引擎结合模式,会发布Clem。出来,整体看,模型的参数量级比GPT3.0大了50%O我们国内的发展水平是不是和ChatGPT达到同等程度?这个地方可以看一下OPenAl发展的技术史,动态看18年后一到两年时间国内的技术追赶比较快,提出比较好的改进模型,但真正的差距拉开是20年中,也就是GPT
6、3.0出来后,当时可能很多人觉得GPT3.0不仅是技术,体现了Al模型的发展新理念,这个时候我们跟OPenAl的差距拉得比较远,因为OPenAl对这一块有技术的独到见解,也领先了国外的Google,大概Google比OPenAl差了半年到一年的时间,国内差了两年的时间。所以梯队上,OPenAI排第一梯队,Google排第二梯队,百度排第三梯队,差距不是那么大。动态看事情的发展,百度还是有机会做得更好。从百度发布的模型看,内测版还没有开放出来,我们体验下来发现效果不错,模型参数量级看上去和GPT3.0是不差的,所以目前看上去我们相对比较有期待。国内:比如字节跳动也在做大模型,一方面是应用场景,接
7、下来可能有一些商业化。这个模型不是一两个月就能做出来,需要时间积累,随着后面AlGC、ChatGPT的深度发展,里面会形成越来越多的商业化内容,对于头部公司来说,做前沿的技术积累,有利于形成先发优势。所以像字节跳动、阿里都在往这方面做。阿里、腾讯不会复制ChatGPT模式,而是做一些与AlGC相关的产业化。阿里现在往智能客服系统、Al+营销做,使得商品介绍、广告介绍不需要人工生成文案,而是通过A生成内容。头条也用A生成内容,因为头条是以内容生产、分发为.主要业务的公司。总结看我们跟国外的区别是,模型大小上我们很多公司可以媲美,从技术角度或者PaPer角度,可能我们跟他们的差距可能有一到两年的距
8、离。Q:OpenAIGPT3.020年推出来,现在推出了ChatGPT之后市场大火。ChatGPT相对于GPT3.0有什么实质性的改变,造成市场认可度高?热度会不会突然下去?A:现在ChatGPT做了会话机器人,不是IT圈子里面的人也可能去试用,使得人群受众变广,其实基本的模型、训练方式,两者之间没有多大区别,而是在GPT3.0基础上做了特定领域的数据,拿过来做训练得到特定领域的模型。所以总结下来不是之前的GPT3.0做得不好。现在比较热,热度会不会过两个月下去?坦率说,从我的认知来讲,短暂时间内热度不会下去。从业界很多企业对这个事情的反馈来看,比如GoOgle、百度相继在发力。GOogIe已
9、经列为红色预警,包括将来对搜索引擎的颠覆,有很高的优先级;百度也是因为搜索引擎,对这块非常上心,3月份会推出新的模型,到时候看市场的效果。所以从大公司的反应来看,这个事情可能不是噱头,而是新的技术革命的发展。甚至有夸张的说法,业内一些专家认为这是PC互联网之后的又一个里程碑式的发展。包括我们自己体验下来,ChatGPT的功能确实是很智能,而且随着OPenAI的研发,接下里朝着AGl方向的发展的更大规模的模型,我们有理由期待这个事情不是一波流的,而是从现在开始持续形成大的影响,并且扩散出去。Q:从数据、算法到算力,国内有没有可能做出ChatGPT这种有商业化价值的模型?听到一种说法,国内号称模型
10、参数高,但效果特别差?我们中国独特的市场有没有办法培育出比较好的产品出来?A:从GPT模型的PiPeIine来看,有数据、算力、模型。数据上,国内是不缺的,百度、今日头条有大量用户的真实场景的数据。算力角度,一些大厂比如百度的文心模型达到2000多亿参数量,虽然训练成本非常高,但大公司承担得起。我们真正缺乏的是技术积累,包括数据怎么做清洗、标注以及模型的结构设计,怎么做训练、推理,这个地方很多都是需要经验和积累。包括里面的很多算法是OPenAl和deepmind提出来的,作为原作者的理解能力是我们远不及的。20年GPT3.0出现的时候,我们跟国外的差距就拉大了,当时很少人觉察到GPT3.0不仅
11、是一项技术,那个时候我们开始逐步落后,坦率讲国内这块技术方面落后于国外,而数据、算力不会存在瓶颈。总结下问题,我们跟OPenAl的距离确实存在,重点的技术瓶颈可能在这块的模型上面,这也是国内的弱点,所以我们需要投入更多的人力、资源逐渐弥补上,百度投入也非常多,按照这种速度下去,也许不用花两年的时间,我们能追上步伐。Q:大模型为什么会产生?百度文心模型为什么不如ChatGPT?A:涉及到模型参数的量级,以及数据的量级。比方说算力提升10倍,那么把模型参数做更大,或用更多数据来训练。如果我们单变量来看这个事情,数据变大,模型效果变好,或者单纯把模型参数变多,模型效果也更好。如果算力提升10倍,这两
12、个怎么平衡?光把模型参数变大,不一定会效果好,数据集的质量也要有保证。单纯的模型大小不足以刻画模型效果,还跟数据集的大小、质量有关。第二点,模型之间存在差异。百度、OPenAl模型的本身结构不一样,参数量大不代表模型效果好,因为不一定学到通用能力。百度没有公布模型的细节,我们不太了解是怎么做的,而单纯通过参数量级比较,不大能够看出效果的差别。百度对这块细节公布不多,数据集大小、模型的框架结构没有特别公布,所以不大了解整体模型的效果,以及跟OPenAl技术的差距有多大,我们只是单纯从参数量大小判断,不太好判断。我们很好奇一件事情,比如一个模型学了很多东西,东西学到哪里去了?这也是一个问翘。大家可
13、能会去想,那么通用的东西存到哪里去了。这一块目前做研究的同行非常多。目前一个主流观点是模型主体结构用transformer结构,更多做一些知识的存储,包括可能涉及到KeyVaIUe的形式,涉及到知识检索的能力,但里面的细节就需要比较多的时间来解释。Q:OPenAl大模型今后是否提供给个人或机构使用?gu。产办公软件底层的人工智能,会不会用微软OPenAlA:微软产品中各种场景都会接入,其中2b的业务比较有影响,比如订阅OffiCe软件的企业的员工可以享受智能化服务。国内软件目前没有这个功能,为了面对微软的竞争,未来都会往这个方向发展。国内其他公司如百度也会通过输入Al能力来进行2b的商业化布局
14、,所以对国内的企业来说也可能会有很多选择,可以选择接入OPenAl或者GOogle海外公司,也可以接入百度等国内公司提供的Al模型,市场竞争看模型的整体效果和价格。此外也涉及法律法规的问题,目前Al底层能力的使用这方面还没有特别的限制,还是法律盲区,未来是否能够顺利引入微软OPenAl的算法模型,还要有待未来立法的规范。但是AI模型未来接入应用场景是大势所趋,具体接入产品看情况。Q:Al是否会大幅降低人工,未来Al为底层生态之后,之后在传统软件的参与者会减少?国内大模型做的更好之后,小模型的企业存在的必要性还有吗?A:有些行业的工作人员确实有可能被替代,内容生产的,AlGC的占比会大幅提升,挤
15、占投稿的量级,Al也帮助提高了生产力,帮助投稿的质量和效率提升。NLP领域的会存在这样趋势,小模型的厂商会慢慢被竞争掉,中小厂商没有办法去创造大模型,接入2b的服务,没有办法自研,这种模式在将来会存在。Q:训练中采用的硬件设施通过买或者租的形式,每次训练迭代成本怎么计算?买和租各要多少钱?国内那种方式做大模型比较多?A:GPT3.0涉及1700亿参数,内存达300+GB,训练过程耗费1200+万美金,此外离线训练后,访问请求来来的线上服务也需要开销。基础设施都是微软的计算系统进行,没有自建。训练过程中会出现bug,但是都没有敢重新训练这个模型,因为成本太高了,所以没有做及时的修补,披露出的数据
16、是重新训练一次要400+万美金。Q:据说ChatGPT是40个人员做强化学习,为什么能在人员投入这么少的情况下,在GPT3上做出ChatGPT?核心能力是什么?A:ChatGPT跟GPT3的主要区别,额外finetune增加了训练的数据集,增加了通过人工标注的样本,所以40个人是不准确,实际上还有大量标注的团队,40个人可能只是用来判断回答是否符合标准。从算法的角度来说,GPT3.0和ChatGPT在模型上没有太大区别,只是加了专属领域的数据集进行训练。Q:替换人工的问题,传闻数字媒体已经被替代了,实际情况如何?GPT3.0专注于专业领域,是否比ChatGPT更快一些?A:AIGC各家都开始鼓吹并开始投入,到2023为止,网络内容20%通过AlGC生成的,网络编辑是很容易替代的,比如摘要、新闻等。头条这边也在逐步用Al生成投稿,这块趋势是通过Al生成内容会逐步增加,机构预测2025年AlGC内容占比达30%+,量级很大,增长也很快,能够帮助大幅