2023大语言模型前世今生与未来.docx

上传人:王** 文档编号:581400 上传时间:2023-12-07 格式:DOCX 页数:19 大小:421.62KB
下载 相关 举报
2023大语言模型前世今生与未来.docx_第1页
第1页 / 共19页
2023大语言模型前世今生与未来.docx_第2页
第2页 / 共19页
2023大语言模型前世今生与未来.docx_第3页
第3页 / 共19页
2023大语言模型前世今生与未来.docx_第4页
第4页 / 共19页
2023大语言模型前世今生与未来.docx_第5页
第5页 / 共19页
2023大语言模型前世今生与未来.docx_第6页
第6页 / 共19页
2023大语言模型前世今生与未来.docx_第7页
第7页 / 共19页
2023大语言模型前世今生与未来.docx_第8页
第8页 / 共19页
2023大语言模型前世今生与未来.docx_第9页
第9页 / 共19页
2023大语言模型前世今生与未来.docx_第10页
第10页 / 共19页
亲,该文档总共19页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《2023大语言模型前世今生与未来.docx》由会员分享,可在线阅读,更多相关《2023大语言模型前世今生与未来.docx(19页珍藏版)》请在优知文库上搜索。

1、大语言模型前世今生与未来内容目录1大语言模型:NLP技术的奇点时刻41.1 技术探索:深度学习加速推进数据的无损压缩41.2 技术应用:预训练语言模型成为NLP主流51.3 技术跃迁:大语言模型可能打开通往AGl之路52 OPenAl与GPT:算法、工程、商业的融合62.1 GPT系列模型的发展历程:千锤百炼,终见“涌现”62.2 如何训练一个ChatGPT:预训练获得“智商”,指令微调提升“情商”72.3 模型智能的“涌现”是生成式AI浪潮的充要条件83 大模型应用:数据感知与代理(Agent)能力103.1 外部数据:三条融合垂域数据打造大模型的技术路径103.1.1 Fine-Tunin

2、g与In-ContextLearning的实现方式案例113.2 代理(Agent):为大模型加上四肢,强化复杂任务处理能力133.2.1 与计算机内部交互:插件(PIUginS)与代码解释器(COdClnterPreter)133.2.2 与物理世界交互:RoboticsTransformer2(RT-2).143.3 上下文长度:应用创新的关使靶点153.4 “大”模型“小”型化:应用落地的降本之道164 应用分析框架:通用能力与外部能力的组合175 投资建议186 风险提示19图表目录图1.人工智能底层算法的探索历程(19582017年)4图2.自然语言处理(NLP)发生的三次技术范式转

3、移5图3.本次以GPT为代表的生成式Al技术进步路线图6图4.OpenAI的GPT系列模型发展历程7图5.GPT模型训练流程8图6.当模型规模达到一定程度时将会出现“涌现”现象9图7.思维链提示可以显著提升大语言模型的性能9图8.打造垂域模型的三种基本方法10图9.Delta-Tuning是对LLM参数高效的微调范式12图10.LangChain+向量数据库打造企业专属知识库问答系统12图H大模型驱动的自主代理系统13图12.OpenAI发布首批70余款GPT-4插件14图13.执行逻辑计算的代码解释器插件示例14图14.机器人控制与思维链推理结合示例15图15.大模型驱动的自主代理系统16图

4、16.模型小型化的主要实现路径16图17.参数量化能够显著降低大模型的推理成本171大语言模型:NLP技术的奇点时刻1.1 技术探索:深度学习加速推进数据的无损压缩人类对机器智能的探索由来已久。如何让机器像人类一样思考,获得与人类相当的智能,一直是全球人工智能学者毕生追求的圣杯。自英国数学家阿兰图灵在1950年提出了“机器能思考吗”这一跨世纪的命题以来,人类就从未停止对机器智能的探索。从最简单的统计规则方法,到借鉴人类大脑生物结构的神经网络模型,再到如今拥有千亿级参数的超大规模预训练模型,深度学习因其能够实现非线性空间的有效变换,并能利用GPU等硬件实现加速计算,因而成为人工智能研究领域的核心

5、主线。无论是早期的RNN,还是其改进后的变体LSTM,亦或是本轮生成式Al浪潮的起源TranSformer,它们本质上都是用一个更有效的神经网络去实现数据的无损压缩,而数据的压缩能力或许就是机器智能的一种展现O图1.人工智能底层算法的探索历程(1958-2017年)时间事件1958年计算机科学家罗森布拉特提出了由两层神经元构成的神经网络,这种网络被称为感知机(Perceptron),是最基本的神经网络结构1982年约翰霍普菲尔德提出了一种具有记忆存储能力的Hopfield网络,开启了循环神经网络(RecurrentNeuraINetwork,RNN)的时代,也是LSTM(LongShort-T

6、ermMemory)、Transfomer模型的奠基者1986年“Al教父”杰弗里辛顿发明了适用于多层感知器的反向传播算法,它成为了日后训练深度神经网络的基础1989年杨立昆(现任FaCebook首席人工智能科学家)等人提出了卷枳神经网络(CNN,ConvolutionaINeuraINetworks),被广泛应用于计算机视觉的图像处理领域2012年AIexNet(一种卷积神经网络模型)引入了利用GPU并行运算,以压倒性的准确率夺得了当年ImageNet图像识别大赛的冠军。这一成果带来了深度神经网络的又一次复兴(其中,论文的第二作者是未来OpenAI的首席科学家IIyaSutskever)20

7、16年AIphaGo,这台由谷歌DeePMind开发的先进的人工智能棋手,出人意料地击败了强大的围棋世界冠军李世石,体现了人工智能在围棋这项历史悠久、被誉为人类智慧皇冠上的明珠的棋类运动中,取得了巨大的突破2017年谷歌机器翻译团队在发表的一篇具有里程碑意义的论文AttentionisAlIYouNeed中,精确提出了种米用Attention机制的全新模型TransformeroBert、GPT等预训练模型随之孕育而生1.2 技术应用:预训练语言模型成为NLP主流从单一小模型到预训练模型的范式转移。语言模型的本质是对任意一段文本序列进行概率建模,用一个高维向量来表示一个token的全部特征。

8、早期的研究者发明了WOrd2Vec,一种用于将自然语言中的单词表示为向量的技术,它基于神经网络,并且可以通过训练大规模语料库来学习单词之间的语义和语法关系,是深度学习应用在NLP领域的早期范式; 随着对长文本特征提取能力更强,计算效率更高的神经网络的提出,研究者开始尝试用更多的数据去训练一个能力更强的模型预训练模型,然后通过迁移学习的方法使其适用于下游特定的任务。这就是GOOgle在2018年提出的BERT(BidirectionalEncoderRepresentationfromTransformers,基于TranSformer的双向编码器)的核心思想;图2.自然语言处理(NLP)发生的

9、三次技术范式转移鞘讦样厚下沙任务改(PrWnRMgTuEnt)用海凄淳心病讨在 & 克本曲的电尊贵窿金HRn弊嚏示 (Pretramed*Prompt*g)BertITfansfocmer-Encoder)GPT (Transformer-Decoder)数据来:&: BERT: Pre-training OfDeep Bidirectional Transformers for language Understanding (Jacob Devlin, Ming-Wei Oiang 等)、财通迂券研究所 然而,OPenAl在这一时期坚定押注于GPT(GenerativePre-Trained

10、Transformer,基于TranSforrner的单向解码器)这一路线,坚信通过优化,下一个词预测,以及扩大训练模型的参数量和数据量,机器能够对文本语料拥有与人类相似的“理解”能力。当前,OPenAl与ChatGPT的成功,使得运用大语言模型做“预训练+提示”的范式,逐步取代了BERT时代“预训练+下游任务改造”的范式,成为了NLP业内新的主流。Word2Vec,Elmo.KNN,LSTM.41.3技术跃迁:大语言模型可能打开通往AGI之路直到2022年底ChatGPT横空出世,学界和工业界开始意识到,OPenAI对生成类模型(GPT)和算法规模化(SCalabiEy)的两个基础技术路线押

11、注,可能是让机器获得智能的可行路径,甚至是打开通往通用人工智能(AGI,ArtificialGeneralIntelligence)这一终极理想的金钥匙。因此,我们有理由相信,当前以ChatGPT为代表的大语言模型开启的本轮科技浪潮,其重要性可能高于过去任何一次Al技术的突破,实现AGl的愿景可能已并不遥远。当然,技术的突破与未来的潜在瓶颈也正都源于此,大模型与生俱来的HaHUCinatiOn(幻觉)使其输出的内容天生具有可靠性低的特点;另一方面,大模型的模型规模化能力的天花板也有待进一步探索。因此,我们认为提升模型可拿性和提升模型性能共同构成了大模型未来迭代的核心靶点。图3.本次以GPT为代

12、表的生成式AI技术进步路线图Hallucination (幻觉)如嗨决?、播用可靠性 一新的监管方式2C应用从 OSll .SCaIe- 涌现SOTAGPT-4开源 LLaMa.Bloom. GLMiS-Scale 】MfSflOO/ !通用人工智能(AGI)里防专共化更高效的算力2B/G应用数据来源:CEnwrgcntAbilitiesofLargeLanguageModels(JasonWci,YiTay等)、财通证券研究所2OPeIlAl与GPT:算法、工程、商业的融合2.1 GPT系列模型的发展历程:千锤百炼,终见“涌现” 对GPT路线的执着探索(GPT-1-3):2018年6月,OP

13、enAl推出基于TranSfOrmerDeeOder改造的GPT-I,但其在下游理解类任务的性能远低于同年IO月GOogle推出的基于EncodeETBERT;2019年GpT-2推出后,尽管性能仍不如BERT,但OpenAl发现ZerO-Sho1和Few-shot的方式可能可以直接训练一个通用的语言模型;到了2020年的GPT-3,OPenAl决定直接将模型参数扩大到了175B,这一举动正式掀开了大语言模型的序幕; 涌现能力的出现(GPT-3.5):OPenAl在GPT-3的基础上通过融合指令微调训练得到的InstructGPT.基于代码数据训练的Codex,以及基于人类反馈的强化学习(RL

14、HF,ReinforcementLearningfromHumanFeedback),训练得到了GPT-3.5,某种意义上实现了大模型能力的“涌现”(在某些复杂能力上实现突破)。GPT-3.5也成为了开启本轮生成式Al浪潮的爆款产品ChatGPT背后的核心功臣。 AGl的曙光已现(GpT4):2023年3月,OPenAl发布了基于GPT-3.5的SOTA(State-Of-The-Art)模型GPT4,该模型在多模态和可靠性方面实现了进一步扩展。从泛化能力的角度,GPT-4在创造力、图片理解能力、长文本处理能力和回答准确性方面都有所提升;从工程能力的角度看,通过与AZUre在算力设施上深度定制

15、合作,GPT-4能够以千分之一的计算量去预测在一定计算规模下的性能(预测最终模型的LoSS);从可靠性的角度,GPT-4自去年8月训练完成后,花费了大量时间做对齐(Alignmenl),甚至不惜牺牲部分性能以提升其内容输出的可靠性。图4.0PenAl的GpT系列模型发展历程GPT-12018.06GPT-22019.02GPT-32020.05Codex2021.07GPT-4 2023.03GPT-3.52022.03解码器架构(decoder-only)无监督的多任务学习需生成式预训练模型扩大模型规模In-Contexi Learning (ICL)探索规模化的极限代码预训练code-davinci-0022022.03,instmchontext-davinci-0022022.03+RLHF,text-davinci-0032022.09+chatGpt-

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > IT计算机 > Java

copyright@ 2008-2023 yzwku网站版权所有

经营许可证编号:宁ICP备2022001189号-2

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!