《大模型合规白皮书2023-金杜律师事务所&上海人工智能研究院-2023.11_市场营销策划_重点报告.docx》由会员分享,可在线阅读,更多相关《大模型合规白皮书2023-金杜律师事务所&上海人工智能研究院-2023.11_市场营销策划_重点报告.docx(80页珍藏版)》请在优知文库上搜索。
1、大模型合规白皮书2023年11月Ok”tIWHit,川第思UAilraCNWrw-L-.-.HUAWEI大模型合规白皮书金杜律师事务所上海人工智能研究院华为技术有限公司上海昇思Al框架&大模型创新中心2023年11月大模型作为人工智能发展脉络中的里程碑,引发了新一轮的科技创新浪潮,其以强大的计算能力和深度学习技术,极大地提高了内容生产效率,促进内容生产方式颠覆式变革。各行各业纷纷布局大模型应用,把握智能化发展的机遇。然而,大模型也面临隐私泄露、侵犯第三方权益以及违背伦理等潜在风险,引发了社会各界的关注和担忧。随着大模型的广泛应用,加快完善大模型的立法监管以确保大模型的应用与发展符合伦理道德和社
2、会价值观,推动人工智能科技的健康发展变得迫在眉睫。世界上主要国家和地区均着手并加快完善大模型相关的法律监管。例如,欧盟以人工智能法案为核心,结合大模型可能涉及的其他领域的立法,逐步建立起专项法案为主、现存法规为辅的人工智能法律监管框架;美国对于人工智能大模型的立法较为分散,各州分别各自推进人工智能立法,联邦政府则试图在现有的立法框架及监管规则内对大模型及人工智能进行规制,但同时,人工智能相关的联邦专项立法提案也在推进当中。我国围绕网络安全、数据安全、个人信息保护等重点领域制定了法律法规,并及时跟进人工智能技术创新发展态势,先后针对互联网信息推荐、生成式人工智能等技术领域出台了管理办法,建立了法
3、律法规和标准规范相协调的人工智能监管制度体系。在此背景下,本白皮书在我国人工智能法律监管框架下进一步梳理了大模型相关方的合规义务及要点,并展望未来大模型法律监管体系的发展趋势与特征,对政府、企业、社会共建大模型治理体系提出切实建议,从而为社会各界了解大模型立法最新动态和立法趋势提供有价值的参考,并为相关单位开展大模型业务提供法律解读及合规指引,保障大模型相关业务的合规经营以及行业的健康规范发展。目录前言一、大模型的发展历程(一)早期模型的探索与局限性8(二)深度学习的崛起11(三)GPT等代表性大模型的影响121 .大模型带来的效率与准确度革命142 .大模型带来的机会与挑战15二、全球大模型
4、监管现状(一)主要国家和地区加快完善大模型监管171 .欧盟172 .美国253 .英国354 二)我国对于大模型的监管现状381 .立法现状382 .合规要素473 .大模型业务中各方合规义务一览表59614 .运营角度的其他考量三、未来展望与发展建议(一)未来展望:大模型合现的前沿701 .大模型技术创新发展与合规风险并存702 .大模型合规框架走向标准化与国际化703 .社会文化和伦理逐渐与合规体系相融714 .行业应用面临不同合规挑战与监管725 .治理路径分阶段、有弹性地构建73(二)发展建议:构筑大模型合规生态741 .政府推动构建行业新秩序742 .企业创新与责任担当783 .社
5、会组织加强协同合作80一、大横型的发展历程(一)早期横型的探索与局限性从早期的符号逻辑到现代的深度学习1模型,Al领域经历了数十年的探索和迭代,为后续突破打下了坚实基础。随着大数据的发展和Al计算能力的爆炸式增长,深度学习模型的崛起显得尤为突出。然而,尽管这些模型在特定任务上取得了令人瞩目的成就,其在初期也面临着许多局限性,如存在数据依赖、计算消耗大、缺乏可解释性等。这些局限性不仅为Al领域带来技术挑战,也引发了对模型偏见、安全性和应用范围的深入思考。1956年6月举行的达特茅斯夏季人工智能研究项目,被广泛认为是人工智能作为一个研究学科的开端。自“人工智能”概念被提出,大模型的发展经历了三个阶
6、段:早期发展期(1956-2005):该阶段主要是传统神经网络模型的阶段,例如循环神经网络(ReCUrrentNeuralNetwork,uRNN),深度学习(Deep learning)是机器学习(Macme learning)中的一类算法,指利用多层神经网络,模仿人脑处理信息的方 式从原始输入中逐步提哪表达数据的域征。2023年11月22日.2循环律经网络(Recurrent Neural Ntvork . RNN)是具有时间联结的前愎神经网络feedforward Neural Networks),特点 是必须按顺序处理,并且上一层的神经细胞层输山和麋18状恣具有较大的权重影响卡一层的运
7、算。循环神经网络必须完成 上一步才就进行下一步,只挺串行不能并行,因此循环神经网络具有短时记忆的特点.技术上把这个现象阱为梯度消失 或梯度爆炸.气环神经网络不擅长处理和旃捉长文本中的语义.network .最后访问于2023年11月22日。、卷积神经网络(COnVOlUtiOnalNeuralNetworks,uCNN,)卷积神羟网络(ConVOIUtional Neural Networks , CNN)是一类包含卷枳计算且具有深度结构的前愦神经网络(FeedfOrWard Neural Networks).是深度学习(Deep learning)的代表算法之一。neraLnetwfk ,最
8、后访问于2023年11月22日。“机器学习(Machine Iearnin3),作为人工智能的一个分支,是指不需要进行显式承程,而由计算系统基于算法和数据集自 行学习,做出识别.决策和福利的过程。2023年11月22日. LeNet又称LeNel-5 .由Yann Leoin提出,是一种经典的卷枳神经网络,是现代卷积神经网珞的起京之一.https:/ n.wikpdia.orgwikiLNet,最后访词于 2023 年 11 月 2?日. Transformer是一种于注意力机制的序列横型,最初由Google的研究团队提出并应用于机器期泾任务.o起初,Al发展主要基于小规模的专家知识,然后逐渐
9、转向机器学习4,1980年和1998年诞生的CNN和LeNet-55奠定了深度学习模型的基础。 快速成长期(2006-2019):该阶段是全新的神经网络模型阶段,模型的发展方向主要聚焦长序列的处理和计算效率的提升,以TranSfOrme卢架构的出现为代表。从2013年的WOrd2Vec7到2。17年的TranSfOrmer,都标志着深度学习模里正走向一个全新的时代。在该阶段,如GPT8和BERT Word2vec ,是一群用来产生调向的相关模型。这些模里力漫而双层的神经网络,用来训练以重新建构语言学之词文本。 2023 年 11 月 22 B. GPT ,全称Generative Pre-Tr
10、ained Transformed生成双预训炼Transformer模S!).是一种于互联网的、可用数据来 训球的、文本生成的深度学习模型。2023年11月22日。BERT(Bidirectional Erwoder Representations from TransformersL是一种预训练的深度学习模型,用于自然语言处理任务.基于 TranSfOnner架构的双向箱码器,通过无监督的学习方式预训球宿官我示,以便能够搞提语言的上下文信息。,0 OpenAI是在美国成立的人工智能用究公司,梭心宗旨在于“实现安全的通用人工智能(AftifiCial General Intelligence
11、. AGI)”,使其有益于人类。2023年11月22日.等Bi训炼模型逐渐成为主流。 全面爆发期(2020-至今):该阶段是预训练大模型阶段。以GPT为代表,预训练大模型处于快速发展的阶段,特别是OPenAl1。推出的GPT-3和GPT-4,标志着大模型技术正迈向新高度。机器学习有三种主要的方式,分别是监督学习、无监督学习、强化学习。 监督学习(SUPeMSedLeaming):“模板规范”(投喂好的资料),我们向模型投喂带有标签的数据(包括数据特征和期望的输出值),让算法学习输入和输出之间的映射关系。经典的监督学习包括分类和回归。分类:例如学习大量猫和狗的图片和标签,当模型接收新的动物图片时
12、可以将其根据特征识别是猫还是狗;回归:例如学习猫的产地、毛色、习性等特征,并将猫的价值作为输出标签进行训练,当模型接收新的猫咪图片时可以根据特征预测猫的价值。,无监督学习(UnSUPerViSedLearning):“开卷有益”(多投喂资料),我们向模型投喂不带标签的数据,让模型自行寻找其中的规律,并进行处理。经典的无监督学习包括聚类和降维。聚类:例如学习大量房屋的信息,模型自行寻找其中的价格、面积、户型的规律,并自动将相同类型的房屋进行汇总。降维:例如学习大量房屋的信息,模型自行寻找其中用户决策最关心的因素,在保留价格和其他少量辅助数据的同时对房屋数据进行压缩,以便简化建模。,强化学习(Re
13、infOrCementLearning):“创意引导(进行条件反射),我们向模型设置特定环境,让模型在其中采取行动,我们再对其进行反馈,让模型从反馈中学习以便优化下一次的行动。这一过程就类似以条件反射的方式训练小狗。在机器学习领域的早期阶段,研究者们的主要关注点是基于统计、线性回归和决策树等的简单模型。早期模型具有以下特点:简单性。早期的模型,如线性回归和逻辑回归,是基于明确的数学方程,使其容易被理解和解释。计算消耗低。由于模型的简单性,其在计算上相对高效,不需要大量的计算资源。表示能力存在上限。虽然早期模型在特定方面表现良好,但其表示能力有限,尤其体现在处理复杂任务和非线性问题上。大模型早期
14、所面临的主要局限性包括: 存在数据依赖:早期的模型对于大量高质量数据有极高的依赖性。在没有足够训练数据的情况下,这些模型往往难以达到令人满意的性能,但获取、清洗、标注这些数据却昂贵且极为耗时。 缺乏可解释性:大模型通常被视为“黑盒”,即模型的内部工作原理很难被理解。由于用户需要理解模型的决策过程,模型的解释性不足在很多关键领域(如医疗和司法)构成障碍。 泛化能力不足:尽管早期的大模型在特定任务中表现性能优秀,但其在新数据或新场景中的泛化能力仍受到质疑。 存在环境和任务依赖:早期的Al模型通常需要根据特定任务定制和调整,这意味着为特定任务训练的模型可能难以直接应用于其他任务。 模型具有一定偏见:
15、由于训练数据往往包含现实世界的偏见,大模型可能反映这些偏见,导致应用于实际场景时出现歧视或不公平的决策。 安全性和稳定性不足:由于早期大模型的复杂性,其易受到对抗性攻击或在特定条件下表现不稳定。以上局限性不仅为Al领域的研究者和工程师带来挑战,也为Al技术的未来发展和应用提出反思和探索的方向。随着技术发展,许多问题已经得到解决或缓解。(二)深度学习的起深度学习从其最初的简单尝试到现今所达到的辉煌高峰,不仅展现了技术的快速发展,更揭示了人类在追求智慧和知识上的不懈努力。深度学习源自人类对人脑工作原理的好奇和模仿,意图借助数学和算法的力量,赋予计算机对信息的处理和认知能力。随着技术日益成熟,深度学习赋予计算机识别图像、处理自然语言甚至复杂决策的能力,不仅体现技术进步,也标志人工智能正逐步走向更加深入、广泛的应用领域,为人类生活带来无尽可能性。因此,深度学习的崛起可以被视为人类科技史上的一大里程碑。神经网络的早期探索。1957年,FrankRosenblatt提出感知器模型,被称为最简单的神经网络,通过简单的线性组合实现分类任务。尽管当时的应用领域有限,但其为后续神经网络的发展奠定了基础。19世纪80年代,Rumel-hart.Hinton及其团队引入了反向传播算法,通过多层神经网络训练,为复杂模型和任务提供