2023人工自能机器算法自然语言处理.docx

上传人:王** 文档编号:1004355 上传时间:2024-03-15 格式:DOCX 页数:77 大小:487.93KB
下载 相关 举报
2023人工自能机器算法自然语言处理.docx_第1页
第1页 / 共77页
2023人工自能机器算法自然语言处理.docx_第2页
第2页 / 共77页
2023人工自能机器算法自然语言处理.docx_第3页
第3页 / 共77页
2023人工自能机器算法自然语言处理.docx_第4页
第4页 / 共77页
2023人工自能机器算法自然语言处理.docx_第5页
第5页 / 共77页
2023人工自能机器算法自然语言处理.docx_第6页
第6页 / 共77页
2023人工自能机器算法自然语言处理.docx_第7页
第7页 / 共77页
2023人工自能机器算法自然语言处理.docx_第8页
第8页 / 共77页
2023人工自能机器算法自然语言处理.docx_第9页
第9页 / 共77页
2023人工自能机器算法自然语言处理.docx_第10页
第10页 / 共77页
亲,该文档总共77页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《2023人工自能机器算法自然语言处理.docx》由会员分享,可在线阅读,更多相关《2023人工自能机器算法自然语言处理.docx(77页珍藏版)》请在优知文库上搜索。

1、人工自能机器算法自然语言处理目录第1章自然语言处理21.1 语言模型31.2 文法181.3 句法分析211.4 扩展文法291.5 真实自然语言的复杂性361.6 自然语言任务41第2章自然语言处理中的深度学习451.1 词嵌入461.2 自然语言处理中的循环神经网络511.3 序列到序列模型57第1章自然语言处理在本文中,我们将看到计算机如何使用自然语言与人类进行交流,并从人类所书写的内容中学习。大约10万年前,人类学会了如何说话,大约5千年前,人类又学会了如何写字。人类语言的复杂性和多样性使得智人区别于其他所有物种。当然,人类还有一些其他的特有属性:没有任何其他物种像人类那样穿衣服,进行

2、艺术创作,或者每天花两小时在社交媒体上交流。但是,艾伦图灵所提出的智能测试是基于语言,而非艺术或服饰,也许是因为语言具有普适性,并且捕捉到了如此多的智能行为:一个演讲者演讲(或作家写作)的目标是交流知识,他组织语言来表示这些知识,然后采取行动以实现这一目标。听众(或读者)感知他们的语言并推断其中的含义。这种通过语言的交流促进了文明的发展,是我们传播文化、法律、科学和技术知识的主要方式。计算机进行自然语言处理(naturallanguageprocessing,NLP)有以下3个主要原因。 与人类交流。在很多情况下,人类使用语音与计算机进行交互是很方便的,而且在大多数情况下,使用自然语言要比使用

3、一阶谓词演算等形式语言更加方便。 学习。人类已经用自然语言记录了很多知识。仅维基百科就有30()()万页事实知识,例如“婴猴是一种夜间活动的小型灵长类动物”,然而几乎没有任何一个这样的知识来源是用形式逻辑写成的。如果我们想让计算机系统知道很多知识,它最好能理解自然语言。 使用人工智能工具结合语言学、认知心理学和神经科学,促进对语言和语言使用的科学理解。在本文中,我们将探讨语言的各种数学模型,并讨论使用这些模型可以完成的任务。1.l语言模型正如我们在第8章中所看到的,形式语言(如一阶逻辑)是精确定义的。文法(grammar)定义合法句的句法(syntax)m,语义规则(semanticrule)

4、定义其含义。11在形式语言学和计算机学科中,“grammar”的标准翻译是“文法”,而在计算语言学中则多译作悟法”(摘自中国计算机学会通讯第5卷,第4期,2009,4),而“syntax”有时也译作“语法L在本书中为了区分两个概念,我们将“grammar”译作“文法”,将“syntax”译作“句法”。译者注然而,自然语言(如英语或汉语)无法如此清晰地表示。不同的人在不同的时间对于语言的判断会有所差别。所有人都会认为“Nottobeinvitedissad.”是一个合乎文法的英语语句,但是对于“Tobenotinvitedissad.”的合乎文法性则存在分歧。自然语言是存在歧义的(“Hesawh

5、erduck”可以理解为“他看到了她的鸭子”,也可以理解为“他看到她躲避某物“),也是模糊不清的LThWsgreat!”没有准确说明它有多么好,也没有说明它是什么)。自然语言没有正式定义从符号到对象的映射。在一阶逻辑中,“Richard”符号的两次使用必须指同一个人,但在自然语言中,同一单词或短语的两次出现可能指代世界上不同的事物。如果我们不能在合乎文法字符串和不合文法字符串之间做出明确的布尔判别,我们至少可以知道每个字符串的可能性或不可能性有多大。我们将语言模型(IangUagemodel)定义为描述任意字符串可能性的概率分布。这样一个模型应该认为“DoIdaredisturbtheUniV

6、erse?”作为一个英语字符串具有合理的概率,而“UniversedaretheIdisturbdo?是英语字符串的可能性极低。通过语言模型,我们可以预测文本中接下来可能出现的单词,从而为电子邮件或短信息提供补全建议。我们可以计算出对文本进行哪些更改会使其具有更高的概率,从而提供拼写或文法更正建议。通过一对语言模型,我们可以计算出一个句子最可能的翻译。用一些示例问题答案”对作为训练数据,我们可以计算出针对某一问题的最可能的答案。因此,语言模型是各种自然语言任务的核心。语言建模任务本身也可以作为衡量语言理解进度的通用基准。自然语言是复杂的,因此任何语言模型充其量只能是自然语言的一个近似。语言学家

7、爱德华萨丕尔(EdwardSwir)曾说“没有一种语言是绝对一成不变的,任何文法都会有所遗漏“(S叩ir,1921)o哲学家唐纳德戴维森(DonaldDavidson)说过“如果语言是一个明确定义的共享结构的话,就不存在语言这种东西”(DaVidSon,1986),他的意思是说,没有一种像PythOn3.8那样的确定性的英语语言模型,我们都有不同的模型,但我们仍然设法应对过去了,并进行交流。在本节中,我们将介绍一些简单的语言模型,这些模型显然是错误的,但是对某些任务来说仍然有用。1.1.1词袋模型1261节介绍了基于特定单词的朴素贝叶斯模型如何可靠地将句子分类。例如,下面的句子1被分类为bus

8、iness,句子2被分类为Weather。(1) StocksralliedonMonday,withmajorindexesgaining1%asoptimismpersistedoverthefirstquarterearningsseason.(2) HeavyraincontinuedtopoundmuchoftheeastcoastonMonday,withfloodwarningsissuedinNewYorkCityandotherlocations.在这一节,我们将回顾朴素贝叶斯模型,并将其转换为完整的语言模型。这意味着我们不仅想知道每个句子最可能属于哪一类别,我们还想知道所有

9、句子和类别的联合概率分布。这意味着我们应该考虑句子中的所有单词。给定一个由单词曲,W?,Wn组成的句子(参考第14章,我们将其记为叼.W),根据朴素贝叶斯公式式(12.21),我们有P(ClaSSIWIw)=aP(Class)YP(wjClass)朴素贝叶斯方法在字符串上的应用称为词袋模型(bag-ofwordsmodel)o它是一种生成模型,描述了句子生成的过程:想象一下,对于每个类别(businessWeathel等),我们都有一个装满单词的袋子(你可以想象每个单词都写在袋子内的纸条上,一个单词越常见,重复的纸条就越多)。要生成一段文本,首先选择其中一个袋子并丢掉其他袋子。从那个袋子中随机

10、抽出一个单词,这将是句子的第一个单词。然后将这个单词放回并抽取第二个单词。重复上述操作直到出现句末指示符(如句号)。这一模型显然是错误的:它错误地假设每个单词都与其他单词无关,因此无法生成连贯的英语语句。但它确实使得我们可以使用朴素贝叶斯公式来进行准确分类:“stocks”和“earnings”这两个词明显指向business类,而“rain和“cloudy”两个词贝Ij指向Weather类我们可以通过在文本正文或语料库(corpus)上进行监督训练来学习该模型所需的先验概率,文本的每个部分都标有它的类别。一个语料库通常由至少一百万字的文本和上万个不同词汇组成。最近,我们正在使用更大的语料库,

11、例如,拥有25亿词的维基百科和拥有140亿词的iWeb语料库(来自2200万个网页)。使用语料库,我们可以通过计算每一类别的常见程度来估计它们的先验概率P(Css)我们还可以使用计数来估算给定类别的每个单词的条件概率网吗Iaa苗)。例如,如果总共有3OOO条文本,其中300条被分类为business,那么我们可以估计P(Css=business)300/3000=0.1o如果在business类中,总共有100OOo个单词,而“stocks”一词出现了700次,那么我们可以估计P(*oc依IClass=business)700/100000=0.007o当单词数目很大(且方差较小)时,通过计数

12、进行估计的效果很好,但是在23.1.4节中,我们将看到一种在单词数目较小时估计概率的更好的方法。有时,选择另一种机器学习方法(如逻辑斯谛回归、神经网络或支持向量机)可能比朴素贝叶斯方法效果更好。机器学习模型的特征是词汇表中的单词:“a”“aardvark”zyzzyva,值是每个单词在文本中出现的次数(或者是一个布尔值,表示该单词是否在文本中出现)。这导致特征向量是高维且稀疏的在语言模型中,可能有100000个单词,因此特征向量的维数为1()()OOOo但是对短文本来说,特征向量的绝大部分特征都是0。正如我们所看到的,当我们进行特征选择(featureselection),g制特征为单词中的一

13、个子集时,某些机器学习模型效果会更好。我们可以删除非常罕见的单词(因为这些词的预测能力差异很大)和所有类别共有但对分类不起作用的单词(如“the”)。我们还可以将其他特征与基于单词的特征混合使用;例如,如果我们要对电子邮件进行分类,则可以为发件人添加以下特征:发送消息的时间、主题标题中的单词、是否存在非标准标点符号、大写字母的百分比、是否有附件等。注意,判断单词是什么并不容易。“arenV是一个单词,还是应该将它分解为“aren/t”或“areht”或其他形式?将文本划分为单词序列的过程称为分词(tokenization)。1.1.2 n元单词模型词袋模型具有一定局限性。例如,quarter”

14、一词在business和sports类中都很常见。但是“firstquarterearningsreport”这一由4个单词电成的序列只在business类中常见,4fourthquartertouchdownPaSSeS则只在SPOitS类中常见。我们希望模型可以做出区分。我们可以调整词袋模型,将“flrstquarterearningsreport”这样的特殊短语视为单个单词,但更具原则性的方法是引入一种新模型,其中每个单词都依赖于之前的单词。我们可以先让单词依赖于它所在句子中之前的所有单词:P(WLN)=(!Pg/吗,7)7=1这个模型在某种意义上是完全“正确”的,因为它捕捉了单词间所有

15、可能的交互,但它并不实用:当词汇表中有1()()OOo个单词,句子长度为40时,模型需要估计10项个参数。我们可以使用马尔可夫链模型折中,它只考虑个相邻单词之间的依赖关系,我们称之为n元模型(小grammodel)(gram源自希腊语词根g117?仍意为“写下的东西“):长度为的芋面符号序列称为元。当个别为1、2和3时,我们将於别称作一元(unigram,即1-gram)、二元(bigram,即2-gram)和三元(trigram,即3-gram)。在元模型中,每个单词出现的概率仅依赖于前面的T个单词,也就是说:12注意,元的书面符号序列的元素可以是单词、字符、音节或其他元素。编者注P(Wjl

16、W叮T)=P(WW-)NP(Wlw)=11P(W.IJ=I元模型适用于对报纸版面进行分类,它在其他分类任务上表现得也很好,如垃圾邮件检测(SPamdeteCtiOn)(区分垃圾邮件和非垃圾邮件)、情感分析(Sentimentanalysis)(将电影或商品评论分类为正面评价或负面评价)以及作者归属(authorattribution)(海明威与福克纳或莎士比亚的写作风格和使用词汇不同)。1.1.3 其他n元模型元单词模型的一种替代方法是字符级模型(character-levelmodel),其中每个字符的概率由之前的T个字符决定。这种方法有助于处理未知单词,也有助于处理倾向于将单词放在一起的语言,如丹

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > IT计算机 > 人工智能

copyright@ 2008-2023 yzwku网站版权所有

经营许可证编号:宁ICP备2022001189号-2

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!