当前位置: 首页 > news >正文

有比wordpress更好的吗seo的培训网站哪里好

有比wordpress更好的吗,seo的培训网站哪里好,0元做游戏代理,公众号开发建设自然语言处理面临着8个难点#xff0c;即语言的抽象性、组合性、歧义性、进化性、非规范性、主观性、知识性及难移植性。正是由于这些难点的存在#xff0c;导致自然语言处理任务纷繁复杂。不过#xff0c;虽然自然语言处理任务多种多样#xff0c;却可以被归为三大类常见的… 自然语言处理面临着8个难点即语言的抽象性、组合性、歧义性、进化性、非规范性、主观性、知识性及难移植性。正是由于这些难点的存在导致自然语言处理任务纷繁复杂。不过虽然自然语言处理任务多种多样却可以被归为三大类常见的自然语言处理任务即语言模型、基础任务以及应用任务。本文就分别来介绍一下语言模型语言模型Language ModelLM也称统计语言模型是描述自然语言概率分布的模型是一个非常基础和重要的自然语言处理任务。利用语言模型可以计算一个词序列或一句话的概率也可以在给定上文的条件下对接下来可能出现的词进行概率分布的估计。同时语言模型是一项天然的预训练任务在基于预训练模型的自然语言处理方法中起到非常重要的作用因此这种预训练模型有时也 被称为预训练语言模型。这里将主要介绍经典的N元语言模型N-gram Language Model现代的神经网络语言模型Neural Network Language Model在《自然语言处理基于预训练模型的方法》的第 5 章进行详细的介绍。01 N 元语言模型语言模型的基本任务是在给定词序列的条件下对下一时刻可能出现的词的条件概率进行估计。一般地把称为w_t的历史。例如对于历史“我 喜欢”希望得到下一个词为“读书” 的概率即 读书我喜欢 。在给定一个语料库时该条件概率可以理解为当语料中出现“我喜欢”时有多少次下一个词为“读书”然后通过最大似然估计进行计算读书我喜欢我喜欢读书我喜欢  (1)式中表示相应词序列在语料库中出现的次数也称为频次。通过以上的条件概率可以进一步计算一个句子出现的概率即相应单词序列的联合概率 式中为序列的长度。可以利用链式法则对该式进行分解从而将其转化为条件概率的计算问题即 式中表示由位置到的子串。然而随着句子长度的增加出现的次数会越来越少甚至从未出现过那么则很可能为0此时对于概率估计就没有意义了。为了解决该问题可以假设“下一个词出现的概率只依赖于它前面个词”即  该假设被称为马尔可夫假设Markov Assumption。满足这种假设的模型被称为N 元语法或N元文法N-gram模型。特别地当时下一个词的出现独立于其历史相应的一元语法通常记作 unigram。当时下一个词只依赖于前 1 个词对应的二元语法记作 bigram。二元语法模型也被称为一阶马尔可夫链Markov Chain。类似的三元语法假设也被称为二阶马尔可夫假设相应的三元语法记作trigram。的取值越大考虑的历史越完整。在 unigram 模型中由于词与词之间相互独立因此它是与语序无关的。以 bigram 模型为例式 (2) 可转换为为了使对于有意义可在句子的开头增加一个句首标记 BOSBegin Of Sentence并设 BOS。同时也可以在句子的结尾增加一个句尾标记 EOSEnd Of Sentence设  EOS。注也有论文中使用 s 等标记表示句首使用 /s、e 等标记表示句尾。02 平滑虽然马尔可夫假设下一个词出现的概率只依赖于它前面个词降低 了句子概率为 0 的可能性但是当比较大或者测试句子中含有未登录词Out-Of-Vocabulary, OOV时仍然会出现“零概率”问题。由于数据的稀疏性训练数据很难覆盖测试数据中所有可能出现的 N-gram但这并不意味着这些 N-gram 出现的概率为 0。为了避免该问题需要使用平滑Smoothing技术调整概率估计的结果。这里将介绍一种最基本也最简单的平滑算法——折扣法。折扣法Discounting平滑的基本思想是“损有余而补不足”即从频繁出现 的 N-gram 中匀出一部分概率并分配给低频次含零频次的 N-gram从而使得整体概率分布趋于均匀。加 1 平滑Add-one Discounting是一种典型的折扣法也被称为拉普拉斯平滑Laplace Smoothing它假设所有 N-gram 的频次比实际出现的频次多一次。例如对于 unigram 模型来说平滑之后的概率可由以下公式计算 式中是词表大小。所有未登录词可以映射为一个区别于其他已知词汇的独立标记如 UNK。相应的对于 bigram 模型则有 在实际应用中尤其当训练数据较小时加 1 平滑将对低频次或零频次事件给出过高的概率估计。一种自然的扩展是加平滑。在加平滑中假设所有事件的频次比实际出现的频次多次其中。以 bigram 语言模型为例使用加平滑之后的条件概率为关于超参数的取值需要用到开发集数据。根据开发集上的困惑度对不同取值下的语言模型进行评价最终将最优的用于测试集。由于引入了马尔可夫假设导致 N 元语言模型无法对长度超过的长距离词语依赖关系进行建模如果将扩大又会带来更严重的数据稀疏问题同时还会急剧增加模型的参数量N-gram 数目为存储和计算都带来极大的挑战。神经网络语言模型可以较好地解决 N 元语言模型的这些缺陷。语言模型性能评价如何衡量一个语言模型的好坏呢一种方法是将其应用于具体的外部任务 如机器翻译并根据该任务上指标的高低对语言模型进行评价。这种方法也 被称为“外部任务评价”是最接近实际应用需求的一种评价方法。但是这种方式的计算代价较高实现的难度也较大。因此目前最为常用的是基于困惑度 PerplexityPPL的“内部评价”方式。为了进行内部评价首先将数据划分为不相交的两个集合分别称为训练集和测试集其中用于估计语言模型的参数。由该模型计算出的测试集的概率则反映了模型在测试集上的泛化能力。注当模型较为复杂例如使用了平滑技术时在测试集上反复评价并调整超参数的方式会使得模型在一定程度 上拟合了测试集。因此在标准实验设置中需要划分一个额外的集合以用于训练过程中的必要调试。该集合 通常称为开发集Development set也称验证集Validation set。假设测试集每个句子的开始和结束分布增加 BOS 与 EOS 标记那么测试集的概率为困惑度则为模型分配给测试集中每一个词的概率的几何平均值的倒数例如对于 bigram 模型而言在实际计算过程中考虑到多个概率的连乘可能带来浮点数下溢的问题通常需要将式 (10) 转化为对数和的形式困惑度越小意味着单词序列的概率越大也意味着模型能够更好地解释测试集中的数据。需要注意的是困惑度越低的语言模型并不总是能在外部任务上取得更好的性能指标但是两者之间通常呈现出一定的正相关性。因此困惑度可以作为一种快速评价语言模型性能的指标而在将其应用于下游任务时仍然需要根据其在具体任务上的表现进行评价。基础任务自然语言处理的一大特点是任务种类纷繁复杂有多种划分的方式。从处理顺序的角度可以分为底层的基础任务以及上层的应用任务。其中基础任务往往是语言学家根据内省的方式定义的输出的结果往往作为整个系统的一个环节或者下游任务的额外语言学特征而并非面向普罗大众。本文就来介绍几种常见的基础任务包括词法分析分词、词性标注、句法分析和语义分析等。01 中文分词词Word 是最小的能独立使用的音义结合体是能够独立运用并能够表达语义或语用内容的最基本单元。在以英语为代表的印欧语系Indo-European languages中词之间通常用分隔符空格等区分。但是在以汉语为代表的汉藏语系Sino-Tibetan languages以及以阿拉伯语为代表的闪-含语系Semito-Hamitic languages中却不包含明显的词之间的分隔符。因此为了进行后续的自然语言处理通常需要首先对不含分隔符的语言进行分词Word Segmentation操作。本节以中文分词为例介绍词的切分问题和最简单的分词算法。中文分词 就是将一串连续的字符构成的句子分割成词语序列如“我喜欢读 书”分词后的结果为“我 喜欢 读书”。最简单的分词算法叫作正向最大匹配 Forward Maximum MatchingFMM分词算法即从前向后扫描句子中的字符串尽量找到词典中较长的单词作为分词的结果。具体代码如下def fmm_word_seg(sentence, lexicon, max_len):sentence待分词的句子 lexicon词典所有单词集合 max_len词典中最长单词长度begin  0 end  min(begin  max_len, len(sentence)) words  [] while begin  end: word  sentence[begin:end] if word in lexicon or end - begin  1: words.append(word) begin  end end  min(begin  max_len, len(sentence)) else: end - 1 return words 通过下面的代码加载词典并调用正向最大匹配分词算法def load_dict(): f  open(lexicon.txt) # 词典文件每行存储一个单词 lexicon  set() max_len  0 for line in f: word  line.strip() lexicon.add(word) if len(word)  max_len: max_len  len(word) f.close() return lexicon, max_len lexicon, max_len  load_dict() words  fmm_word_seg(input(请输入句子), lexicon, max_len) for word in words: print(word,) 正向最大匹配分词算法存在的明显缺点是倾向于切分出较长的词这容易导致错误的切分结果如“研究生命的起源”由于“研究生”是词典中的词所以使用正向最大匹配分词算法的分词结果为“研究生 命 的 起源”显然分词结果不正确。这种情况一般被称为切分歧义问题即同一个句子可能存在多种分词结果 一旦分词错误则会影响对句子的语义理解。正向最大匹配分词算法除了存在切 分歧义对中文词的定义也不明确如“哈尔滨市”可以是一个词也可以认为 “哈尔滨”是一个词“市”是一个词。因此目前存在多种中文分词的规范根据不同规范又标注了不同的数据集。另外就是未登录词问题也就是说有一些词并没有收录在词典中如新词、 命名实体、领域相关词和拼写错误词等。由于语言的动态性新词语的出现可谓 是层出不穷所以无法将全部的词都及时地收录到词典中因此一个好的分词系统必须能够较好地处理未登录词问题。相比于切分歧义问题在真实应用环境 中由未登录词问题引起的分词错误比例更高。因此分词任务本身也是一项富有挑战的自然语言处理基础任务可以使用多种机器学习方法加以解决《自然语言处理基于预训练模型的方法全彩》一书中有详细的介绍。02 子词切分一般认为以英语为代表的印欧语系的语言词语之间通常已有分隔符空 格等进行切分无须再进行额外的分词处理。然而由于这些语言往往具有复杂的词形变化如果仅以天然的分隔符进行切分不但会造成一定的数据稀疏问题 还会导致由于词表过大而降低处理速度。如“computer”“computers”“computing” 等虽然它们语义相近但是被认为是截然不同的单词。传统的处理方法是根据语言学规则引入词形还原Lemmatization或者词干提取Stemming等任务 提取出单词的词根从而在一定程度上克服数据稀疏问题。其中词形还原指的是将变形的词语转换为原形如将“computing”还原为“compute”而词干提取则 是将前缀、后缀等去掉保留词干Stem如“computing”的词干为“comput” 可见词干提取的结果可能不是一个完整的单词。词形还原或词干提取虽然在一定程度上解决了数据稀疏问题但是需要人工 撰写大量的规则这种基于规则的方法既不容易扩展到新的领域也不容易扩展 到新的语言上。因此基于统计的无监督子词Subword切分任务应运而生并 在现代的预训练模型中使用。所谓子词切分就是将一个单词切分为若干连续的片段。目前有多种常用的子词切分算法它们的方法大同小异基本的原理都是使用尽量长且频次高的子词对单词进行切分。此处重点介绍常用的字节对编码Byte Pair EncodingBPE 算法。首先BPE 通过算法 2.1 构造子词词表。下面通过一个例子说明如何构造子词词表。首先假设语料库中存在下列 Python 词典中的 3 个单词以及每个单词对应的频次。其中每个单词结尾增加了 一个 /w 字符并将每个单词切分成独立的字符构成子词。{l o w e r /w: 2, n e w e s t /w: 6, w i d e s t /w: 3} 初始化的子词词表为 3 个单词包含的全部字符{l, o, w, e, r, /w, n, s, t, i, d} 然后统计单词内相邻的两个子词的频次并选取频次最高的子词对 e 和 s合并成新的子词 es共出现 9 次然后加入子词词表中并将语料库中 不再存在的子词 s 从子词词表中删除。此时语料库以及子词词表变为{l o w e r /w: 2, n e w es t /w: 6, w i d es t /w: 3} {l, o, w, e, r, /w, n, t, i, d, es} 然后合并下一个子词对 es 和 t新的语料库和子词词表为{l o w e r /w: 2, n e w est /w: 6, w i d est /w: 3} {l, o, w, e, r, /w, n, i, d, est} 重复以上过程直到子词词表大小达到一个期望的词表大小为止。构造好子词词表后如何将一个单词切分成子词序列呢可以采用贪心的方 法即首先将子词词表按照子词的长度由大到小进行排序。然后从前向后遍历子 词词表依次判断一个子词是否为单词的子串如果是的话则将该单词切分然 后继续向后遍历子词词表。如果子词词表全部遍历结束单词中仍然有子串没有被切分那么这些子串一定为低频串则使用统一的标记如 UNK 进行替换。例如对一个含有三个单词的句子[the/w, highest/w, mountain /w] 进行切分假设排好序的词表为 [errrr/w, tain/w, moun, est/w, high, the/w, a/w]则子词切分的结果为 [the/w , high, est/w, moun, tain/w]。此过程也叫作对句子单词 序列进行编码。那么如何对一个编码后的句子进行解码也就是还原成原始的句子呢此 时单词结尾字符 /w 便发挥作用了。只要将全部子词进行拼接然后将结尾 字符替换为空格就恰好为原始的句子了。通过以上过程可以发现BPE 算法中的编码步骤需要遍历整个词表是一个非常耗时的过程。可以通过缓存技术加快编码的速度即将常见单词对应的编码 结果事先存储下来然后编码时通过查表的方式快速获得编码的结果。对于查不到的单词再实际执行编码算法。由于高频词能够覆盖语言中的大部分单词因此 该方法实际执行编码算法的次数并不多因此可以极大地提高编码过程的速度。除了 BPE还有很多其他类似的子词切分方法如 WordPiece、Unigram Language ModelULM算法等。其中WordPiece 与 BPE 算法类似也是每次从子 词词表中选出两个子词进行合并。与 BPE 的最大区别在于选择两个子词进行合 并的策略不同BPE 选择频次最高的相邻子词合并而 WordPiece 选择能够提升 语言模型概率最大的相邻子词进行合并。经过公式推导提升语言模型概率最大 的相邻子词具有最大的互信息值也就是两子词在语言模型上具有较强的关联性 它们经常在语料中以相邻方式同时出现。与 WordPiece 一样ULM 同样使用语言模型挑选子词。不同之处在于BPE 和 WordPiece 算法的词表大小都是从小到大变化属于增量法。而 ULM 则是减量 法即先初始化一个大词表根据评估准则不断丢弃词表中的子词直到满足限定条件。ULM 算法考虑了句子的不同分词可能因而能够输出带概率的多个子词 分段。为了更方便地使用上述子词切分算法Google 推出了 SentencePiece 开源工具 包其中集成了 BPE、ULM 等子词切分算法并支持 Python、C 编程语言的调 用具有快速、轻量的优点。此外通过将句子看作 Unicode 编码序列从而使 其能够处理多种语言。03词性标注词性 是词语在句子中扮演的语法角色也被称为词类Part-Of-SpeechPOS。 例如表示抽象或具体事物名字如“计算机”的词被归为名词而表示动作 如“打”、状态 (如“存在”) 的词被归为动词。词性可为句法分析、语义理解等 提供帮助。词性标注POS Tagging任务是指给定一个句子输出句子中每个词相应的词性。例如当输入句子为他 喜欢 下 象棋 。 则词性标注的输出为他/PN 喜欢/VV 下/VV 象棋/NN 。/PU 其中斜杠后面的 PN、VV、NN 和 PU 分别代表代词、动词、名词和标点符号①。① 不同标注规范定义的词性及表示方式不同本书主要以中文宾州树库Chinese Penn Treebank词性标注规范为例。词性标注的主要难点在于歧义性即一个词在不同的上下文中可能有不同的 词性。例如上例中的“下”既可以表示动词也可以表示方位词。因此需要 结合上下文确定词在句子中的具体词性。04 句法分析句法分析Syntactic Parsing的主要目标是给定一个句子分析句子的句法 成分信息例如主谓宾定状补等成分。最终的目标是将词序列表示的句子转换成 树状结构从而有助于更准确地理解句子的含义并辅助下游自然语言处理任务。例如对于以下两个句子您转的这篇文章很无知。 您转这篇文章很无知。虽然它们只相差一个“的”字但是表达的语义是截然不同的这主要是因 为两句话的主语不同。其中第一句话的主语是“文章”而第二句话的主语是 “转”的动作。通过对两句话进行句法分析就可以准确地获知各自的主语从而推导出不同的语义。典型的句法结构表示方法包含两种——短语结构句法表示和依存结构句法表 示。它们的不同点在于依托的文法规则不一样。其中短语结构句法表示依托上 下文无关文法属于一种层次性的表示方法。而依存结构句法表示依托依存文法。图 2-2 对比了两种句法结构表示方法。在短语结构句法表示中S 代表起始符号 NP 和 VP 分别代表名词短语和动词短语。在依存结构句法表示中sub 和 obj 分 别表示主语和宾语root 表示虚拟根节点其指向整个句子的核心谓词。05 语义分析自然语言处理的核心任务即是让计算机“理解”自然语言所蕴含的意义即 语义Semantic。本章前面介绍的文本向量表示可以被认为隐性地蕴含了很多语义信息。而一般意义上的语义分析指的是通过离散的符号及结构显性地表示语义。根据待表示语言单元粒度以及语义表示方法的不同语义分析又可以被分为多种形式。从词语的粒度考虑一个词语可能具有多种语义词义例如“打”含义即可能是“攻击”如“打人”还可能是“玩”如“打篮球”甚至“编织”如 “打毛衣”等。根据词语出现的不同上下文确定其具体含义的自然语言处理任 务被称为词义消歧Word Sense DisambiguationWSD。对于每个词可能具有的词义往往是通过语义词典确定的如 WordNet 等。除了以上一词多义情况还有多词一义的情况如“马铃薯”和“土豆”具有相同的词义。由于语言的语义组合性和进化性无法像词语一样使用词典定义句子、段落或篇章的语义因此很难用统一的形式对句子等语言单元的语义进行表示。众多的语言学流派提出了各自不同的语义表示形式如语义角色标注Semantic Role LabelingSRL、语义依存分析Semantic Dependency ParsingSDP等。其中语义角色标注也称谓词论元结构Predicate-Argument Structure即首先识别句子中可能的谓词一般为动词然后为每个谓词确定所携带的语义角 色也称作论元如表示动作发出者的施事Agent表示动作承受者的受事 Patient等。除了核心语义角色还有一类辅助描述动作的语言成分被称为附加语义角色如动作发生的时间、地点和方式等。表 2-2 展示了一个语义角色标注的示例其中有两个谓词——“喜欢”和“下”并针对每个谓词产生相应的论元输出结果。语义依存分析则利用通用图表示更丰富的语义信息。根据图中节点类型的不 同又可分为两种表示——语义依存图Semantic Dependency Graph表示和概念语义图Conceptual Graph表示。其中语义依存图中的节点是句子中实际存在的词语在词与词之间创建语义关系边。而概念语义图首先将句子转化为虚拟 的概念节点然后在概念节点之间创建语义关系边。图 2-3 展示了一个语义依存图分析结果示例。以上的语义表示方式属于通用语义表示方式也就是针对各种语言现象设计统一的语义表示。除此之外还有另一类语义分析用于专门处理具体的任务如将自然语言表示的数据库查询转换成结构化查询语言SQL。例如对于如表2-3 所示的学生信息表系统需要将用户的自然语言查询年龄大于18岁的学生姓名 转化为 SQL 语句select name where age 18;。应用任务本文介绍信息抽取、情感分析、问答系统、机器翻译和对话系统等自然语言处理应用任务。这些任务可以直接或间接地以产品的形式为终端用户提供服务是自然语言处理研究应用落地的主要技术。01 信息抽取信息抽取Information ExtractionIE是从非结构化的文本中自动提取结构化信息的过程这种结构化的信息方便计算机进行后续的处理。另外抽取的结果还可以作为新的知识加入知识库中。信息抽取一般包含以下几个子任务。命名实体识别Named Entity RecognitionNER是在文本中抽取每个提及的 命名实体并标注其类型一般包括人名、地名和机构名等也包括专有名称等如 书名、电影名和药物名等。在文本中找到提及的命名实体后往往还需要将这些命名实体链接到知识库或知识图谱中的具体实体这一过程被称作实体链接Entity Linking。如“华盛顿”既可以指美国首任总统也可以指美国首都需要根据上下文进行判断这一过程类似于词义消歧任务。关系抽取Relation Extraction用于识别和分类文本中提及的实体之间的语 义关系如夫妻、子女、工作单位和地理空间上的位置关系等二元关系。事件抽取Event Extraction的任务是从文本中识别人们感兴趣的事件以及 事件所涉及的时间、地点和人物等关键元素。其中事件往往使用文本中提及的具体触发词Trigger定义。可见事件抽取与语义角色标注任务较为类似其 中触发词对应语义角色标注中的谓词而事件元素则可认为是语义角色标注中的论元。事件的发生时间往往比较关键因此时间表达式Temporal Expression识别 也被认为是重要的信息抽取子任务一般包括两种类型的时间绝对时间日期、 星期、月份和节假日等和相对时间如明天、两年前等。使用时间表达归一化Temporal Expression Normalization将这些时间表达式映射到特定的日期或一天 中的时间。下面通过一个例子综合展示以上的各项信息抽取子任务。如通过下面的新闻报道10月28日AMD宣布斥资350亿美元收购FPGA芯片巨头赛灵思。这两家传了多年绯闻的芯片 公司终于走到了一起。信息抽取结果如表 2-4 所示。02 情感分析情感Sentiment是人类重要的心理认知能力使用计算机自动感知和处理 人类情感已经成为人工智能领域重要的研究内容之一。自然语言处理中的情感分 析主要研究人类通过文字表达的情感因此也称为文本情感分析。但是情感又是一个相对比较笼统的概念既包括个体对外界事物的态度、观点或倾向性如正面、负面等又可以指人自身的情绪Emotion如喜、怒、哀和惧等。随着互联 网的迅速发展产生了各种各样的用户生成内容User Generated ContentUGC 其中很多内容包含着人们的喜怒哀惧等情感对这些情感的准确分析有助于了解 人们对某款产品的喜好随时掌握舆情的发展。因此情感分析成为目前自然语 言处理技术的主要应用之一。情感分析可以从任务角度分为两个主要的子任务即情感分类识别文本中 蕴含的情感类型或者情感强度其中文本既可以是句子也可以是篇章和情感信息抽取抽取文本中的情感元素如评价词语、评价对象和评价搭配等。针对下面的用户评论这款手机的屏幕很不错性能也还可以。情感分析结果如表 2-5 所示。由于情感分析具有众多的应用场景如商品评论的分析、舆情分析等因此 情感分析受到工业界的广泛关注已成为自然语言处理研究应用落地的重要体现。另外情感分析还在社会学、经济学和管理学等领域显示出重要的研究意义和广 泛的应用前景这些需求对情感分析不断提出更高的要求推动了情感分析研究 的内涵和外延不断扩展和深入。03 问答系统问答系统Question AnsweringQA是指系统接受用户以自然语言形式描 述的问题并从异构数据中通过检索、匹配和推理等技术获得答案的自然语言处 理系统。根据数据来源的不同问答系统可以分为 4 种主要的类型1检索式问答系统答案来源于固定的文本语料库或互联网系统通过查找相关文档并抽取答案完成问答2知识库问答系统回答问题所需的知识以数据库等结构化形式 存储问答系统首先将问题解析为结构化的查询语句通过查询相关知识点并 结合知识推理获取答案3常问问题集问答系统通过对历史积累的常问问题集 进行检索回答用户提出的类似问题4阅读理解式问答系统通过抽取给定文 档中的文本片段或生成一段答案来回答用户提出的问题。在实际应用中可以综 合利用以上多种类型的问答系统来更好地回答用户提出的问题。04 机器翻译机器翻译Machine TranslationMT是指利用计算机实现从一种自然语言 源语言到另外一种自然语言目标语言的自动翻译。据统计目前世界上存在约 7,000 种语言其中超过 300 种语言拥有 100 万个以上的使用者。而随着全球化趋势的发展和互联网的广泛普及不同语言使用者之间的信息交流变得越来越重要。如何突破不同国家和不同民族之间的语言障碍已成为全人类面临的 共同难题。机器翻译为克服这一难题提供了有效的技术手段其目标是建立自动 翻译方法、模型和系统打破语言壁垒最终实现任意时间、任意地点和任意语言之间的自动翻译完成人们无障碍自由交流的梦想。自从自然语言处理领域诞生以来机器翻译一直是其主要的研究任务和应用场景。近年来谷歌、百度等公司纷纷推出在线的机器翻译服务科大讯飞等公司也推出了翻译机产品能够直接将一种语言的语音翻译为另一种语言的语音为具有不同语言的人们之间的互相交流提供了便利。下面给出一个中英互译的例子其中源语言中文和目标语言英文都经过了分词处理S: 北京 是 中国 的 首都 。T: Beijing is the capital of China .机器翻译方法一般以句子为基本输入单位研究从源语言句子到目标语言句子的映射函数。机器翻译自诞生以来主要围绕理性主义和经验主义两种方法进行研究。所谓“理性主义”是指基于规则的方法而“经验主义”是指数据驱动 的统计方法在机器翻译领域表现为基于语料库翻译实例库的研究方法。近年来兴起的基于深度学习的机器翻译方法利用深度神经网络学习源语言句子到目标语言句子的隐式翻译规则即所有的翻译规则都被编码在神经网络的模型参数 中。该方法又被称为神经机器翻译Neural Machine Translation, NMT。05 对话系统对话系统Dialogue System是指以自然语言为载体用户与计算机通过多轮交互的方式实现特定目标的智能系统。其中特定目标包括完成特定任务、获取信息或推荐、获得情感抚慰和社交陪伴等。20 世纪 50 年代图灵提出用于评测计算机系统智能化水平的“图灵测试”就是以自然语言对话的形式进行的。对话系统可以直接应用于语音助手、智能音箱和车载语音系统等众多场景。对话系统主要分为任务型对话系统Task-Oriented Dialogue和开放域对话系统Open-Domain Dialogue。前者是任务导向型的对话系统主要用于垂直领域的自动业务助理等具有明确的任务目标如完成机票预订、天气查询等特定 的任务。后者是以社交为目标的对话系统通常以闲聊、情感陪护等为目标因此也被称为聊天系统或聊天机器人Chatbot在领域和话题上具有很强的开放性。下面是一段开放域对话系统人机对话的示例其中 U 代表用户的话语UtteranceS 代表对话系统的回复。该类对话系统的主要目标是提升对话的轮次以及用户的满意度。相比对话的准确性开放域对话系统更关注对话的多样性以及对用户的吸引程度。U: 今天天气真不错S: 是啊非常适合室外运动。U: 你喜欢什么运动S: 我喜欢踢足球你呢任务型对话系统一般由顺序执行的三个模块构成即自然语言理解、对话管理和自然语言生成。其中自然语言理解Natural Language UnderstandingNLU 模块的主要功能是分析用户话语的语义通常的表示形式为该话语的领域、意图以及相应的槽值等。如对于用户话语U: 帮我订一张明天去北京的机票自然语言理解的结果如表 2-6 所示。对话管理Dialogue ManagementDM模块包括对话状态跟踪Dialogue State TrackingDST和对话策略优化Dialogue Policy OptimizationDPO两个子模块。对话状态一般表示为语义槽和值的列表。例如通过对以上用户话语 自然语言理解的结果进行对话状态跟踪得到当前的对话状态通常为语义槽及 其对应的值构成的列表[到达地 北京出发时间 明天出发地 NULL数量 1]。获得当前对话状态后进行策略优化即选择下一步采用什么样的策略 也叫作动作。动作有很多种如此时可以询问出发地也可以询问舱位类型等。在任务型对话系统里自然语言生成Natural Language GenerationNLG模 块工作相对比较简单通常通过写模板即可实现。比如要询问出发地就直接问 “请问您从哪里出发”然后经过语音合成Text-to-SpeechTTS反馈给用户。以上三个模块可以一直循环执行下去随着每次用户的话语不同对话状态也随之变化。然后采用不同的回复策略直到满足用户的订票需求为止。▼本文摘自《自然语言处理基于预训练模型的方法全彩》一书想要了解更多预训练模型的内容推荐阅读此书▊《自然语言处理基于预训练模型的方法全彩》车万翔郭江崔一鸣 著哈工大SCIR多位学者倾力奉献揭秘自然语言处理中预训练语言模型的“魔力”之源详解预训练语言模型的基础知识、模型设计、代码实现和前沿进展本书在介绍自然语言处理、深度学习等基本概念的基础上重点介绍新的基于预训练模型的自然语言处理技术。除了理论知识本书还有针对性地结合具体案例提供相应的PyTorch 代码实现不仅能让读者对理论有更深刻的理解还能快速地实现自然语言处理模型达到理论和实践的统一。京东满100减50快快扫码抢购吧▼点击阅读原文查看本书详情~福利时间好书值得分享这次我们有5本相送哦~ 各位小可爱可通过以下两种方式参与方式一本文『评论点赞』前3名方式二『最走心评论』幸运儿2名注意活动截止时间为【8月16日(周一) 18点整】哦~后台回复关键词【入群】加入卖萌屋NLP/IR/Rec与求职讨论群后台回复关键词【顶会】获取ACL、CIKM等各大顶会论文集
http://www.pierceye.com/news/23659/

相关文章:

  • 企业黄页网站源码做外国的网站卖东西
  • 网站建设设计制作培训代做毕业设计网站有哪些
  • 做楼盘网站小说网站需求分析
  • 400元做网站送网推怎样制作印章
  • 合肥市做效果图的网站渗透网站做seo
  • 风景名胜区建设部网站为什么网页在线视频会卡
  • 移动端网站怎么做外链手机制作价格表的软件
  • 网站优化就是搜索引擎优化wordpress修改背景
  • 最简单的网站开发工具线上平面设计兼职
  • seo网站外链专发服务企业是什么
  • 东营专业网站建设南昌公司做网站
  • 可信赖的扬中网站建设沂水网站优化
  • 天宁区建设局网站制作网页要钱
  • 迎访问中国建设银行网站_西安网站seo推广厂家
  • 做网站如何与美工配合个人网站制作体会
  • 常州企业做网站北京网讯百度科技有限公司
  • 运城建设厅官方网站手机制作购物网站
  • 北京网站建设技术部在线玩的网页小游戏
  • 做行程的网站推荐如何制作完整网页
  • 企业网站备案价格wordpress导航菜单加图片
  • 公司建设网站的目的杭州比较有名的设计院
  • 电子商务软件网站建设的核心如何做网络推广赚钱
  • 为什么要加强网站安全建设3万网站建设费会计分录
  • 手机能建网站不网站备案找谁
  • 永州做网站新公司网上核名入口
  • 海外推广工作内容政和网站建设wzjseo
  • 河北网站建设费用电子商务系统的组成
  • 新乡电子商务网站建设济南口碑最好的装修公司
  • 做网站以后的趋势太原免费网站建站模板
  • 云浮网站网站建设网站建设服务器在国外如何打击