投稿指南
来稿应自觉遵守国家有关著作权法律法规,不得侵犯他人版权或其他权利,如果出现问题作者文责自负,而且本刊将依法追究侵权行为给本刊造成的损失责任。本刊对录用稿有修改、删节权。经本刊通知进行修改的稿件或被采用的稿件,作者必须保证本刊的独立发表权。 一、投稿方式: 1、 请从 我刊官网 直接投稿 。 2、 请 从我编辑部编辑的推广链接进入我刊投审稿系统进行投稿。 二、稿件著作权: 1、 投稿人保证其向我刊所投之作品是其本人或与他人合作创作之成果,或对所投作品拥有合法的著作权,无第三人对其作品提出可成立之权利主张。 2、 投稿人保证向我刊所投之稿件,尚未在任何媒体上发表。 3、 投稿人保证其作品不含有违反宪法、法律及损害社会公共利益之内容。 4、 投稿人向我刊所投之作品不得同时向第三方投送,即不允许一稿多投。 5、 投稿人授予我刊享有作品专有使用权的方式包括但不限于:通过网络向公众传播、复制、摘编、表演、播放、展览、发行、摄制电影、电视、录像制品、录制录音制品、制作数字化制品、改编、翻译、注释、编辑,以及出版、许可其他媒体、网站及单位转载、摘编、播放、录制、翻译、注释、编辑、改编、摄制。 6、 第5条所述之网络是指通过我刊官网。 7、 投稿人委托我刊声明,未经我方许可,任何网站、媒体、组织不得转载、摘编其作品。

基于隐马尔科夫模型的古汉语词性标注(3)

来源:古汉语研究 【在线投稿】 栏目:期刊导读 时间:2021-01-28
作者:网站采编
关键词:
摘要:还可从图3看出,对未登录词的标注,bigrams和trigrams的初始准确率分别为65.0%和60.8%。随着语料库的扩大,最终的准确率分别为85.1%和93.2%。trigram模型中对未

还可从图3看出,对未登录词的标注,bigrams和trigrams的初始准确率分别为65.0%和60.8%。随着语料库的扩大,最终的准确率分别为85.1%和93.2%。trigram模型中对未登录词标注的高准确率表明,当上下文信息在特定位置具有很强的确定性时,能显著提高未登录词的标注精度。

4 总结

本文提出并分析了一种简单的基于语料库和统计的古汉语词性标注方法。首先为古汉语标注设计了一套标记集,然后将隐马尔可夫模型(HMM)和维特比算法相结合来进行词性标注,同时还提出一种针对汉语中未登录词的预测方法。最后本文构建了一个小型的古汉语语料库,选取了一个典型而简单的文本作为测试集。结果显示,随着训练集的增大,bigrams的准确率提高到94.9%,trigrams的准确率提高到96.5%。

在应用方面,本文工作主要在两个方面发挥作用:古汉语现代机器翻译和古汉语信息检索。对于今后的工作,首先需要解决古汉语的概率上下文无关文法(PCFG)。另外本文中程序使用的语料库较小且不包含注释,为了进一步研究可以先人工搭建一个中型语料库或者使用其他机构提供的语料库。

[1] Brill E. A simple rule-based part-of-speech tagger[C]// Proceeding of the 3rd Conference on Applied Natural Language Processing(ACL). 地点,时间 1992:152-155.

[2] 钱智勇,周建忠,童国平, 等.基于HMM的楚辞自动分词标注研究[J].图书情报工作,2014,58(4):105-110.

[3] Hindle D. Acquiring disambiguation rules from text[C]// Proceedings of 27thAnnual Meeting of the Association for Computational Linguistics, 地点,时间1989:页码.

[4] Viterbi A. Error bounds for convolution codes and an asymptotically optimal decoding algorithm[J]. IEEE Trans. on Information Theory, 1967(13):260-269.

[5] 韩霞,黄德根.基于半监督隐马尔科夫模型的汉语词性标注研究[J].小型微型计算机系统,2015,36(12):2813-2816.

[6] 余昕聪, 李红莲, 吕学强. 最大熵和HMM在中文词性标注中的应用[J]. 无线互联科技, 2014(11):页码?.

杨新生(1993-),男,硕士研究生,研究方向:基于隐马尔科夫模型的古汉语词性标注。

胡立生(1970-),男,博士,教授,研究方向:过程控制、控制性能评估与故障诊断等。

0 引言词性标注是自然语言处理的基础。它为句子中的单词选择最恰当的句法类别序列(词性),并将其输出传递到下一级处理中,通常是语法分析器。在过去的20年里,词性标注的准确率在Penn Treebank[1]等著名英语语料库中得到显著提高。同时中文词性标注的准确率也在显著提高[2]。有许多用于词性标注的机器学习方法,其中最成功的是基于规则和基于统计的方法。典型的基于规则的标注器使用上下文信息为有歧义的单词分配词性标签[3]。一般基于规则的标注器错误率要高于基于统计的标注器,该方法通过一组确定性的规则而不是一个大型统计表进行标注[1]。在基于规则的标注器中可以通过上下文规则作为约束来提高标注准确率。基于统计方法的标注器无需对输入进行任何句法分析就能够获得很高的精确度[2]。基于统计的方法有很多,著名的有隐马尔科夫模型和最大熵模型。隐马尔科夫模型在词性标注中应用最广泛,它起源于维特比算法[4]。在该模型中,通常利用人工标注的语料库进行训练,以此获得单词-标记的概率[5]。最大熵模型可以更好地利用上下文信息,这种方法比隐马尔科夫模型具有更高的精确度[6]。隐马尔科夫模型最大的局限性是未登录词的预测问题,以往研究表明对未登录词标注的准确率明显低于已知单词。在英文的词性标注中,可以根据单词后缀进行预测[1],但此方法对中文不适用。现代汉语是没有分隔词的,例如以下短语“研究生命起源”,可以分隔为“研究生/命/起源”,还可以被分隔为“研究/生命/起源”。显然,第一种分词结果是错误的。正确的分词是词性标注的第一步,这使中文的词性标注比其他语言更难。一般来看,古汉语是比现代汉语更难理解的,因为两者所用的语法不同。但从词性标注的角度来看,古汉语要更简单,因为大多数词都是单字形式,不需要分词。关于标点符号,古汉语是没有标点符号的,本文所有输入都通过人工的方式进行处理。国内大多数古汉语文献都已经被手工加过标点,因此本文的方法仍然适用。在未登录词预测方面,欧洲语言中的词性标注大多数利用后缀或未登录词的上下文信息进行预测,但中文没有后缀也没有大小写区分,特别是在古汉语中,一个字就是一个词,所以无法继续拆分。与印欧语系相比,现代汉语和古汉语的处理过程,如图1所示。图1 与印欧语系相比,现代汉语和古汉语的处理过程在计算机中,中文由GB/BIG5编码表示,无法从编码中获取任何包含结构或意义的信息。本文将结合隐马尔科夫模型提出简单有效的方法来解决未登录词的标注问题。1 古汉语的语料库和标记集标记集的设计对标注算法的准确性和效率至关重要,而大部分使用那些著名语料库和配套标记集作为标准测试平台的研究人员都忽视了这一点。此外,古汉语中的歧义要比印欧语系更多,因此本节将着重介绍语料库的构建和标签集的设计 语料库为了评估文中的标注算法和标记集,这里利用一些经典名著,如《论语》、《道德经》等建立了一个小型语料库。该语料库选择文本的标准是:省略专有名词,省略非常生僻的词,省略特殊语法。由于这三个标准对大多数古汉语著作都成立,所以本文的语料库确实反映了典型的古汉语特征。最后得到了大约1 000个词的语料库作为训练集。对于测试集,这三个标准仍然成立。本文从《荀子》中选择一段相对简单的文本作为测试集,长度大约是200个词 标记集标记集的设计存在一个权衡的过程,大小通常为20到400不等。一方面,为了获得较高的自动标注精度,将动词、形容词等基本词汇类别划分为谓语、定语等子类别。这些区分很重要,但它会产生数据稀疏的问题。考虑到本文语料库比较小,这里没有使用过于精确的标记集。汉语语法侧重于词语序列而不是词形信息,因此它比印欧语系等缺乏灵活性的语言更加容易引起歧义。换句话说,对词性标注来说上下文信息比词汇信息更有价值。考虑到这一点,本文设计了一个标记集,它不仅包含词汇类别,而且包含一个词可能所属的句子成分。例如,将形容词分为4个子类别,如形容词作定语等,这种区分是影响标注准确率的一个重要因素,如表1所示。同时注意,此标记集中将标点分为两类,分别为终止性标点和停顿性标点。2 标注算法本文的标注算法基于隐马尔科夫模型实现。设w1,…,wT是一组文字序列,需要找到一组标记序列t1,…,tT,使得概率P最大化,如式(1)所示。Pr(t1,…,tT|w1,…,wT)(1)根据贝叶斯定理,得式(1)等于式(2)。(P(t1,…,tT)·P(w1,…,wT|t1,…,tT))/P(w1,…,wT)(2)由于分母是已经确定的,所以只需要找到使公式最大化的序列t1,…,tT,如式(3)所示。P(t1,…,tT)·P(w1,…,wT|t1,…,tT)(3)表1 古汉语标记集序号标注名称含义0N名词1Aa形容词作定语2Aw形容词作谓语3Az形容词作状语4Ab形容词作表语5Ad副词6Vi不跟宾语的动词7Vt跟宾语的动词8Vy意动9Vs使动10Vb省略宾语的动词11Vx系动词12Vyou动词“有”13Vyue动词“曰”14Conj连词15Yq语气词16Prep带宾语的介词17Prepb省略宾语的介词18Num数词19Qpron疑问代词20Npron名词性代词21Apron形容词性代词22Za“之”作定语后置标志23Zj“者”作名词性结尾24Zd“之”作“的”25Zw“之”作取消主谓独立性标志26Fy发语词27Period终止性标点(。;?!)28Comma停顿性标点(,、:)2.1 隐马尔科夫模型为避免数据稀疏的问题,词性标注器中n-grams通常n<4,本文使用了unigrams,bigrams和trigrams。与传统HMM不同的是,这里将词频表示为单词-标记的概率,而不是标记-单词的概率。这里将unigrams,bigrams和trigrams的概率表示为式(4)—式(7)。(4)(5)(6)(7)上式中,t1,t2,t3是已设定的标记,w是词典中收录的单词。N表示训练集中样本总数。对于bi-grams模型,对下式进行最大化,如式(8)所示。P*=∏P(ti|ti-1)·P(ti|wi)(8)对于tri-grams模型,对下式进行最大化,如式(9)所示。P*=∏P(ti|ti-2,ti-1)·P(ti|wi)(9)2.2 动态规划算法本文的标注算法基于Viterbi算法,本质上是动态规划。为了编程的简单性和标注的准确性,这里在每个句子前添加终止符标点,并假设每个句子都以句号结束。Bigram模型:对于bi-gram模型,动态规划算法如下(伪代码):list [0]=”period” ;for i=1 to lenfor j=0 to tagnum-1best [i] [j]=MAXk=0~tagnum-1(best [i-1] [k]*prob [list [i]] *markov [k] [j] )pre [i] [j]=index of k that gave the max aboveTrigram模型:对于Trigram模型,由于终止性标点后的第一个词前面没有任何词,这种情况下直接使用bigrams的结果。算法如下:list [0]=”period” ;for i=1 to lenif list [i-1] is a punctuation thenuse bigrams results insteadelsefor j=0 to tagnum-1for l=0 to tagnum-1best3 [i] [l] [j]=MAXk=0~tagnum-1(*prob [list [i] [j]] )pre3 [i] [l] [j]=index of k that gave the max above2.3 未登录词处理由于中文没有后缀,欧洲语言使用的基于单词后缀对未登录词标注的方法不适用于现代汉语或古汉语。本文提出对于训练集中没有出现过的词,将其单词-标记概率表示为每个标记的unigrams概率。例如,对于一个未登录词w,如式(10)所示。(10)N为训练集样本数,此方法经实验证明非常有效,特别是在trigram模型中,未登录词的标注准确率得到显著提高。3 结果分析3.1 准确率本文从《荀子》中选择了一段相对简单的文本作为测试集,长度大约为200个词。首先测试了标记集和算法的学习曲线。随着训练集的增大,结果显示如图2所示。图2 Bigram模型和Trigram模型的学习曲线同时还测试了整体的标注准确率,以及针对已知词和未登录词的标注准确率。图2是标注器的学习曲线,可以看出标注准确率取决于训练数据的数量。语料库大小就是训练集的长度。随着语料库的扩大,bigrams的准确率从74.0%上升到94.9%,trigrams的准确率从69.1%上升到96.5%。当语料库较小时,trigrams的准确率低于bigrams,主要是由于数据稀疏问题。最后,当上下文信息更加丰富时,trigrams准确率则高于bigrams,如图3所示。(a) Bigram模型(b) Trigram模型图3 针对已知词和未登录词的学习曲线从图3的学习曲线可以看出对已知词的标注,bigrams和trigrams的初始准确率分别为79.1%和74.7%。结果表明,相比大多数英文词性标注的结果,对于古汉语的标注,已知词的初始标注准确率较低。这主要是因为大多数英语语料库中出现的单词中有一半以上是没有歧义的,但古汉语中歧义较多,因此当古汉语语料库较小时会导致其标注准确率较低。还可从图3看出,对未登录词的标注,bigrams和trigrams的初始准确率分别为65.0%和60.8%。随着语料库的扩大,最终的准确率分别为85.1%和93.2%。trigram模型中对未登录词标注的高准确率表明,当上下文信息在特定位置具有很强的确定性时,能显著提高未登录词的标注精度。4 总结本文提出并分析了一种简单的基于语料库和统计的古汉语词性标注方法。首先为古汉语标注设计了一套标记集,然后将隐马尔可夫模型(HMM)和维特比算法相结合来进行词性标注,同时还提出一种针对汉语中未登录词的预测方法。最后本文构建了一个小型的古汉语语料库,选取了一个典型而简单的文本作为测试集。结果显示,随着训练集的增大,bigrams的准确率提高到94.9%,trigrams的准确率提高到96.5%。在应用方面,本文工作主要在两个方面发挥作用:古汉语现代机器翻译和古汉语信息检索。对于今后的工作,首先需要解决古汉语的概率上下文无关文法(PCFG)。另外本文中程序使用的语料库较小且不包含注释,为了进一步研究可以先人工搭建一个中型语料库或者使用其他机构提供的语料库。参考文献[1] Brill E. A simple rule-based part-of-speech tagger[C]// Proceeding of the 3rd Conference on Applied Natural Language Processing(ACL). 地点,时间 1992:152-155.[2] 钱智勇,周建忠,童国平, 等.基于HMM的楚辞自动分词标注研究[J].图书情报工作,2014,58(4):105-110.[3] Hindle D. Acquiring disambiguation rules from text[C]// Proceedings of 27thAnnual Meeting of the Association for Computational Linguistics, 地点,时间1989:页码.[4] Viterbi A. Error bounds for convolution codes and an asymptotically optimal decoding algorithm[J]. IEEE Trans. on Information Theory, 1967(13):260-269.[5] 韩霞,黄德根.基于半监督隐马尔科夫模型的汉语词性标注研究[J].小型微型计算机系统,2015,36(12):2813-2816.[6] 余昕聪, 李红莲, 吕学强. 最大熵和HMM在中文词性标注中的应用[J]. 无线互联科技, 2014(11):页码?.

文章来源:《古汉语研究》 网址: http://www.ghyyjzzs.cn/qikandaodu/2021/0128/330.html



上一篇:那些催人奋进的『耻』味良药
下一篇:古代汉语常用虚词用法比较研究

古汉语研究投稿 | 古汉语研究编辑部| 古汉语研究版面费 | 古汉语研究论文发表 | 古汉语研究最新目录
Copyright © 2019 《古汉语研究》杂志社 版权所有
投稿电话: 投稿邮箱: