【Natural Language Processing】基于CRF++的中文分词
来源:互联网 发布:c语言continue在if中 编辑:程序博客网 时间:2024/05/29 12:52
一、任务简介
中文分词是中文信息处理领域中的最重要的任务,它对于智能信息处理技术具有重要的意义,当前的各种汉语分词技术都可以取得不错的结果。
本任务做的是繁体中文分词,将训练语料的30%作为验证集,70%作为训练集,按通常的 P/R/F 三个指标进行评测,最后用全部训练数据进行训练,用给出的测试数据进行测试,并将结果提交。本次任务使用条件随机场模型(CRF)进行实验。
2 实验环境
名称
详细信息
操作系统
Macos x 10.12.5 64位
CPU
2.2GHz*4
内存
16G
Python
2.7
CRF++
0.58
三、数据处理
因为本次任务所给原数据文件的编码是utf-16, CRF++能处理该类型的格式,所以要先把数据格式转成CRF++能处理的utf-8编码文件,否则出现异常不会生成模型,我们采用4-tag( B(Begin,词首), E(End,词尾), M(Middle,词中), S(Single,单字词))标记集,处理文本。本次任务把原训练数据划分成3:7,其中30%作为测试集,70%作为训练集,在划分数据集上采用了两种方法:
①选取前70%作为训练集,剩下作为验证集;
②随机选取70%作为训练集,余下为测试集。
对应代码:process.py
# -*- coding: UTF-8 -*-import codecsimport randomimport numpy as npimport sysreload(sys)sys.setdefaultencoding('utf8')# 训练集7,3分,用于训练和测试def divide(input_file, train, dev): input_data = codecs.open(input_file, 'r', 'utf-16') fw_train = codecs.open(train, 'w', 'utf-16') fw_dev = codecs.open(dev, 'w', 'utf-16') data = input_data.readlines() train_len = int(len(data) * 0.7 ) for i in range(train_len): fw_train.write(data[i]) for i in range(train_len,len(data)): fw_dev.write(data[i]) input_data.close() fw_train.close() fw_dev.close()# 随机将训练集7,3分,用于训练和测试def train_dev_split(input_file, train, dev): input_data = codecs.open(input_file, 'r', 'utf-16') data = input_data.readlines() print len(data) fw_train = codecs.open(train, 'w', 'utf-16') fw_dev = codecs.open(dev, 'w', 'utf-16') shuffle_indices = np.random.permutation(np.arange(len(data))) train_lst = shuffle_indices[0:0.7*len(data)] test_lst = shuffle_indices[0.7*len(data):] for i in train_lst: if len(data[i].strip())==0: continue fw_train.write(data[i]) for j in test_lst: if len(data[j].strip()) == 0: continue fw_dev.write(data[j]) input_data.close() fw_train.close() fw_dev.close()def trans_dev(devseg, dev): fr = codecs.open(devseg, 'r', 'utf-16') fw_dev = codecs.open(dev, 'w', 'utf-16') for line in fr.readlines(): line = line.replace(' ', '') fw_dev.write(line) fr.close() fw_dev.close()if __name__ == '__main__': train_dev_split('../CRF_Seg/data/Train_utf16.seg', '../CRF_Seg/data/train.seg', '../CRF_Seg/data/dev.seg') trans_dev('../CRF_Seg/data/dev.seg', '../CRF_Seg/data/devs.seg')
四、使用模板
# UnigramU00:%x[-2,0]U01:%x[-1,0]U02:%x[0,0]U03:%x[1,0]U04:%x[2,0]U05:%x[-2,0]/%x[-1,0]/%x[0,0]U06:%x[-1,0]/%x[0,0]/%x[1,0]U07:%x[0,0]/%x[1,0]/%x[2,0]U08:%x[-1,0]/%x[0,0]U09:%x[0,0]/%x[1,0]# BigramB
五、训练和测试
经过前面的数据处理部分得到的验证阶段的训练集,就可以利用crf的训练工具crf_learn来训练模型,然后用得到的模型对验证集进行分词,最后进行评测。
同样地,使用该方法对任务给出的全部训练集训练数据,然后使用训练得到的模型对测试集进行分词。
对应代码:make_train.py; make_test.py;evaluate.py
①make_train.py
#-*-coding:utf-8-*-#4-tags for character tagging: B(Begin),E(End),M(Middle),S(Single)import codecsimport sysdef character_tagging(input_file, output_file):input_data = codecs.open(input_file, 'r', 'utf-16')output_data = codecs.open(output_file, 'w', 'utf-8')for line in input_data.readlines():word_list = line.strip().split()for word in word_list:if len(word) == 1:output_data.write(word + "\tS\n")else:output_data.write(word[0] + "\tB\n")for w in word[1:len(word)-1]:output_data.write(w + "\tM\n")output_data.write(word[len(word)-1] + "\tE\n")output_data.write("\n")input_data.close()output_data.close()if __name__ == '__main__':# input_file = '../CRF_Seg/data/train.seg'# output_file = '../CRF_Seg/data/train.data'# character_tagging(input_file, output_file)input_file = '../CRF_Seg/data/Train_utf16.seg'output_file = '../CRF_Seg/data/All_train.data'character_tagging(input_file, output_file)②make_test.py
#-*-coding:utf-8-*-#CRF Segmenter based character tagging:# 4-tags for character tagging: B(Begin), E(End), M(Middle), S(Single)import codecsimport sysimport CRFPPdef crf_segmenter(input_file, output_file, tagger): input_data = codecs.open(input_file, 'r', 'utf-16') output_data = codecs.open(output_file, 'w', 'utf-16') for line in input_data.readlines(): tagger.clear() for word in line.strip(): word = word.strip() if word: tagger.add((word + "\to\tB").encode('utf-8')) tagger.parse() size = tagger.size() xsize = tagger.xsize() for i in range(0, size): for j in range(0, xsize): char = tagger.x(i, j).decode('utf-8') tag = tagger.y2(i) if tag == 'B': output_data.write(' ' + char) elif tag == 'M': output_data.write(char) elif tag == 'E': output_data.write(char + ' ') else: output_data.write(' ' + char + ' ') output_data.write('\n') input_data.close() output_data.close()if __name__ == '__main__': crf_model = '/Users/lhy/Documents/CS_work/python/CRF_Seg/data/crf_model' input_file = '/Users/lhy/Documents/CS_work/python/CRF_Seg/data/devs.seg' output_file = '/Users/lhy/Documents/CS_work/python/CRF_Seg/data/devCRF.seg' tagger = CRFPP.Tagger("-m " + crf_model) crf_segmenter(input_file, output_file, tagger) # crf_model = '/Users/lhy/Documents/CS_work/python/CRF_Seg/data/crf_model' # input_file = '/Users/lhy/Documents/CS_work/python/CRF_Seg/data/Test_utf16.seg' # output_file = '/Users/lhy/Documents/CS_work/python/CRF_Seg/data/test.seg' # tagger = CRFPP.Tagger("-m " + crf_model) # crf_segmenter(input_file, output_file, tagger)③evaluate.py
# -*- coding: utf-8 -*-import codecsimport sysdef loadResults(FileName) : ret = [] lines = codecs.open(FileName, encoding='utf-16-le') for iters, line in enumerate(lines) : line = line.strip() chr_t= line.split(' ') ret.append(chr_t) return retdef evaluate(predictedFile, goldenFile) : result_pre = loadResults(predictedFile) result_gld = loadResults(goldenFile) assert len(result_pre) == len(result_gld) # print([len(result_pre), len(result_gld)]) TPs = 0. TPFPs = 0. TPFNs = 0. for i in range(len(result_pre)) : pre_i, gld_i = result_pre[i], result_gld[i] TPs += len([word for word in gld_i if word in pre_i]) TPFPs += len(pre_i) TPFNs += len(gld_i) harmonic_mean = lambda x, y : 2 / (1 / x + 1 / y) precisions = 100.*TPs / TPFPs if not TPs == 0 else 0 recalls= 100.*TPs / TPFNs if not TPs == 0 else 0 f1_ss= harmonic_mean(precisions, recalls) if not precisions* recalls == 0 else 0 print('\tprecision: %.2f recall: %.2f f1_score: %.2f'%(precisions, recalls, f1_ss))if __name__ == '__main__': pre='../CRF_Seg/data/dev.seg' gold='../CRF_Seg/data/devCRF.seg' evaluate(pre,gold)
六、结果与分析
P(准确率)
R(召回率)
F值
按顺序7:3划分
96.58%
96.53%
96.56%
随机划分数据集
97.18%
97.27%
97.22%
从验证集的结果来看,无论是从准确率或者是召回率上分词的效果还不错;同时可以发现按照不同的数据划分方式,结果表现出一定的差别,随机划分的方式结果要好于按照顺序划分数据集的方式,经过分析,应该是由于附近的句子存在相近或者相同的可能性更大,,那么测试集和验证集的分布更为相似,最后会导致结果偏高,但在实际中,训练集和测试集的分布可能相差比较大,所以我们在这个实验中,我们应该选择按顺序划分数据集的方法更为合理,同时结果也以按顺序划分为准。
由于之前没有做过中文分词方面的工作,所以本次大作业我自己尝试写了一个一阶隐马尔科夫模型进行分词,但是效果并不好,主要是比较简单,如果尝试二阶或者三阶隐马尔科夫模型效果可能会有一定的提升,后面我查询许多信息发现都是用CRF来做的,并且效果不错,并且有CRF++这个现成的工具可用,所以最后我选择了CRF。
- 【Natural Language Processing】基于CRF++的中文分词
- 基于CRF的中文分词
- 基于CRF的中文分词
- 基于CRF的中文分词
- 基于CRF的中文分词
- 基于CRF的中文分词
- 基于CRF的中文分词
- 基于CRF的中文分词
- 基于CRF的中文分词(ZT)
- NLP:Natural Language Processing
- Natural Language Processing Knowledge
- Natural Language Processing
- CRF++的使用 CRF用于中文分词
- Natural Language Processing On Coursera
- 20+ Natural Language Processing APIs
- Natural Language Processing (nlp) 路线图
- 基于CRF++0.54搭建中文分词系统
- 《Natural Language Processing with Python》6.2节的一些错误
- 静态链接、动态链接、静态重定位、动态重定位
- 往JScrollPane中添加组件时滚动条不出现的解决方法
- mysqld_multi配置多实例
- C++面试题之二叉树
- 漫步最优化十一——局部极小与极大的充分必要条件(上)
- 【Natural Language Processing】基于CRF++的中文分词
- 三种帧的说明
- 移动开发----自定义样式 Dialog
- 广播
- git疑惑
- c++学习-为什么要用迭代器
- 判断函数是否有界?
- 计算机中浮点数的存储方式
- Qt(C++)项目中使用 Basler 工业相机(图像获取策略)