【Natural Language Processing】基于CRF++的中文分词

来源:互联网 发布:c语言continue在if中 编辑:程序博客网 时间:2024/05/29 12:52

一、任务简介

        中文分词是中文信息处理领域中的最重要的任务,它对于智能信息处理技术具有重要的意义,当前的各种汉语分词技术都可以取得不错的结果。

本任务做的是繁体中文分词,将训练语料的30%作为验证集,70%作为训练集,按通常的 P/R/F 三个指标进行评测,最后用全部训练数据进行训练,用给出的测试数据进行测试,并将结果提交。本次任务使用条件随机场模型(CRF)进行实验。

2  实验环境

名称                          

详细信息

操作系统

Macos x 10.12.5 64位

CPU

2.2GHz*4

内存

16G

Python

2.7

CRF++

0.58

 

三、数据处理

        因为本次任务所给原数据文件的编码是utf-16, CRF++能处理该类型的格式,所以要先把数据格式转成CRF++能处理的utf-8编码文件,否则出现异常不会生成模型,我们采用4-tag( B(Begin,词首), E(End,词尾), M(Middle,词中), S(Single,单字词))标记集,处理文本。本次任务把原训练数据划分成3:7,其中30%作为测试集,70%作为训练集,在划分数据集上采用了两种方法:

①选取前70%作为训练集,剩下作为验证集;

②随机选取70%作为训练集,余下为测试集。

对应代码:process.py

# -*- coding: UTF-8 -*-import codecsimport randomimport numpy as npimport sysreload(sys)sys.setdefaultencoding('utf8')# 训练集7,3分,用于训练和测试def divide(input_file, train, dev):    input_data = codecs.open(input_file, 'r', 'utf-16')    fw_train =  codecs.open(train, 'w', 'utf-16')    fw_dev = codecs.open(dev, 'w', 'utf-16')    data = input_data.readlines()    train_len = int(len(data) * 0.7 )    for i in range(train_len):        fw_train.write(data[i])    for i in range(train_len,len(data)):        fw_dev.write(data[i])    input_data.close()    fw_train.close()    fw_dev.close()# 随机将训练集7,3分,用于训练和测试def train_dev_split(input_file, train, dev):    input_data = codecs.open(input_file, 'r', 'utf-16')    data = input_data.readlines()    print len(data)    fw_train = codecs.open(train, 'w', 'utf-16')    fw_dev = codecs.open(dev, 'w', 'utf-16')    shuffle_indices = np.random.permutation(np.arange(len(data)))    train_lst = shuffle_indices[0:0.7*len(data)]    test_lst = shuffle_indices[0.7*len(data):]    for i in train_lst:        if len(data[i].strip())==0:            continue        fw_train.write(data[i])    for j in test_lst:        if len(data[j].strip()) == 0:            continue        fw_dev.write(data[j])    input_data.close()    fw_train.close()    fw_dev.close()def trans_dev(devseg, dev):    fr = codecs.open(devseg, 'r', 'utf-16')    fw_dev = codecs.open(dev, 'w', 'utf-16')    for line in fr.readlines():        line = line.replace('  ', '')        fw_dev.write(line)    fr.close()    fw_dev.close()if __name__ == '__main__':    train_dev_split('../CRF_Seg/data/Train_utf16.seg', '../CRF_Seg/data/train.seg', '../CRF_Seg/data/dev.seg')    trans_dev('../CRF_Seg/data/dev.seg', '../CRF_Seg/data/devs.seg')

四、使用模板

# UnigramU00:%x[-2,0]U01:%x[-1,0]U02:%x[0,0]U03:%x[1,0]U04:%x[2,0]U05:%x[-2,0]/%x[-1,0]/%x[0,0]U06:%x[-1,0]/%x[0,0]/%x[1,0]U07:%x[0,0]/%x[1,0]/%x[2,0]U08:%x[-1,0]/%x[0,0]U09:%x[0,0]/%x[1,0]# BigramB

五、训练和测试

        经过前面的数据处理部分得到的验证阶段的训练集,就可以利用crf的训练工具crf_learn来训练模型,然后用得到的模型对验证集进行分词,最后进行评测。

同样地,使用该方法对任务给出的全部训练集训练数据,然后使用训练得到的模型对测试集进行分词。

        对应代码:make_train.py; make_test.py;evaluate.py

①make_train.py

#-*-coding:utf-8-*-#4-tags for character tagging: B(Begin),E(End),M(Middle),S(Single)import codecsimport sysdef character_tagging(input_file, output_file):input_data = codecs.open(input_file, 'r', 'utf-16')output_data = codecs.open(output_file, 'w', 'utf-8')for line in input_data.readlines():word_list = line.strip().split()for word in word_list:if len(word) == 1:output_data.write(word + "\tS\n")else:output_data.write(word[0] + "\tB\n")for w in word[1:len(word)-1]:output_data.write(w + "\tM\n")output_data.write(word[len(word)-1] + "\tE\n")output_data.write("\n")input_data.close()output_data.close()if __name__ == '__main__':# input_file = '../CRF_Seg/data/train.seg'# output_file = '../CRF_Seg/data/train.data'# character_tagging(input_file, output_file)input_file = '../CRF_Seg/data/Train_utf16.seg'output_file = '../CRF_Seg/data/All_train.data'character_tagging(input_file, output_file)
②make_test.py

#-*-coding:utf-8-*-#CRF Segmenter based character tagging:# 4-tags for character tagging: B(Begin), E(End), M(Middle), S(Single)import codecsimport sysimport CRFPPdef crf_segmenter(input_file, output_file, tagger):    input_data = codecs.open(input_file, 'r', 'utf-16')    output_data = codecs.open(output_file, 'w', 'utf-16')    for line in input_data.readlines():        tagger.clear()        for word in line.strip():            word = word.strip()            if word:                tagger.add((word + "\to\tB").encode('utf-8'))        tagger.parse()        size = tagger.size()        xsize = tagger.xsize()        for i in range(0, size):            for j in range(0, xsize):                char = tagger.x(i, j).decode('utf-8')                tag = tagger.y2(i)                if tag == 'B':                    output_data.write(' ' + char)                elif tag == 'M':                    output_data.write(char)                elif tag == 'E':                    output_data.write(char + ' ')                else:                    output_data.write(' ' + char + ' ')        output_data.write('\n')    input_data.close()    output_data.close()if __name__ == '__main__':    crf_model = '/Users/lhy/Documents/CS_work/python/CRF_Seg/data/crf_model'    input_file = '/Users/lhy/Documents/CS_work/python/CRF_Seg/data/devs.seg'    output_file = '/Users/lhy/Documents/CS_work/python/CRF_Seg/data/devCRF.seg'    tagger = CRFPP.Tagger("-m " + crf_model)    crf_segmenter(input_file, output_file, tagger)    # crf_model = '/Users/lhy/Documents/CS_work/python/CRF_Seg/data/crf_model'    # input_file = '/Users/lhy/Documents/CS_work/python/CRF_Seg/data/Test_utf16.seg'    # output_file = '/Users/lhy/Documents/CS_work/python/CRF_Seg/data/test.seg'    # tagger = CRFPP.Tagger("-m " + crf_model)    # crf_segmenter(input_file, output_file, tagger)
③evaluate.py
# -*- coding: utf-8 -*-import codecsimport sysdef loadResults(FileName) :    ret = []    lines = codecs.open(FileName, encoding='utf-16-le')    for iters, line in enumerate(lines) :        line = line.strip()        chr_t= line.split(' ')        ret.append(chr_t)    return retdef evaluate(predictedFile, goldenFile) :    result_pre = loadResults(predictedFile)    result_gld = loadResults(goldenFile)    assert len(result_pre) == len(result_gld)    # print([len(result_pre), len(result_gld)])    TPs   = 0.    TPFPs = 0.    TPFNs = 0.    for i in range(len(result_pre)) :        pre_i, gld_i = result_pre[i], result_gld[i]        TPs   += len([word for word in gld_i if word in pre_i])        TPFPs += len(pre_i)        TPFNs += len(gld_i)    harmonic_mean = lambda x, y : 2 / (1 / x + 1 / y)    precisions = 100.*TPs / TPFPs if not TPs == 0 else 0    recalls= 100.*TPs / TPFNs if not TPs == 0 else 0    f1_ss= harmonic_mean(precisions, recalls) if not precisions* recalls == 0 else 0    print('\tprecision: %.2f  recall: %.2f  f1_score: %.2f'%(precisions, recalls, f1_ss))if __name__ == '__main__':    pre='../CRF_Seg/data/dev.seg'    gold='../CRF_Seg/data/devCRF.seg'    evaluate(pre,gold)

六、结果与分析

 

P(准确率)

R(召回率)

F值

按顺序7:3划分

96.58%

96.53%

96.56%

随机划分数据集

97.18%

97.27%

97.22%

        从验证集的结果来看,无论是从准确率或者是召回率上分词的效果还不错;同时可以发现按照不同的数据划分方式,结果表现出一定的差别,随机划分的方式结果要好于按照顺序划分数据集的方式,经过分析,应该是由于附近的句子存在相近或者相同的可能性更大,,那么测试集和验证集的分布更为相似,最后会导致结果偏高,但在实际中,训练集和测试集的分布可能相差比较大,所以我们在这个实验中,我们应该选择按顺序划分数据集的方法更为合理,同时结果也以按顺序划分为准。

        由于之前没有做过中文分词方面的工作,所以本次大作业我自己尝试写了一个一阶隐马尔科夫模型进行分词,但是效果并不好,主要是比较简单,如果尝试二阶或者三阶隐马尔科夫模型效果可能会有一定的提升,后面我查询许多信息发现都是用CRF来做的,并且效果不错,并且有CRF++这个现成的工具可用,所以最后我选择了CRF。

 

原创粉丝点击