【Python&NLP】一些没什么用处的经验,结巴分词的安装心路历程

来源:互联网 发布:centos改为中文 编辑:程序博客网 时间:2024/05/16 06:54

由于我主要需要做的是中文的自然语言处理,所以必须安装一个中文的分词包,师姐的推荐下,我选择了结巴分词。

不过这个结巴分词……折磨了我一整天。

也不知道我是怎么安装的,import jieba是没有问题的,但是写程序的时候就总是报错。

UnicodeDecodeError: ‘ascii’ codec can’t decode byte 0xe5 in position 108: ordinal not in range(128)

这错都给我报出心理阴影了。

我在网上搜索了各种各样的办法,什么在前面加语句,什么修改py文件,注释掉这个,删除掉那个的。

全都治标不治本。

我搜索来搜索去,有一个老哥跟我情况是一样的。他在csdn上提了问题,下面几个人胡乱答了答,就没有后文了。

这样看来似乎陷入江局了。。。

-1s

我只好破釜沉舟,把Python整个删了。

重新安了一遍,这次我先安装了jieba,竟然成功了!!!



所以我要说的是。

安装出了问题,当网上所有教程都帮不了你的时候,想想看,那些看起来高大上的解决办法是不是根本就是在逗你呢?

重新安一遍,搞不好才是最好的解决办法。


0 0
原创粉丝点击