英文原著词汇数量测量

来源:互联网 发布:知乎版权 编辑:程序博客网 时间:2024/04/28 22:34
从透析英语博客看到,五爷用“首万词不重复词数”来描述某本书的难易度。
错矣!
这是犯了以偏概全的统计错误。

试想,一个作者,她在前10000词中所用的不重复词数,跟剩下的篇幅相比,其比例是相同的么?
答案是:不一定。

举个例子,比如某本书, 前10000词是楔子,作者用词比较浅显,而写到后面渐入佳境时,
作者开始用高级词汇了,甚至用偏僻词汇。那么,用“首万词不重复词数”能测量出该书的难度吗?
显然不能.

文中说:
《圣经》果然是最简洁之书,但篇幅最长,内容很枯燥(对于异教徒而言);丹布朗的《达芬奇密码》用词极多,但内容超级有趣(同样是讲耶稣,好看100倍)——五爷认为后者容易得多,因此词汇多少仅供参考。

奇怪了,Bible怎么简洁了? 难道是看到它的“首万词不重复词数”为1111? 别忘了,
它的总不重复词数是13511! 没有15000词汇打底,能读得懂圣经?充其量能读懂Bible的前面10000词。

内容超级有趣这个倒是不错, 对有兴趣的书,看书效率比枯燥的书超过不止100倍。

所以,应该用“全部不重复词数”来测量。

以后本人透析的书籍都按这个标准来循序渐进。
0 0
原创粉丝点击