机器翻译(一):BLEU(bilingual evaluation understudy)
来源:互联网 发布:js判断不等于0 编辑:程序博客网 时间:2024/06/06 14:20
简介
BLEU1(bilingual evaluation understudy)最早由IBM提出,用来评价翻译质量,该评价指标重点关注
相同文本下,机器与人翻译结果的近似程度
即机器译文与参考译文的相似程度。
算法
根据第一部分的介绍可知,BLEU可以评价机器译文与参考译文的相似度,但它是如何实现的呢?一种简单粗暴的方法是:统计同时出现在机器译文和参考译文中的词的个数,最后把匹配词的数目除以机器译文的单词数目,便是相似度。这种方法可以用如下公式表示:
其中
根据公式
此时相似度无法反应真实的翻译效果。显然,
其中
根据上述定义,
现实情况中,使用单个词衡量相似度效果往往不好,而n-gram能够有效改善上述问题。因此,对于整个测试语料,n-gram相似度的计算公式如下
得到上述结果后,可以使用“几何平均值”来衡量整个机器译文的质量,BLEU正是这么计算的。另外,由于上述n-gram相似度倾向于给短文本很高的分数(在上述例子中,若机器译文的结果是”the cat”,上述n-gram相似度是
其中
- BLEU: a Method for Automatic Evaluation of Machine Translation ↩
- 机器翻译(一):BLEU(bilingual evaluation understudy)
- 机器翻译的评价标准BLEU(Evaluation criteria for machine translation)
- 机器翻译评价指标之BLEU
- 实现全文机器翻译(一)
- 机器翻译自动评测方法BLEU值方法
- 【NLP】机器翻译常用评价标准 (BLEU & METEOR)
- 【NLP】机器翻译常用评价标准 (BLEU & METEOR)
- BLEU : 一种机器翻译自动评价方法
- 机器翻译自动评估-BLEU算法详解
- BLEU算法——机器翻译自动评估
- 一种机器翻译的评价准则——Bleu
- BLEU: a Method for Automatic Evaluation of Machine Translation
- 1102: 机器翻译(translate)
- 1102: 机器翻译(translate)
- 机器翻译(待续)
- noip2010 机器翻译 (模拟)
- 机器翻译 (NOIP2010)复赛 提高组 试题一 解题代码
- USCOJ 1102 机器翻译(translate)
- nextLine和next的区别
- make切换到另一目录并执行另一目录makefile
- 【QT】获取时间戳
- TCP/IP协议简介
- deeplearning_LogisticRegressionwithaNeuralNetworkmindset
- 机器翻译(一):BLEU(bilingual evaluation understudy)
- socket
- 表单设计案例——学生入校注册页面设计
- 问题:2006年培养学员八万人,每年增长25%,请问按此增长速度,到哪一年培训学员人数达到20万人?
- Spring源码分析:多个bean同时满足注入条件时,spring的选择
- deeplearning_Planardataclassificationwithonehiddenlayer
- Qemu for windows 使用实例
- 决策树
- 操作系统_信号量