NLP笔记(一)

来源:互联网 发布:abb仿真软件track 编辑:程序博客网 时间:2024/06/09 23:59

来源:Cousera哥大自然语言处理课程

一阶马尔科夫过程

P(X1=x1,X2=x2,...,Xn=xn)=P(X1=x1)i=2nP(Xi|X1,X2,...,Xi1)=P(X1=x1)i=2nP(Xi|Xi1)

二阶马尔科夫过程

P(X1=x1,X2=x2,...,Xn=xn)=P(X1=x1)P(X2=x2|X1=x1)i=3nP(Xi|Xi2=xi2,Xi1=xi1)=i=1nP(Xi|Xi2=xi2,Xi1=xi1)

X1=X0=,表示开始标志


三元语言模型

example

The Trigram Estimation Problem

混淆度(Perplexity)

Perplexity

这里写图片描述

Perplexity is a measure of effective “branching factor”

偏差&方差权衡

Why

这里写图片描述

  • Unigram & Bigram converge quickly to its true underlying value.
  • Trigram has low bias, but need large datasets to get an accurate estimate to avoid “ZERO”.

Linear Interpolation

这里写图片描述

Estimate The λ Values

这里写图片描述

0 0