Loss Function 整理

来源:互联网 发布:网吧服务器优化 编辑:程序博客网 时间:2024/05/18 00:11

usepackage{txfonts}

机器学习常用Loss Function 整理

1. Squared Loss – Linear Regression

J(θ)=12mi=1m(hθ(x(i))y(i))2

2. 绝对值损失

J(θ)=12mi=1m|hθ(x(i))y(i)|

3. log loss/cross entropy

J(θ)=1m[i=1m(y(i)loghθ(x(i))+(1y(i))log(1hθ(x(i))))]

4. Softmax loss function

J(θ)=1mi=1mj=1k1{y(i)=j} logeθTjx(i)kl=1eθTlx(i)=1mi=1mj=1k1{y(i)=j}log p(y(i)=j|x(i);θ)

如果将下式中的kj=1替换成1j=0,即可得到 log loss

5. Hinge loss – SVM

二类分类问题:

J(w⃗ )=[1mi=1mmax(0,1y(i)(w⃗ x(i)+b))]+λw⃗ 2

或者可以写成:
J(w⃗ )=1mi=1mζ(i)+λw⃗ 2    (1)subject to y(i)((w⃗ x(i)+b)1ζ(i) and ζ(i)0, for all i

多类分类问题

J(w)=1mi=1mjy(i)max(0,1+wTjx(i)wTy(i)x(i))+λw2

或者可以写成:
J(w)=1mi=1mζ(i)+λw2    (2)subject to    (i)((wTy(i)x(i)wTjx(i))ejiζ(i) i=1,...,m, j=1,...,k, y(i){1,...,k}

where
eji={01if y(i)=jif y(i)j

6. L2 Hinge loss – SVM

将式(1), (2)改写成

J(w⃗ )=1mi=1mζ(i)2+λw⃗ 2subject to y(i)((w⃗ x(i)+b)1ζ(i) and ζ(i)0, for all i

以及
J(w)=1mi=1mζ(i)2+λw2subject to    (i)((wTy(i)x(i)wTjx(i))ejiζ(i) i=1,...,m, j=1,...,k, y(i){1,...,k}

7. Exponential loss – Boosting

J(θ)=i=1mey(i)hθ(x(i))+λθ

8. K-L Divergence – Generative Model

离散:

KL(pq)=xp(x)logp(x)(q(x))

连续:
KL(pq)=p(x)logp(x)(q(x))dx

原创粉丝点击