机器学习常用数学公式
来源:互联网 发布:手机淘宝开店怎么注册 编辑:程序博客网 时间:2024/05/29 08:31
reconstruction error
重构误差可通过多种方式进行度量,度量方式的选择取决于给定映射(也即编码code)下关于输入的分布的假设。
传统的平方误差:
L(x,z)=∥x−z∥2 cross-entropy
LH(x,z)=−∑k=1dxklog(zk)+(1−xk)log(1−zk)
常见向量导数
对于一个
对于一个
所以有:
范数求导
线性回归(linear regression)的损失函数(loss function):
其中
从形式上看,对二范数的平方(一个标量)求导得一个向量。最优权值向量
其实范数的本质是一个函数,也即是一种矢量向标量的映射,例如,我们可以将其看做
按位运算,值到值映射的求导
给定一个函数
为简单起见,我们定义
如果将
比如RNN网络,
softmax
这里
对应的代码形式为:
self.p_y_given_x = T.nnet.softmax(T.dot(self.input, self.W)+self.b) # self.p_y_given_x:当前输入x下的x属于各个类别的概率 # self.input => (n*n_in) # self.W => (n_in*n_out) # self.b => (n_out) # 所以当做完矩阵乘法的动作,然后进行相加时((n*n_out)+(n_out,)) # 会对self.b进行broadcast,也即在列的方向上,拷贝拓展n份,构成一个(n*n_out)的矩阵,然后进行的相加self.p_pred = T.argmax(self.p_y_given_x, axis=1)
对数似然函数
X.shape[0](numpy)
)。
上式表示多分类问题的对数似然函数。下式是作为损失函数(loss function)的似然函数(negative log likelihood)。
反映在代码中,其实十分简洁:
def loss_function(self, y): return -T.mean(T.log(self.p_y_given_x)[T.arange(y.shape[0]), y])
在取和式的同时顺便又一个取均值的动作。
sigmoid
sigmoid系(Logistic-Sigmoid、Tanh-Sigmoid)被视为神经网络的核心所在:
值域分别是
它们各自的导数分别为:
值域分别是:
源代码请见sigmoid_tanh_prime
softmax
数学上,输入向量
与之相对应的模型进行类别的预测时:
多元高斯密度函数(Multivariate Gaussian Density)
where
- 机器学习常用数学公式
- 机器学习常用数学公式
- 机器学习常用数学公式
- 机器学习常用数学公式
- 『机器学习』机器学习中涉及到的数学公式
- 常用数学公式
- 常用数学公式
- 常用数学公式
- 常用统计数学公式学习(1)方差与期望值
- 机器学习常用算法
- 机器学习常用资源
- 机器学习常用数据库
- 机器学习常用数据库
- 机器学习常用算法
- 机器学习常用算法
- 机器学习常用算法
- 常用机器学习算法
- 机器学习常用算法
- Android第三方开源NiftyNotification(Android Toast替代品):动画效果生动有趣的通知
- hibernate入门
- ZOJ More Divisors 2562 (反素数)
- Notepad++ 快捷键 大全
- scons 编译
- 机器学习常用数学公式
- 关于移动端css用rem单位的情况
- hdoj StrangeStandard 4133 (反素数)
- 点滴 PUSH-PULL AND OPEN DRAIN+PULL-UP/DOWN
- 微信sharesdk
- 南大软院大神养成计划第十八天
- Computer English
- 打架
- leetcode Super Ugly Number