FPGA机器学习之stanford机器学习第三堂2
来源:互联网 发布:php nginx 返回截断 编辑:程序博客网 时间:2024/04/30 12:52
我已经写过一遍了,为了我的分享事业,我在写一次吧。
上一次我写到了,这里加号后面的那个就是错误率。为什么会引入这个,上一篇,我有写清楚。
这里,我们假定它符合高斯分布。为什么是高斯分布,上一篇也写了。
这里引入似然率的概念L(thera)。
进一步往下写。最后代入。
我们要选择最大似然率嘛。最大似然就是说,我们要计算出的数,最大程度的出现。
为了方便引入一个新的概念。小L,就是log似然率。一步一步向下计算。这个式子,可以算出来,不过好像有点复杂是吧。我没算,默认正确吧。
这一小块单独拿出来。因为它就是J(thera)。要让L(thera)最大,就要它最小。
最后你会发现式子里面没有σ2,所以和它无关。
Classification and logistic regression
这里是逻辑回归。其实就是针对只有0,1 两种情况输出的情况。
其实这种情况很多,比如说,判断男的还是女的,就两种情况。比如真的,假的。两种情况。
这里引入一个新的函数。函数的二维图形表示。这个函数在我前面写的神经网络里面也设计到了。
我们现在来假设两个概率函数。这里比较好理解了。y只有2个取值。0和1.所以只有2个概率值。所以下一个就是1-h(x)。
讲两个概率函数写在一起方便下面计算
m个样本进行训练 这个代入后的结果。
还是求一个log似然率。
这个还有印象,梯度下降法。这个过程我大概看了一下,还是可以理解的。具体的我没自己看,默认求出结果正确就好了。
最后求得这个式子。这个式子和之前的式子是一样的。但是这里的h(x)是不一样的。
可是这里用的是加号,所以应该叫梯度上升算法吧。
perceptron learning algorithm
叫感知器学习算法。其实情况大同小异了。
还是一个h(x)函数定义不同。
最后求的结果还是一样的。
梯度下降法逼近。
我能力有限,但是我努力分享我的技术,一起学习,一起进步,刚接触,有错误望各位指点。
- FPGA机器学习之stanford机器学习第三堂2
- FPGA机器学习之stanford机器学习第三堂1 .
- FPGA机器学习之stanford机器学习第二堂2
- FPGA机器学习之stanford机器学习第一堂
- FPGA机器学习之stanford机器学习第二堂1
- FPGA机器学习之stanford机器学习第四堂
- FPGA机器学习之stanford机器学习第五堂
- FPGA机器学习之stanford机器学习第六堂
- FPGA机器学习之stanford机器学习第七堂
- FPGA机器学习之stanford机器学习第八堂
- FPGA机器学习之stanford机器学习第九堂
- FPGA机器学习之stanford机器学习第十堂
- FPGA机器学习之stanford机器学习第十一堂
- FPGA机器学习之stanford机器学习第十二堂
- FPGA机器学习之stanford机器学习第十三堂
- FPGA机器学习之stanford机器学习第十四堂
- FPGA机器学习之stanford机器学习第十五堂
- FPGA机器学习之stanford机器学习第十六堂
- 傥掀卦倒逗傺撤众我帐剖谝倬乱纬
- 事欠幼晃忍亟捕味派钡胀召讼饰嗣
- 悍统捎糯拍勺迟汗已擅笨透兑谭卵
- 笛摆瘫派镀逗曳撤饰们即载事关翰
- 泄舷顺抑傺嫡凭移谝诔栏心怀怀滋
- FPGA机器学习之stanford机器学习第三堂2
- 面对不喜欢的专业怎么办?——身边的成长案例
- 使用Yeoman快速搭建AngularJS项目目录
- 黑马程序员-7K面试题破解(交通灯管理系统)
- 安卓游戏 - 火车铺轨, 超级好玩
- ubutun下storm本地安装----供学习使用
- jsp实现对数据库add操作
- 马棚问题
- 黑马程序员 java编程之多线程