FPGA机器学习之stanford机器学习第三堂2

来源:互联网 发布:php nginx 返回截断 编辑:程序博客网 时间:2024/04/30 12:52

             我已经写过一遍了,为了我的分享事业,我在写一次吧。

           上一次我写到了,这里加号后面的那个就是错误率。为什么会引入这个,上一篇,我有写清楚。

         这里,我们假定它符合高斯分布。为什么是高斯分布,上一篇也写了。

这里引入似然率的概念L(thera)。

进一步往下写。最后代入。

我们要选择最大似然率嘛。最大似然就是说,我们要计算出的数,最大程度的出现。

为了方便引入一个新的概念。小L,就是log似然率。一步一步向下计算。这个式子,可以算出来,不过好像有点复杂是吧。我没算,默认正确吧。

这一小块单独拿出来。因为它就是J(thera)。要让L(thera)最大,就要它最小。

最后你会发现式子里面没有σ2,所以和它无关。

 

 

                                                                             Classification and logistic regression

这里是逻辑回归。其实就是针对只有0,1 两种情况输出的情况。

其实这种情况很多,比如说,判断男的还是女的,就两种情况。比如真的,假的。两种情况。

这里引入一个新的函数。函数的二维图形表示。这个函数在我前面写的神经网络里面也设计到了。

我们现在来假设两个概率函数。这里比较好理解了。y只有2个取值。0和1.所以只有2个概率值。所以下一个就是1-h(x)。

 

讲两个概率函数写在一起方便下面计算

m个样本进行训练   这个代入后的结果。

还是求一个log似然率。

这个还有印象,梯度下降法。这个过程我大概看了一下,还是可以理解的。具体的我没自己看,默认求出结果正确就好了。

最后求得这个式子。这个式子和之前的式子是一样的。但是这里的h(x)是不一样的。

可是这里用的是加号,所以应该叫梯度上升算法吧。

 

                                                                                              perceptron learning algorithm

  叫感知器学习算法。其实情况大同小异了。

     还是一个h(x)函数定义不同。

最后求的结果还是一样的。

梯度下降法逼近。

 

 

微笑我能力有限,但是我努力分享我的技术,一起学习,一起进步,刚接触,有错误望各位指点

 

0 0
原创粉丝点击