谷震平的机器学习之路

来源:互联网 发布:邮箱 for mac 编辑:程序博客网 时间:2024/06/15 03:04

前言


    我看了许多书、许多论文、许多视频,也和老师们、大牛们交流过,对于机器学习有一番自己的体会。个人不太擅长生物、哲学方面的表述,但是比较喜欢用数学、计算机的语言表述。所以,程序员的理解,比较死板吧,仅供参考!

    5个月了,也该总结一番了。

  (注:个人联系方式:598343194@qq.com,欢迎交流。)


1 主要内容


    机器学习的东西太多,毕竟人蠢,所以只学了些许部分。如下列举:

    (1)大方面分:监督学习、无监督学习。半监督学习、增强学习没怎么看。

    (2)小方面分:线性回归模型、逻辑回归模型、神经网络、SVM。

    (3)算法方面:神经网络算法、梯度下降算法。

    (4)数学方面:概率论、高等数学、线性代数。

     在谷震平的博客中,将重点叙述个人的学习经历,有些单独讲,无法单独讲的,糅合其他部分一块讲。


2 监督学习


    首先,给出Supervised Learning概念:从一个训练数据集中学出合理的模型(能够描述数据的函数方程),然后用该模型处理新数据。算法需要明白你给出的数据集,即你需要告诉它特征和目标等信息,然后才可以学到合理的模型。通过将人的智慧放在数据中,机器也聪明了。

    这种方法可用于两个领域:回归分析(输出是一个连续的值)和统计分类(输出是一些散列的点或标签)。


3 无监督学习


    首先,给出Unsupervised Learning概念:算法通过将数据分类得出可以描述数据集的模型。和监督学习相反,不给出训练数据集的特征和目标。实质上,是数据的聚类(将相似的数据放在一起)过程。得出的模型可以描述当前的数据集,但不一定描述未知的数据集。后来出现了监督增强,就是在无监督的方式下,告诉算法怎么分类才是正确的。


4 概率论

    (1) 古典概率

    (2)条件概率

    (3)概率公理

    (4)贝叶斯公式

    (5)高斯分布(正态分布)

    (6)0-1分布

    (7)二项分布

    (8)Poisson分布(泊松分布)

2 0
原创粉丝点击