machine learning pre-learning (AI dairy 1)

来源:互联网 发布:深圳淘宝托管 编辑:程序博客网 时间:2024/05/18 22:50

Trip of Machine Learning !

灰太狼的机器学习之旅开启了Trip of Machine Learning[^stackedit]. Don’t delete me, I’m very helpful! 写有意思的 Blog就像写小说,大家一起歪歪Tech dialog .


Documents

夕阳西下,就想来补充我的BLOG 机器学习,嘿嘿!

Basic Concept:

  • 初始机器学习术语—jargon.
  • 回归or分类.
  • 监督学习or非监督学习.

Jargon

特征向量:用于描述对象的向量,如一个学生的基本信息:[姓名,出生年月,身高,平均成绩,所在学校],这样lory的特征为[lory,198809,179,81]. so 特征向量就是指描述主体的信息。
训练or预测:训练的目的是为了找出一个合适的准则,再一次考试中,随机抽取100个样本确定成绩中等及以上学生的分数线,这个过程就叫训练or学习,有了训练的result,大量学生的好坏程度可以通过训练的结果预测而知,预测的目的就是为了同时处理大量同类分布的信息,记得是分布相同,不然没有意义哦,比如衡量北京人的生活水平和成都的生活水平就不能用同一个标准了,毕竟帝都的分布和成都不一样 。
标签label:给对象分类的空间,比如人有两类,则标签就是男或者女。
回归or分类:回归–对连续或者具体的决策手段,如小黑属于欧洲的概率是0.87;分类,小黄属于两类中的哪一类。
判别模型or生成模型:判别模型-不需要通过联合概率获取,只需简单的求取后验概率即可;生成模型–用联合概率求取后验概率。
以下是几类机器学习方法

贝叶斯分类器

ADABOOST学习

决策树

支持向量机

神经网络

深度学习

KMEANS

Don’t delete me!

Don’t delete me!

监督学习or非监督学习

Tip: Check out the Publish a document section for a description of the different output formats.


Application


* 基础研究* . * AI应用* .

Note:

  • 文本分类.
  • 目标跟踪 .
  • 文本分割.
  • 图像检索.
  • 数据挖掘.

推荐:谷歌大脑,百度大脑,linkface团队。

appendix

补充几种特征学习。

  • SIFT,
  • HAAR,
  • HOG.
  • LBP,
  • SURF.

Note: 高斯核可以对特征尺度进行设定。

Example

Tables

特征向量

属性 Value 姓名 Dan 年龄 34 喜好 smoke 现居地 英国

Definition Lists

特征向量

Definition A

Definition B
Term 3

Definition C

Definition D

part of definition D

Fenced code blocks【高斯判别模型code】

m=200;n=2;rp=mvnrnd([1 1],[1 0;0 1],m/2);rn=mvnrnd([4 4],[1 0;0 1],m/2);y=[ones(m/2,1);zeros(m/2,1)];figure;hold on;plot3(rp(:,1),rp(:,2),y(1:m/2,1),'b.');plot3(rn(:,1),rn(:,2),y(m/2+1:m,1),'r.');axis([-5 10 -5 10]);hold off;x=[rp;rn];p=sum(y)/m;%%positive=find(y);negative=find(y==0);%%mu1=mean(x(positive,:));%计算(1)样本点均值mu2=mean(x(negative,:));%计算(0)样本点均值sigma1=cov(x(positive,:));%计算样本点协方差矩阵sigma2=cov(x(negative,:));%计算样本点协方差矩阵sigma_1=sigma1^(-1);sigma_2=sigma2^(-1);A1=1/(((2*pi)^(n/2))*((det(sigma_1))^(1/2)));A2=1/(((2*pi)^(n/2))*((det(sigma_2))^(1/2)));for i=1:m    p0=A1*exp((-1/2)*(x(i,:)-mu1)*sigma_1*(x(i,:)-mu1)');%落在某类的概率    p1=A2*exp((-1/2)*(x(i,:)-mu2)*sigma_2*(x(i,:)-mu2)');    if (p0>p1)        y(i,1)=1;    else        y(i,1)=0;    endend%%figure;hold on;plot3(x(positive,1),x(positive,2),y(positive,1),'b.');plot3(x(negative,1),x(negative,2),y(negative,1),'r.');axis([-5 10 -5 10]);

Table of contents

[TOC]:

  • Trip of Machine Learning
    • Documents
        • Jargon
        • 贝叶斯分类器
        • ADABOOST学习
        • 决策树
        • 支持向量机
        • 神经网络
        • 深度学习
        • KMEANS
        • Dont delete me
        • 监督学习or非监督学习
    • Related
        • appendix
    • Example
      • Tables
      • Definition Lists
      • Fenced code blocks高斯判别模型code
      • Table of contents
      • MathJax

MathJax

Gaussian function

G(x,y)=12πδexpx2+y22δ2

0 0
原创粉丝点击