机器学习基础(三)——信息、信息熵与信息增益

来源:互联网 发布:淘宝售后服务卡内容 编辑:程序博客网 时间:2024/06/18 12:30

信息:information,信息熵:information entropy,信息增益:information gain(IG)

划分数据集的大原则是:将无序的数据变得更加有序。组织杂乱无章数据的一种方法就是使用信息论度量信息,信息论是量化处理信息的分支科学。

在划分数据集之前之后信息发生的变化称为信息增益,知道如何计算信息增益,我们就可以计算每一个特征值划分数据集获得的信息增益,获得信息增益最高的特征就是最好的选择。

信息、信息熵的定义

如果待分类的数据集可能划分在多个分类之中,则类别 xi 的信息定义为:

l(xi)=log2p(xi)

其中 p(xi) 是该类别的样本所占的比例;

为了计算熵,我们需要计算所有类别所有可能包含的信息期望值(由离散型随机变量的期望计算公式可知),

H=i=1np(xi)log2p(xi)

遍历相乘再相加,可以使用内积计算熵。

信息熵,被用来度量信息的无序程度(信息熵越大,越无序,等于 0 时,意味着全部类别都相同,完全有序)

熵的性质:

  • (1)非负,0<p(xi)1log2p(xi)0
  • (2)完全有序,也即 p(x)=1H=0
  • (3)香农熵越小越有序,越大越混乱。

计算数据集的香农熵和最佳划分特征

根据数据集的类别,计算数据集的香农熵:

from collections import Counterfrom math import logdef calcShannonEnt(dataset):    classCnt = [sample[-1] for sample in dataset]    n = len(dataset)    classCnt = Counter(classCnt)    ent = 0.    for times in classCnt.values():        ent -= times/n*log(times/n, 2)    return ent

按照给定特征(属性列)划分数据集:

# 第三个参数 val 不是手动指定的,# 该函数也不是直接交由外部调,而是被其他函数调用# 在函数内部,也即遍历属性列不重复的属性值时,传递进来val值def splitDataset(dataset, axis, val):    splitedDataset = []    for sample in dataset:        if sample[axis] == val:            splitedDataset.append(sample[:axis]+sample[axis+1:])    return splitedDataset

选择最好的数据集划分方式,也即找到最好的属性列,显然需要遍历属性列,找到最大的信息增益:

def chooseBestFeatToSplit(dataset):    baseEnt = calcShannonEnt(dataset)    bestInfoGain, bestFeat = 0., -1    for j in range(len(dataset[0])-1):        featCol = [sample[j] for sample in dataset]        uniqFeat = set(featCol)        newEnt = 0.        for val in uniFeat:            subDataset = splitDataset(dataset, j, val)            newEnt = len(subDataset)/len(dataset)*calcShannonEnt(subDataset)        infoGain = baseEnt - newEnt        if bestInfo < infoGain:            bestInfo = infoGain            bestFeast = j    return bestFeat
0 0
原创粉丝点击