决策树笔记

来源:互联网 发布:云软件多少钱呢 编辑:程序博客网 时间:2024/06/17 06:08

一、优势
相比贝叶斯算法,决策树的优势在于构造过程不需要任何领域知识或参数设置,因此在实际应用中,对于探测式的知识发现,决策树更加适用。
二、例子
通俗来说,决策树分类的思想类似于找对象。现想象一个女孩的母亲要给这个女孩介绍男朋友,于是有了下面的对话:
女儿:多大年纪了?
母亲:26。
女儿:长的帅不帅?
母亲:挺帅的。
女儿:收入高不?
母亲:不算很高,中等情况。
女儿:是公务员不?
母亲:是,在税务局上班呢。
女儿:那好,我去见见。
这个女孩的决策过程就是典型的分类树决策。相当于通过年龄、长相、收入和是否公务员对将男人分为两个类别:见和不见。假设这个女孩对男人的要求是:30岁以下、长相中等以上并且是高收入者或中等以上收入的公务员,那么这个可以用下图表示女孩的决策逻辑(声明:此决策树纯属为了写文章而YY的产物,没有任何根据,也不代表任何女孩的择偶倾向,请各位女同胞莫质问我^_^):
这里写图片描述
上图完整表达了这个女孩决定是否见一个约会对象的策略,其中绿色节点表示判断条件,橙色节点表示决策结果,箭头表示在一个判断条件在不同情况下的决策路径,图中红色箭头表示了上面例子中女孩的决策过程。
这幅图基本可以算是一颗决策树,说它“基本可以算”是因为图中的判定条件没有量化,如收入高中低等等,还不能算是严格意义上的决策树,如果将所有条件量化,则就变成真正的决策树了。
有了上面直观的认识,我们可以正式定义决策树了:
决策树(decision tree)是一个树结构(可以是二叉树或非二叉树)。其每个非叶节点表示一个特征属性上的测试,每个分支代表这个特征属性在某个值域上的输出,而每个叶节点存放一个类别。使用决策树进行决策的过程就是从根节点开始,测试待分类项中相应的特征属性,并按照其值选择输出分支,直到到达叶子节点,将叶子节点存放的类别作为决策结果。
注:叶节点其实就是分类结果
三、决策数的构造
不同于贝叶斯算法,决策树的构造过程不依赖领域知识,它使用属性选择度量来选择将元组最好地划分成不同的类的属性。所谓决策树的构造就是进行属性选择度量确定各个特征属性之间的拓扑结构。
构造决策树的关键步骤是分裂属性。所谓分裂属性就是在某个节点处按照某一特征属性的不同划分构造不同的分支,其目标是让各个分裂子集尽可能地“纯”。尽可能“纯”就是尽量让一个分裂子集中待分类项属于同一类别。分裂属性分为三种不同的情况:
1、属性是离散值且不要求生成二叉决策树。此时用属性的每一个划分作为一个分支。
2、属性是离散值且要求生成二叉决策树。此时使用属性划分的一个子集进行测试,按照“属于此子集”和“不属于此子集”分成两个分支。
3、属性是连续值。此时确定一个值作为分裂点split_point,按照>split_point和<=split_point生成两个分支。
构造决策树的关键性内容是进行属性选择度量,属性选择度量是一种选择分裂准则,是将给定的类标记的训练集合的数据划分D“最好”地分成个体类的启发式方法,它决定了拓扑结构及分裂点split_point的选择。
属性选择度量算法有很多,一般使用自顶向下递归分治法,并采用不回溯的贪心策略。这里介绍ID3和C4.5两种常用算法。
3.3.1、ID3算法
从信息论知识中我们直到,期望信息越小,信息增益越大,从而纯度越高。所以ID3算法的核心思想就是以信息增益度量属性选择,选择分裂后信息增益最大的属性进行分裂。下面先定义几个要用到的概念。
设D为用类别对训练元组进行的划分,则D的熵(entropy)表示为:
这里写图片描述
其中pi表示第i个类别在整个训练元组中出现的概率,可以用属于此类别元素的数量除以训练元组元素总数量作为估计。熵的实际意义表示是D中元组的类标号所需要的平均信息量。
现在我们假设将训练元组D按属性A进行划分,则A对D划分的期望信息为:
这里写图片描述
这里Dj表示对属性A的每一个分类中的样本个数
而信息增益即为两者的差值:
这里写图片描述
ID3算法就是在每次需要分裂时,计算每个属性的增益率,然后选择增益率最大的属性进行分裂。下面我们继续用SNS社区中不真实账号检测的例子说明如何使用ID3算法构造决策树。为了简单起见,我们假设训练集合包含10个元素:
这里写图片描述
其中s、m和l分别表示小、中和大。
设L、F、H和R表示日志密度、好友密度、是否使用真实头像和账号是否真实,下面计算各属性的信息增益。
这里写图片描述
因此日志密度的信息增益是0.276。
用同样方法得到H和F的信息增益分别为0.033和0.553。
因为F具有最大的信息增益,所以第一次分裂选择F为分裂属性,分裂后的结果如下图表示:
这里写图片描述
在上图的基础上,再递归使用这个方法计算子节点的分裂属性,最终就可以得到整个决策树。
上面为了简便,将特征属性离散化了,其实日志密度和好友密度都是连续的属性。对于特征属性为连续值,可以如此使用ID3算法:
先将D中元素按照特征属性排序,则每两个相邻元素的中间点可以看做潜在分裂点,从第一个潜在分裂点开始,分裂D并计算两个集合的期望信息,具有最小期望信息的点称为这个属性的最佳分裂点,其信息期望作为此属性的信息期望。
3.3.2、C4.5算法
ID3算法存在一个问题,就是偏向于多值属性,例如,如果存在唯一标识属性ID,则ID3会选择它作为分裂属性,这样虽然使得划分充分纯净,但这种划分对分类几乎毫无用处。ID3的后继算法C4.5使用增益率(gain ratio)的信息增益扩充,试图克服这个偏倚。
C4.5算法首先定义了“分裂信息”,其定义可以表示成:
这里写图片描述
其中各符号意义与ID3算法相同,然后,增益率被定义为:
这里写图片描述
C4.5选择具有最大增益率的属性作为分裂属性,其具体应用与ID3类似,不再赘述。
四、代码

    '''''     Created on Oct 12, 2010     Decision Tree Source Code for Machine Learning in Action Ch. 3     @author: cainiao     '''      from math import log      import operator      def createDataSet():          dataSet = [[1, 1, 'yes'],                     [1, 1, 'yes'],                     [1, 0, 'no'],                     [0, 1, 'no'],                     [0, 1, 'no']]          labels = ['no surfacing','flippers']          #change to discrete values          return dataSet, labels      def calcShannonEnt(dataSet):          numEntries = len(dataSet)          labelCounts = {}          for featVec in dataSet: #the the number of unique elements and their occurance              currentLabel = featVec[-1]              if currentLabel not in labelCounts.keys(): labelCounts[currentLabel] = 0              labelCounts[currentLabel] += 1          shannonEnt = 0.0          for key in labelCounts:              prob = float(labelCounts[key])/numEntries              shannonEnt -= prob * log(prob,2) #log base 2          return shannonEnt      def splitDataSet(dataSet, axis, value):          retDataSet = []          for featVec in dataSet:              if featVec[axis] == value:                  reducedFeatVec = featVec[:axis]     #chop out axis used for splitting                  reducedFeatVec.extend(featVec[axis+1:])                  retDataSet.append(reducedFeatVec)          return retDataSet      def chooseBestFeatureToSplit(dataSet):          numFeatures = len(dataSet[0]) - 1      #the last column is used for the labels          baseEntropy = calcShannonEnt(dataSet)          bestInfoGain = 0.0; bestFeature = -1          for i in range(numFeatures):        #iterate over all the features              featList = [example[i] for example in dataSet]#create a list of all the examples of this feature              uniqueVals = set(featList)       #get a set of unique values              newEntropy = 0.0              for value in uniqueVals:                  subDataSet = splitDataSet(dataSet, i, value)                  prob = len(subDataSet)/float(len(dataSet))                  newEntropy += prob * calcShannonEnt(subDataSet)                   infoGain = baseEntropy - newEntropy     #calculate the info gain; ie reduction in entropy              if (infoGain > bestInfoGain):       #compare this to the best gain so far                  bestInfoGain = infoGain         #if better than current best, set to best                  bestFeature = i          return bestFeature                      #returns an integer      def majorityCnt(classList):          classCount={}          for vote in classList:              if vote not in classCount.keys(): classCount[vote] = 0              classCount[vote] += 1          sortedClassCount = sorted(classCount.iteritems(), key=operator.itemgetter(1), reverse=True)          return sortedClassCount[0][0]      def createTree(dataSet,labels):          classList = [example[-1] for example in dataSet]          if classList.count(classList[0]) == len(classList):               return classList[0]#stop splitting when all of the classes are equal          if len(dataSet[0]) == 1: #stop splitting when there are no more features in dataSet              return majorityCnt(classList)          bestFeat = chooseBestFeatureToSplit(dataSet)          bestFeatLabel = labels[bestFeat]          myTree = {bestFeatLabel:{}}          del(labels[bestFeat])          featValues = [example[bestFeat] for example in dataSet]          uniqueVals = set(featValues)          for value in uniqueVals:              subLabels = labels[:]       #copy all of labels, so trees don't mess up existing labels              myTree[bestFeatLabel][value] = createTree(splitDataSet(dataSet, bestFeat, value),subLabels)          return myTree                                  def classify(inputTree,featLabels,testVec):          firstStr = inputTree.keys()[0]          secondDict = inputTree[firstStr]          featIndex = featLabels.index(firstStr)          key = testVec[featIndex]          valueOfFeat = secondDict[key]          if isinstance(valueOfFeat, dict):               classLabel = classify(valueOfFeat, featLabels, testVec)          else: classLabel = valueOfFeat          return classLabel      def storeTree(inputTree,filename):          import pickle          fw = open(filename,'w')          pickle.dump(inputTree,fw)          fw.close()      def grabTree(filename):          import pickle          fr = open(filename)          return pickle.load(fr)  
0 0