发布于2019-08-06 10:39 阅读(1135) 评论(0) 点赞(1) 收藏(4)
决策树的一般流程
检测数据集中的每个子项是否属于同一个分类
if so return 类标签
Else
寻找划分数据集的最好特征
划分数据集
创建分支 节点
from math import log
import operator
#生成样本数据集
def createDataSet():
dataSet = [[1,1,'yes'],
[1,1,'yes'],
[1,0,'no'],
[0,1,'no'],
[0,1,'no']]
labels = ['no surfacing','flipper']
return dataSet,labels
# 计算香农熵 香农 大神必须要膜拜啊,信息界的根目录人物啊
# no surfacing 指的是 不浮出水面能否生存 1 标识 是 0 指的是否
# flipper 指的是是否有脚
# yes no指的是否是鱼类
def calcShannonEnt(dataSet):
numEntries = len(dataSet) # 用上面的createDataSet dataSet 这个值就是5
#定义标签字典
labelCounts = {}
# 为所有可能的分类创建字典
for featVec in dataSet:
currentLabel = featVec[-1] #这个-1指的是去取最后一个维度 对应数据dataSet 这里取的是yes和no
if currentLabel not in labelCounts.keys():
# 如果当前分类标签不在 标签字典中
labelCounts[currentLabel] = 0
# 其他情况 分类标签分类加1
labelCounts[currentLabel] += 1
#定义香农熵 以2为底数求对数
shannonEnt = 0.0
for key in labelCounts:
#计算 yes 或者No 出现的概率
pro = float(labelCounts[key])/numEntries
# 计算香农熵
shannonEnt -= pro*log(pro,2)
return shannonEnt
#dataSet是待划分的数据集, 划分数据集的特征 axis 特征的返回值value
#最后是创建了一个新的列表对象
def splitDataSet(dataSet, axis , value):
# 创建新list对象
retDataSet = []
for featVec in dataSet:
if featVec[axis] == value:
reducedFeatVec = featVec[:axis]
reducedFeatVec.extend(featVec[axis+1:])
retDataSet.append(reducedFeatVec)
return retDataSet
# 选择最好的特征值进行数据集划分
def chooseBestFeatureToSplit(dataSet):
# len(dataSet[0])是计算这一行有多少列,即有多少个特征值
numFeatures = len(dataSet[0])-1 # -1 是最后一个特征值就不要记录在内了,算baseEntrop的时候已经算了最后一个特征值yes no
baseEntropy = calcShannonEnt(dataSet)
bestInfoGain = 0.0
bestFeature = -1
for i in range(numFeatures):
#创建唯一的分类标签列表 也就是说提取dataSet每一行第i个值 就提取dat
featList = [example[i] for example in dataSet]
# 取出有几种特征值
uniqueVals = set(featList)
newEntropy = 0.0
for value in uniqueVals:
#创建特征值的子数据集
subDataSet = splitDataSet(dataSet,i, value)
#计算该特征值数据对总数在数据对总数出现的概率
pro = len(subDataSet)/float(len(dataSet))
#计算分割出来的子集香农熵
newEntropy += pro*calcShannonEnt(subDataSet)
#计算信息增益 得到最好的特征值 这个理论是这样的g(D,A) = H(D)-H(D/A)
infoGain = baseEntropy-newEntropy
#取出最大的信息增益,此时特征值最大
if(infoGain >bestInfoGain):
bestInfoGain = infoGain
bestFeature = i
return bestFeature
'''
#构建决策树是根据特征值的消耗来计算的,如果后面的特征值已经全部用完了
但是还没有分出结果,这个时候就需要使用多数表决方式计算节点分类
最后返回最大的分类
'''
def majorityCnt(classList):
# 分类的字典
classCount = {}
for vote in range(classList):
#如果不在 分类字典中
if vote not in classCount.keys(): classCount[vote] = 0
classCount[vote] += 1
# 根据出现的次数大到小排序
sortedClassCount = sorted(classCount.items(),key=operator.itemgetter(1),reverse=True)
return sortedClassCount[0][0]
#创建决策树
def createTree(dataSet, labels):
# 获取数据样本每组最后一组的特征值 这里是yes,no
classList = [example[-1] for example in dataSet]
# 如果说这个classList 全部都是 yes 或者全部是no 那肯定子返回yes 或者no
if(classList.count(classList[0]) == len(classList)):
return classList[0]
#如果遍历完所有的特征返回出现次数最多的
#是用消耗特征值的方式进行构造决策树的,每次会消掉一个特征值
if len(dataSet[0]) == 1:
return majorityCnt(classList)
#选择最好的特征值
bestFeat = chooseBestFeatureToSplit(dataSet)
bestFeatLabel = labels[bestFeat]
myTree = {bestFeatLabel:{}}
# 删除labels中的一特征值
del(labels[bestFeat])
#找到特征值那一列
featValues = [example[bestFeat] for example in dataSet]
uniqueVals = set(featValues)
for value in uniqueVals:
# labels列表的赋值
subLabels = labels[:]
myTree[bestFeatLabel][value]=createTree(splitDataSet(dataSet,bestFeat,value),subLabels)
return myTree
dataSet,lables = createDataSet()
shannonEnt= calcShannonEnt(dataSet)
my = createTree(dataSet,lables)
print(my)
作者:爱妃不要跑
链接:https://www.pythonheidong.com/blog/article/7811/d53113d5e5ff0874f070/
来源:python黑洞网
任何形式的转载都请注明出处,如有侵权 一经发现 必将追究其法律责任
昵称:
评论内容:(最多支持255个字符)
---无人问津也好,技不如人也罢,你都要试着安静下来,去做自己该做的事,而不是让内心的烦躁、焦虑,坏掉你本来就不多的热情和定力
Copyright © 2018-2021 python黑洞网 All Rights Reserved 版权所有,并保留所有权利。 京ICP备18063182号-1
投诉与举报,广告合作请联系vgs_info@163.com或QQ3083709327
免责声明:网站文章均由用户上传,仅供读者学习交流使用,禁止用做商业用途。若文章涉及色情,反动,侵权等违法信息,请向我们举报,一经核实我们会立即删除!