信息增益-决策树

这篇具有很好参考价值的文章主要介绍了信息增益-决策树。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

信息增益-决策树,决策树,算法,机器学习
表8.1给出的是带有标记类的元组的训练集D;

类标号属性 buys_computer有两个不同值:{yes, no}

设 类 C1 → \rightarrow yes,C2 → \rightarrow no;

已知:C1包含9个元组,C2包含5个元组;

信息增益-决策树,决策树,算法,机器学习
信息增益-决策树,决策树,算法,机器学习

从属性age计算期望信息需求:

age:{‘youth’, ‘middle_aged’, ‘senior’}

youth middle_aged senior
yes 2 4 3
no 3 0 2

信息增益-决策树,决策树,算法,机器学习

对于 y o u t h youth youth 来说:
D j D_{j} Dj = 2 + 3 = 5 2+3=5 2+3=5
I n f o Info Info( D j D_{j} Dj) = - 2 / 5 2/5 2/5 * log ⁡ 2 \log_{2} log2( 2 / 5 2/5 2/5) - 3 / 5 3/5 3/5 * log ⁡ 2 \log_{2} log2( 3 / 5 3/5 3/5)

即,

信息增益-决策树,决策树,算法,机器学习

即,按年龄划分的信息增益:
G a i n ( a g e ) = I n f o ( D ) Gain(age) = Info(D) Gain(age)=Info(D) - I n f o a g e ( D ) Info_{age}(D) Infoage(D) = 0.94-0.694 = 0.246

同理,
G a i n ( i n c o m e ) = 0.029 Gain(income) = 0.029 Gain(income)=0.029 G a i n ( s t u d e n t ) = 0.151 Gain(student) = 0.151 Gain(student)=0.151
G a i n ( c r e d i t Gain(credit Gain(credit_ r a t i n g ) = 0.048 rating) = 0.048 rating)=0.048

信息熵:意思是一个变量的变化情况可能越多,那么它携带的信息量就越大,信息熵值越大,该系统越不稳定,存在的不定因素就越多。

信息熵的增益是指:所有属性值的信息熵和某一个属性值的信息熵的差值,增益值越大,说明其具有更高的决策性,可做为优先节点。

由于age在属性中具有最高的信息增益,所以它被选作分裂属性;

由于age → \rightarrow middle_aged 元组属于相同的类,所以在该分支的端点创建一个树叶,并用 yes 标记;

最终决策树如下:
信息增益-决策树,决策树,算法,机器学习
信息增益-决策树,决策树,算法,机器学习

参考:文章来源地址https://www.toymoban.com/news/detail-841335.html

  1. https://blog.csdn.net/Time_Memory_cici/article/details/132915003
  2. https://blog.csdn.net/m0_50989510/article/details/122395804
  3. https://blog.csdn.net/weixin_44606139/article/details/127049701

到了这里,关于信息增益-决策树的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • 【人工智能】监督学习、分类问题、决策树、信息增益

    【人工智能】监督学习、分类问题、决策树、信息增益

    什么是决策树 —— 基本概念 非叶节点:一个属性上的测试,每个分枝代表该测试的输出 叶节点:存放一个类标记 规则:从根节点到叶节点的一条属性取值路径 模型训练:从已有数据中生成一棵决策树 分裂数据的特征,寻找决策类别的路径 相同的数据,根据不同的特征顺

    2024年02月16日
    浏览(45)
  • 【机器学习】信息量、香农熵、信息增益(增加例子,方便理解)

    【机器学习】信息量、香农熵、信息增益(增加例子,方便理解)

    B站视频:“交叉熵”如何做损失函数?打包理解“信息量”、“比特”、“熵”、“KL散度”、“交叉熵” 举个例子:   如果有人告诉你,今天太阳从东边出来了,那么这条信息的信息量就 很低 ,因为每天的太阳 常常从 东边出来。  但是,突然某一天有人告诉你,今天

    2024年02月04日
    浏览(16)
  • 信息增益-决策树

    信息增益-决策树

    表8.1给出的是带有标记类的元组的训练集D; 类标号属性 buys_computer有两个不同值:{yes, no} 设 类 C1 → rightarrow → yes,C2 → rightarrow → no; 已知:C1包含9个元组,C2包含5个元组; age:{‘youth’, ‘middle_aged’, ‘senior’} youth middle_aged senior yes 2 4 3 no 3 0 2 对于 y o u t h youth yo u

    2024年03月19日
    浏览(10)
  • 决策树之用信息增益选择最优特征

    决策树之用信息增益选择最优特征

    决策树之用信息增益选择最优特征 熵 ​ 熵的定义: 熵(shāng),热力学中表征物质状态的参量之一,用符号S表示,其物理意义是体系混乱程度的度量。 在决策树中,信息增益是由熵构建而成,表示的是[随机变量的不确定性],不确定性越大,代表着熵越大。随机变量的取值

    2024年02月01日
    浏览(11)
  • 决策树的划分依据之:信息增益率

    决策树的划分依据之:信息增益率

    在上面的介绍中,我们有意忽略了\\\"编号\\\"这一列.若把\\\"编号\\\"也作为一个候选划分属性,则根据信息增益公式可计算出它的信息增益为 0.9182,远大于其他候选划分属性。 计算每个属性的信息熵过程中,我们发现,该属性的值为0, 也就是其信息增益为0.9182. 但是很明显这么分类,最后

    2024年02月14日
    浏览(17)
  • 信息熵与信息增益在决策树生成中的使用

    信息熵与信息增益在决策树生成中的使用

        决策树是机器学习算法的一种,它主要对给定数据集合根据相关属性生成一个类似树结构的一种决策机制。     生成树结构,其实可以很随便,只要根据特征值的分支做分叉,把所有的特征遍历完成,这棵树就是一颗决策树。但是要生成一个最优决策树,我们需要选择合

    2024年02月16日
    浏览(9)
  • 机器学习 | 决策树算法

    机器学习 | 决策树算法

    1、树模型         决策树:从根节点开始一步步走到叶子节点(决策)。所有的数据最终都会落到叶子节点, 既可以做分类也可以做回归。         在分类问题中,表示基于特征对实例进行分类的过程,可以认为是if-then的集合,也可以认为是定义在特征空间与类空间上

    2024年02月07日
    浏览(8)
  • 经典机器学习算法——决策树

    经典机器学习算法——决策树

    优质博文:IT-BLOG-CN 树模型是机器学习中最常用的一类模型,包括随机森林、AdaBoost、GBDT(XGBoost和Lightgbm)等,基本原理都是通过集成弱学习器的即式来进一步提升准确度。这里的弱学习器包括线性模型和决策树模型,本期介绍的就是决策树模型(DecisionTree)。 决策树属于有

    2024年04月29日
    浏览(8)
  • 机器学习算法 决策树

    机器学习算法 决策树

    决策树(Decision Tree)是一种非参数的有监督学习方法,它能够从一系列有特征和标签的数据中总结出决策规则,并用树状图的结构来呈现这些规则,以解决分类和回归问题。决策树算法容易理解,适用各种数据。 决策树算法的本质是一种图结构,我们只需要问一系列问题就

    2023年04月23日
    浏览(19)
  • 机器学习算法系列(四)-- 决策树

    机器学习算法系列(四)-- 决策树

    最经典的机器学习模型之一,成树型结构,决策树的目的是为了产生一颗泛化能力强,处理未见实例能力强的树,通过特征判断不断分类,基本流程遵循“分而治之”的递归分类策略。 关键 就是选取对训练数据具有分类能力的特征,可提高决策树学习的效率。通常特征选择

    2023年04月23日
    浏览(14)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包