在生活或工作中,人们常常面对各种各样的自由选择,很迷茫和疑惑,准确的决策十分最重要。某种程度,人工智能研究中也不会遇上决策问题,今天就跟大家聊聊人工智能之决策树。
决策树(DecisionTree)是一类少见的机器学习方法。决策树(DT)在人工智能中所处的方位:人工智能->机器学习->监督自学->决策树。
在机器学习中,决策树(DT)是一个预测(决策)模型,它所代表的是对象属性与对象值之间的一种同构关系。决策树算法根据数据的属性使用树状结构创建决策模型。什么是决策树?决策树(DT)是在未知各种情况再次发生概率的基础上,通过包含决策树来贪图清净现值的期望值小于等于零的概率,评价项目风险,辨别其可行性的决策分析方法,是直观运用概率分析的一种图解法。由于这种决策分支所画出图形很像一棵树的枝干,故称决策树。
从数据产生决策树的机器学习技术叫作决策树自学。通过定义我们告诉,决策树(DT)是一种树形结构,树中每个节点回应某个对象,而每个末端路径则代表的某个有可能的属性值,而每个叶结点则对应从六根节点到该叶节点所经历的路径所回应的对象的值。
结点有两种类型:内部节点和叶节点,内部节点回应一个特征、属性或一个属性上的测试,每个分支代表一个测试输入,叶节点回应一个类别。决策树(DT)一般都是自上而下的来分解的。每个决策或事件(即大自然状态)都有可能引向两个或多个事件,造成有所不同的结果。
决策树(DT)是一种十分少见的分类方法,也称之为分类树根。它是一种监督自学,即等价一堆样本,每个样本都有一组属性和一个类别,这些类别是事前确认的,那么通过自学获得一个分类器,这个分类器需要对新的经常出现的对象得出准确的分类。因此,决策树经常用来解决问题分类和重返问题。决策树包含要素:1)决策结点:用方块结点□回应,是对几种有可能方案的自由选择,即最后自由选择的最佳方案。
如果决策归属于多级决策,则决策树的中间可以有多个决策点,以决策树根部的决策点为最后决策方案。2)方案枝:由结点引向若干条细支,每条细支代表一个方案,称作方案枝3)状态结点:用圆形结点○回应,代表最合适方案的经济效果(期望值),通过各状态节点的经济效果的对比,按照一定的决策标准就可以投票决定最佳方案。4)概率枝:由状态节点引向的分支称作概率枝,概率枝的数目回应有可能经常出现的大自然状态数目。每个分枝上要标明该状态的内容和其经常出现的概率。
5)结果结点:用三角结点△回应,将每个方案在各种大自然状态下获得的收益值或损失值标示于结果节点的右端。总之,决策树一般由决策结点、方案枝、状态结点、概率枝和结果结点等构成,这样树形图由左向右或自上而下,由简到繁进行,构成一个树状网络图。决策树自学过程:决策树自学过程(建树过程)包括特征选择、决策树的分解与剪枝过程。
决策树的自学算法一般来说是迭代地自由选择拟合特征,后用拟合特征对数据集展开拆分。开始时,建构根结点,自由选择拟合特征,该特征有几种值就拆分为几个子集,每个子集分别迭代调用此方法,回到结点,回到的结点就是上一层的子结点。
直到所有特征都早已用完了,或者数据集只有一维特征为止。另外,随机森林分类器将许多决策树融合一起以提高分类的正确率。决策树建树过程的主要挑战是确认哪些属性作为根节点以及每个级别的节点。
处置这些必须告诉属性自由选择。目前主要有2种有所不同的属性自由选择方法(信息增益和基尼指数)来辨识这些属性。
当信息增益作为标准时,假设属性是分类的;对于基尼系数,则假设属性是倒数的。
本文来源:BOB博鱼-www.qhdhbzs.com