③初始树和被替换节点的预测误差是 PEe=6*0.206+9*0.143+1*0.750=3,257 PE tree 16米0.157=2.512 被替换的节点比当前的决策树的预测误差低, 修剪决策树并用新的叶节点替换子树是可 行的
• 初始树和被替换节点的预测误差是: PEtree=6*0.206+9*0.143+1*0.750=3.257 PEtree=16*0.157=2.512 被替换的节点比当前的决策树的预测误差低, 修剪决策树并用新的叶节点替换子树是可 行的
3骨见的六种修剪技术 1. MCCP Minimal cost-complexity Pruning)-F3 于CRA系统 2. REP(Reduced Error Pruning 3,MEP(Minimal Error Pruning) 4PEP( Pessimistic Error Pruning)-用于ID3 5EBP( Error Based Pruning)-用于C4.5。 6. bootstrap
• 常见的六种修剪技术: 1.MCCP(Minimal cost-complexity Pruning)-用 于CRAT系统。 2.REP(Reduced Error Pruning) 。 3.MEP(Minimal Error Pruning) 。 4.PEP(Pessimistic Error Pruning) –用于ID3。 5.EBP(Error Based Pruning)-用于C4.5。 6.bootstrap
75c4.5算法:生成决策规则 大型的决策树较难理解,因为每个节点都 有先行节点的检验结果建立的具休环境。 为了理解它,可以把到达每个叶的路径转 换成 IF-THEN生成规则。这种规则叫做决策 规则。 所有叶节点的决策规则集能够与树节点 样对样本进行分类
7.5 C4.5 算法:生成决策规则 • 大型的决策树较难理解,因为每个节点都 有先行节点的检验结果建立的具休环境。 为了理解它,可以把到达每个叶的路径转 换成IF-THEN生成规则。这种规则叫做决策 规则。 • 所有叶节点的决策规则集能够与树节点一 样对样本进行分类
图710所示是决策树转换成决策规则的一 例子 根 If a=l andb=1 Then类1 A A=2 转换 If A=l and b=2 〓嚣z〓〓〓E X2: B Then类2 路径转换为规则 B B=2 If a=2 Then类1 类1 a)决策树 b)决策规则 图7-10决策树到决策规则的转换
• 图7-10所示是决策树转换成决策规则的一 个例子