实例 a1 a2 a3 目标类
1 T T 1.0 +
2 T T 6.0 +
3 T F 5.0 -
4 F F 4.0 +
5 F T 7.0 -
6 F T 3.0 -
7 F F 8.0 -
8 T F 7.0 +
9 F T 5.0 -
第5章 决策树
Exercise 5.15
决策树的父节点和子节点的熵的大小关系是什么?
A、两者相等
B、子节点的熵更大
C、父节点的熵更大
D、不确定
Exercise 5.16
考虑表中二元分类问题的训练样本集
整个训练样本集关于类属性的熵是多少?关于这些训练集 ,a1,a2,a3的信息增益分别是多少?
Exercise 5.17
关于集成学习以下说法正确的是?
A、Adaboost相对于单个弱分类器而言通过Boosting增大了模型的Bias
B、随机森林相对于单个决策树而言通过Bagging增大了模型的Variance
C、我们可以借鉴类似Bagging的思想对GBDT模型进行一定的改进,例如每个分裂节点只考虑某个随机
的特征子集或者每棵树只考虑某个随机的样本子集这两个方案都是可行的
D、GBDT模型无法在树维度通过并行提速,因为基于残差的训练方式导致第 棵树的训练依赖于前
棵树的结果,故树与树之间只能串行