interpreting Graphviz output for decision tree regression
我很好奇Graphviz用于回归时决策树的节点中的
我的数据有2维输入和10维输出。 这是我的回归问题的树形示例:
使用此代码生成并通过webgraphviz可视化
1 2 3 4 5 6 7 8 | # X = (n x 2) Y = (n x 10) X_test = (m x 2) input_scaler = pickle.load(open("../input_scaler.sav","rb")) reg = DecisionTreeRegressor(criterion = 'mse', max_depth = 2) reg.fit(X,Y) pred = reg.predict(X_test) with open("classifier.txt","w") as f: f = tree.export_graphviz(reg, out_file=f) |
谢谢!
回归树实际作为输出返回的是最终在各个终端节点(叶)中的训练样本的因变量(此处为Y)的平均值;这些平均值显示为图片中名为
换句话说,以树的最左侧终端节点(叶)为例:
-
叶子由
X[0] <= 0.675 和X[1] <= 0.5 的42个样本组成 -
此休假的
value 列表中给出了这42个样本的10维输出的平均值,其长度的确为10,即Y[0] 的平均值为-152007.382 ,Y[1] 的平均值是-206040.675 等,并且Y[9] 的平均值是3211.487 。
您可以通过预测一些样本(从您的训练或测试集开始,这无关紧要)并检查10维结果是否是上述末尾叶中描绘的4个
此外,您可以确认,对于
1 2 | (-42*152007.382 - 56*199028.147)/98 # -178876.39057142858 |
即其父节点(中间级别中最左侧的节点)的
1 2 | (-98*178876.391 + 42*417378.245)/140 # -0.00020000000617333822 |
再次与您的根节点的
从根节点的
因此,总结一下:
-
每个节点的
value 列表包含"属于"相应节点的训练样本的平均Y值 - 此外,对于终端节点(叶),这些列表是树模型的实际输出(即,输出始终是这些列表之一,具体取决于X)
-
对于根节点,
value 列表包含整个训练数据集的平均值Y值