文章目录
- 【可更换其他算法,`获取资源`请见文章第6节:资源获取】
- 1. 随机森林RF算法
- 2. 麻雀搜索算法
- 3. 实验模型
- 4. 部分代码展示
- 5. 仿真结果展示
- 6. 资源获取
【可更换其他算法,获取资源
请见文章第6节:资源获取】
1. 随机森林RF算法
随机森林是集成学习中bagging的扩展,它是以决策树为基学习器的模型,随机创造多棵决策树并整合成森林,即将单个决策树结果整合出来输出。RF用作回归时,其思想就是相似输入必有相似输出。决策树能够通过样本特征预测出一个结果,随机森林回归算法就是将所有树的结果取平均值,得到整个森林的回归预测值。
2. 麻雀搜索算法
3. 实验模型
首先是在随机森林回归模型中需要设置决策树个数,决策树越多会导致计算时间过长,太少会导致模型欠拟合,模型中其他参数选择默认值。本文采用麻雀搜索算法以均方根误差(RMSE)的值为适应度函数来寻找最优的决策树个数值。寻找到最优的决策树个数值后,再使用随机森林模型训练测试。
整体流程如下:
RMSE 是回归模型中常用的一种性能评价指标,用于衡量模型预测值与实际观测值之间的差异。其计算方法如下:
- 计算每个样本的预测值与实际值之间的差值。
- 对每个差值求平方。
- 计算所有平方差的平均值。
- 将平均值的平方根作为最终的评价指标。
4. 部分代码展示
% 计算适应度值(均方根误差RMSE)
function r=RFfit(x)
load p_train
load t_train
trees=floor(x);
leaf=4;
Method = 'regression';
net = TreeBagger(trees, p_train, t_train,'Method', Method,'minleaf', leaf);
t_sim1 = predict(net, p_train);
M = size(p_train, 2);
r = sqrt(sum((t_sim1 - t_train).^2) ./ M);
end
5. 仿真结果展示
6. 资源获取
可更换其他群智能算法,获取完整代码资源,👇👇👇👀名片