特征选择
2017-03-27 09:35:18 0 举报
特征选择是机器学习中一个重要的环节,它是指从原始的特征集合中选择出对模型预测最有用的特征。特征选择的目的是减少特征的数量,提高模型的泛化能力,降低过拟合的风险。常用的特征选择方法有过滤法、包裹法和嵌入法等。过滤法根据特征与目标变量之间的相关性或特征之间的相关性来选择特征;包裹法通过反复训练模型来选择最优的特征子集;嵌入法则将特征选择嵌入到模型训练过程中。总之,特征选择是提高模型性能的重要手段之一。
作者其他创作
大纲/内容
基于树模型
新增退改险-170413_fli_tgxo
信息增益
L1正则化
基于评价准则
WOE和IV
vid分流
实验组-新版本
过滤式
填写页改版实验-170124_fli_newui
特征选择
对照组-老版本
嵌入式
0 条评论
下一页