为什么要降维?失真测度在机器学习中,如果特征值(也可称之为维度,或feature)过多,会引发维度灾难识别识别结果相似度比较(模式识别)维度灾难最直接的后果就是过拟合现象输入进而导致分类识别的错误,因此我们需预处理特征参数提取模板训练模板库要对所提的特征进行降维处理图一基本模式识别过程降维后数据应该包含更多的信息?降维?问题降维后会损失多少信息?降维后对分类识别效果有多大影响?
为什么要降维? 降维? 在机器学习中,如果特征值(也可称之为 维度,或feature)过多,会引发维度灾难。 维度灾难最直接的后果就是过拟合现象, 进而导致分类识别的错误,因此我们需 要对所提的特征进行降维处理。 预处理 特征参数提取 失真测度 相似度比较 (模式识别) 模板库 输入 识别结果 模板训练 识别 图——基本模式识别过程 降维后数据应该包含更多的信息? 降维后会损失多少信息? 降维后对分类识别效果有多大影响? 问题
降维的好处进行数据压缩,减少数据存储所需空间以及计算所需时间。01将数据维度减少到2维消除数据间的穴余,以简化降维0502或者3维,进行可视化。数据,提高计算效率。好处改善数据的可理解性,提高0403去除噪声,提高模型性能。学习算法的精度
降维的好处 02 01 03 05 04 进行数据压缩,减少数据存储 所需空间以及计算所需时间。 将数据维度减少到2维 或者3维,进行可视化。 消除数据间的冗余,以简化 数据,提高计算效率。 改善数据的可理解性,提高 去除噪声,提高模型性能。 学习算法的精度。 降维 好处
降维方法特征选择FeatureSelection01选择有效的特征子集,即去掉不相关或穴余的X.Featureselection特征。特征选择后留下的特征值的数值在选择前后没有变化。也就是说,特征选择后的特征是原来特XN征的一个子集。特征抽取02FeatureExtraction*X特征抽取是指改变原有的特征空间,并将其映射Feature extractior到一个新的特征空间。也就是说,特征抽取后的新M特征是原来特征的一个映射。X
降维方法 01 02 选择有效的特征子集,即去掉不相关或冗余的 特征。特征选择后留下的特征值的数值在选择前后 没有变化。也就是说,特征选择后的特征是原来特 征的一个子集。 特征抽取是指改变原有的特征空间,并将其映射 到一个新的特征空间。也就是说,特征抽取后的新 特征是原来特征的一个映射。 特征选择 Feature Selection 特征抽取 Feature Extraction* 1 2 x x x i i iN . 1 2 x x x N Feature selection . 1 2 x x x N Feature extraction 1 2 y y M y =f 1 2 x x x N
降维算法分类降维算法可以根据所采用策略的不同而进行不同的分类二、根据所要处理的数据属性样本信息是否利用类型的不同00监督降维方法线性降维方法:PCA、LDA半监督降维方法非线性降维方法:LLE、SNE无监督降维方法
降维算法分类 一、样本信息是否利用 二、根据所要处理的数据属性 类型的不同 监督降维方法 半监督降维方法 无监督降维方法 线性降维方法: PCA、LDA 非线性降维方法:LLE、SNE 降维算法可以根据所采用策略的不同而进行不同的分类
本讲主要内容降维概述线性降维1非线性降维四降维代码实践五案例或论文
本讲主要内容 一 降维概述 二 线性降维 三 非线性降维 四 降维代码实践 五 案例或论文