2021年2月7日,我感谢您的评论。给我发电子邮件!雇用我!在上一期“如何交谈”部分中,构建良好的训练数据集-数据预处理,我们了解了使用不同的特征选择技术来降低数据集维数的不同方法。用于降维的特征选择的另一种方法是特征提取。在本部分中,您将学习三种基本技术,这些技术将通过将数据集转换为维数比原始维数低的新特征子空间来汇总数据集的信息内容。数据压缩是机器学习中的一个重要主题,它有助于我们存储和分析在现代技术时代生成和收集的不断增长的数据量。在本期中,我们将介绍以下主题:用于无监督数据压缩的主成分分析(PCA)线性判别分析(LDA)作为有监督的降维技术,可最大限度地提高类别的可分离性通过核主成分分析(KPCA)进行非线性降维与特征选择类似,我们可以使用不同的特征提取技术来减少数据集中的特征数量。特征选择和特征提取之间的区别在于,当我们使用特征选择算法(例如顺序向后选择)时,我们保持原始特征时,我们使用特征提取将数据转换或投影到新的特征空间上。在降维的情况下,特征提取可以理解为一种数据压缩的方法,其目的是保