“AI Red”的版本间的差异
来自CloudWiki
(→第4章 K-近邻算法) |
|||
第37行: | 第37行: | ||
*[[4.4 实例:糖尿病预测]] | *[[4.4 实例:糖尿病预测]] | ||
*[[4.5 拓展阅读]] | *[[4.5 拓展阅读]] | ||
+ | ==第5章 线性回归算法== | ||
+ | *[[5.1算法原理]] | ||
+ | *[[5.2多变量线性回归算法]] | ||
+ | *[[5.3模型优化]] | ||
+ | ==第6章 逻辑回归算法== | ||
+ | *[[6.1算法原理]] | ||
+ | *[[6.2多元分类]] | ||
+ | *[[6.3正则化]] | ||
+ | *[[6.4算法参数]] | ||
+ | ==第7章 决策树== | ||
+ | *[[7.1算法原理]] | ||
+ | *[[7.2算法参数]] | ||
+ | *[[7.3算法集合]] | ||
+ | ==第8章 支持向量机== | ||
+ | *[[8.1算法原理]] | ||
+ | *[[8.2核函数]] | ||
+ | *[[8.3scikit-learn里的svm]] | ||
+ | ==第9章 朴素贝叶斯算法== | ||
+ | *[[9.1算法原理]] | ||
+ | *[[9.2概率分布]] | ||
+ | *[[9.3连续值的处理]] | ||
+ | ==第10章 pca算法== | ||
+ | *[[10.1算法原理]] | ||
+ | *[[10.2算法示例]] | ||
+ | *[[10.3pca的数据还原率及应用]] | ||
+ | *[[10.4人脸识别实例]] | ||
+ | ==第11章 K-均值算法== | ||
+ | *[[11.1算法原理]] | ||
+ | *[[11.2scikit-learn里的k-均值算法]] | ||
+ | *[[11.3使用k-均值对文档进行聚类分析]] | ||
+ | *[[11.4聚类算法性能评估] | ||
+ | *[[3.5 算法模型性能优化]] | ||
+ | *[[3.6 查准率和召回率]] | ||
+ | *[[3.7 F1 Score]] |
2018年5月25日 (五) 10:52的版本
目录
机器学习的准备工作
环境的安装搭建
第1章 机器学习介绍
机器学习的典型步骤
- 数据标记和采集
- 数据清洗
- 特征选择
- 模型训练和测试
- 模型性能评估和优化
第2章 Python机器学习软件包
开发环境搭建
第3章 机器学习理论基础
第4章 K-近邻算法
- 算法简介
K最近邻(k-Nearest Neighbour,KNN)分类算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该方法的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。 用官方的话来说,所谓K近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例(也就是上面所说的K个邻居), 这K个实例的多数属于某个类,就把该输入实例分类到这个类中。