“AI Red”的版本间的差异
来自CloudWiki
(→第4章 K-近邻算法) |
(→第4章 K-近邻算法) |
||
第33行: | 第33行: | ||
用官方的话来说,所谓K近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例(也就是上面所说的K个邻居), 这K个实例的多数属于某个类,就把该输入实例分类到这个类中。 | 用官方的话来说,所谓K近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例(也就是上面所说的K个邻居), 这K个实例的多数属于某个类,就把该输入实例分类到这个类中。 | ||
*[[4.1 算法原理]] | *[[4.1 算法原理]] | ||
+ | K近邻法(k-nearst neighbors,KNN)是一种很基本的机器学习方法了,在我们平常的生活中也会不自主的应用。比如,我们判断一个人的人品,只需要观察他来往最密切的几个人的人品好坏就可以得出了。这里就运用了KNN的思想。KNN方法既可以做分类,也可以做回归,这点和决策树算法相同。 | ||
*[[4.2 实例:使用 K-近邻算法进行分类]] | *[[4.2 实例:使用 K-近邻算法进行分类]] | ||
*[[4.3 实例:使用 K-近邻算法进行回归拟合]] | *[[4.3 实例:使用 K-近邻算法进行回归拟合]] | ||
*[[4.4 实例:糖尿病预测]] | *[[4.4 实例:糖尿病预测]] | ||
*[[4.5 拓展阅读]] | *[[4.5 拓展阅读]] |
2018年5月25日 (五) 10:43的版本
目录
机器学习的准备工作
环境的安装搭建
第1章 机器学习介绍
机器学习的典型步骤
- 数据标记和采集
- 数据清洗
- 特征选择
- 模型训练和测试
- 模型性能评估和优化
第2章 Python机器学习软件包
开发环境搭建
第3章 机器学习理论基础
第4章 K-近邻算法
- 算法简介
K最近邻(k-Nearest Neighbour,KNN)分类算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该方法的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。 用官方的话来说,所谓K近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例(也就是上面所说的K个邻居), 这K个实例的多数属于某个类,就把该输入实例分类到这个类中。
K近邻法(k-nearst neighbors,KNN)是一种很基本的机器学习方法了,在我们平常的生活中也会不自主的应用。比如,我们判断一个人的人品,只需要观察他来往最密切的几个人的人品好坏就可以得出了。这里就运用了KNN的思想。KNN方法既可以做分类,也可以做回归,这点和决策树算法相同。