“AI Red”的版本间的差异
来自CloudWiki
(→第4章 K-近邻算法) |
|||
第29行: | 第29行: | ||
*[[3.7 F1 Score]] | *[[3.7 F1 Score]] | ||
==第4章 K-近邻算法== | ==第4章 K-近邻算法== | ||
+ | *[算法简介] | ||
+ | K最近邻(k-Nearest Neighbour,KNN)分类算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该方法的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。 | ||
+ | 用官方的话来说,所谓K近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例(也就是上面所说的K个邻居), 这K个实例的多数属于某个类,就把该输入实例分类到这个类中。 | ||
*[[4.1 算法原理]] | *[[4.1 算法原理]] | ||
*[[4.2 实例:使用 K-近邻算法进行分类]] | *[[4.2 实例:使用 K-近邻算法进行分类]] |
2018年5月25日 (五) 10:37的版本
目录
机器学习的准备工作
环境的安装搭建
第1章 机器学习介绍
机器学习的典型步骤
- 数据标记和采集
- 数据清洗
- 特征选择
- 模型训练和测试
- 模型性能评估和优化
第2章 Python机器学习软件包
开发环境搭建
第3章 机器学习理论基础
第4章 K-近邻算法
- [算法简介]
K最近邻(k-Nearest Neighbour,KNN)分类算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该方法的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。 用官方的话来说,所谓K近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例(也就是上面所说的K个邻居), 这K个实例的多数属于某个类,就把该输入实例分类到这个类中。