htnl5 做的视频网站,东莞网站设计服务,北京网站建站系统平台,格子网wordpress主题k-NN算法最简单的版本是只考虑一个最近邻#xff0c;也就是想要预测的数据点最近的训练数据点#xff0c;预测结果就是这个训练数据点的已知输出。
除了仅考虑最近邻#xff0c;还可以考虑任意#xff08;k个#xff09;邻居#xff0c;这也是k近邻算法名字的由来。在考…k-NN算法最简单的版本是只考虑一个最近邻也就是想要预测的数据点最近的训练数据点预测结果就是这个训练数据点的已知输出。
除了仅考虑最近邻还可以考虑任意k个邻居这也是k近邻算法名字的由来。在考虑多余一个邻居的情况时用‘投票法’来制定标签也就是对于每个测试点计算多少个邻居属于类别0、多少个属于类别1然后将次数更多的类别作为预测结果。
import mglearn.datasets
import numpy as np
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.neighbors import KNeighborsClassifierX,ymglearn.datasets.make_forge()
iris_datasetload_iris()
X_train,X_test,y_train,y_testtrain_test_split(iris_dataset[data],iris_dataset[target],random_state0
)
clfKNeighborsClassifier(n_neighbors1)
clf.fit(X_train,y_train)
print(Test score:{:.2f}.format(clf.score(X_test,y_test)))