scikit-learn学习基础知识二
一、介绍
本文我们学习scikit-learn中的KNeighborRegressor函数来实现KNN回归进行分类的案例。
二、代码实现
"""
K-NN
KNN的一个案例。
KNN一个预测的案例以及进行打分的内容。
"""
import numpy as np
from sklearn.neighbors import KNeighborsRegressor
from sklearn.metrics import mean_absolute_error, mean_squared_error, r2_score
X_train = np.array([[158, 1], [170, 1], [183, 1], [191, 1], [155, 0], [163, 0], [180, 0], [158, 0], [170, 0]])
y_train = [64, 86, 84, 80, 49, 59, 67, 54, 67]
X_test = np.array([[168, 1], [180, 1], [160, 0], [169, 0]])
y_test = [65, 96, 52, 67]
K = 3
clf = KNeighborsRegressor(n_neighbors=K)
clf.fit(X_train, y_train)
# 训练模型。
predictions = clf.predict(X_test)
# 进行预测。
print(predictions)
print(r2_score(y_test, predictions))
# 打分。
print(mean_absolute_error(y_test, predictions))
print(mean_squared_error(y_test, predictions))
# 误差。
"""
运行结果。
[70.66666667 79. 59. 70.66666667]
0.6290565226735438
8.333333333333336
95.8888888888889
"""
三、运行结果
[70.66666667 79. 59. 70.66666667]
0.6290565226735438
8.333333333333336
95.8888888888889
四、总结
以上就是使用KNeighborRegressor函数来实现KNN邻近算法的阿里,谢谢大家的阅读与支持啦。