scikit-learn学习基础知识三
一、贝叶斯回归
"""
线性模型有很多,我们之前有过简单线性回归以及岭回归,
由于线性模型数目众多,无法直接学完,因此,主要学习重点的内容。
前面学过了简单线性回归以及岭回归,后面选择重点内容进行学习。
"""
"""
贝叶斯回归(贝叶斯岭回归)
"""
from sklearn import linear_model
# 贝叶斯岭回归
X = [[0., 0.], [1., 1.], [2., 2.], [3., 3.]]
Y = [0., 1., 2., 3.]
# data
reg = linear_model.BayesianRidge() # 贝叶斯岭回归
# 实例化
reg.fit(X, Y)
# 贝叶斯岭回归
# 贝叶斯岭回归
# c
print(reg.predict([[1,0]]))
# [0.50000013]
print(reg.coef_)
# [0.49999993 0.49999993]
# [0.50000013]
# [0.49999993 0.49999993]
# PS E:\1\Documents\PyTorch> & C:/Users/1/AppData/Local/Programs/Python/Python38/python.exe e:/1/Documents/PyTorch/pytorch/others/sklearn/sklearn_learning/sklearn_learning5.py
# [0.50000013]
# [0.49999993 0.49999993]
# PS E:\1\Documents\PyTorch>
二、逻辑回归与多项式回归
"""
Logistic Regression.
逻辑回归
这个暂时没有应用的案例,后续有了会进行补充的。
"""
"""
多项式回归。
一个多项式回归的例子:
"""
from sklearn.linear_model import Perceptron
from sklearn.preprocessing import PolynomialFeatures
import numpy as np
X = np.array([[0, 0], [0, 1], [1, 0], [1, 1]])
y = X[:, 0] ^ X[:, 1]
X = PolynomialFeatures(interaction_only=True).fit_transform(X).astype(int)
clf = Perceptron(fit_intercept=False, max_iter=10, tol=None, shuffle=False).fit(X, y)
print(clf.predict(X))
print(clf.score(X, y))
# [0 1 1 0]
# 1.0
# PS E:\1\Documents\PyTorch> & C:/Users/1/AppData/Local/Programs/Python/Python38/python.exe e:/1/Documents/PyTorch/pytorch/others/sklearn/sklearn_learning/sklearn_learning6.py
# [0 1 1 0]
# 1.0
# PS E:\1\Documents\PyTorch>
三、总结
以上就是贝叶斯回归,逻辑回归,多项式回归,谢谢大家的阅读与支持了啦。