scikit-learn进行模型参数的选择
来源:互联网 发布:手机做微课用什么软件 编辑:程序博客网 时间:2024/05/29 08:06
这一节我们介绍以下几个内容:
- 我们该怎样选择模型用于监督学习任务?
- 我们该如何选择调整得到最好的模型参数?
- 我们该如何对测试数据进行预测估计?
1. 使用整个数据集进行训练和测试
- 这里我们使用手中的整个数据集来训练模型
- 使用同样的数据集来测试模型,然后评估预测的结果和真实结果的差别
from sklearn.datasets import load_irisiris = load_iris()# create X(features) and y(response)X = iris.datay = iris.target
Logistic regression
from sklearn.linear_model import LogisticRegressionlogreg = LogisticRegression()logreg.fit(X, y)y_pred = logreg.predict(X)print "predicted response:\n",y_pred
len(y_pred)
分类准确率
现在我们需要使用一种度量方式来评价我们的模型的运行情况,我们使用正确预测的比例来作为评估的度量(evaluation metric)。
from sklearn import metricsprint metrics.accuracy_score(y, y_pred)
以上说明对于训练的数据,我们有96%的数据预测正确。这里我们使用相同的数据来训练和预测,使用的度量称其为训练准确度。
KNN(K=5)
from sklearn.neighbors import KNeighborsClassifierknn5 = KNeighborsClassifier(n_neighbors=5)knn5.fit(X, y)y_pred = knn5.predict(X)print metrics.accuracy_score(y, y_pred)
KNN(K=1)
knn1 = KNeighborsClassifier(n_neighbors=1)knn1.fit(X, y)y_pred = knn1.predict(X)print metrics.accuracy_score(y, y_pred)
上面我们得到了训练准确度为100%的模型,貌似得到了最好的模型和参数。但我们回想一下KNN算法的原理,KNN算法寻找训练数据中的K个最近的数据,它使用指向最多的那个类别来作为预测的输出。
这下我们就明白了为什么当K=1的时候KNN算法的训练准确度为1,KNN会查找在训练数据集中的最近的观测,训练得到的模型会在相同的数据集中找到相同的观测。换句话说,KNN算法已经记住了训练数据集,因为我们使用同样的数据作为测试的数据。
小结
我们要明确训练模型的目的是得到对于未来的观测数据的良好的预测性能,如果我们只是试图最大化训练的准确率,很有可能得到的是针对训练数据的过于复杂的模型,这种模型不具有很好的泛化能力,也就是说对于未知数据的预测得不到很好的性能。
构建没有必要的过于复杂的模型被称作过拟合。这样的模型过分地拟合噪声数据,胜过去拟合信号数据。在KNN模型中,小K值的模型会生成复杂度很高的模型,因为它跟随数据中的噪声。
下面这个是过拟合的一幅图像:这里绿色的分割线努力去学习噪声的规律,而不像黑色的分割线去学习数据信号的规律,这样对比之下,黑色的线的泛化能力应该更好。
2. 分别设置训练集和测试集
- 将数据集分成两部分:训练集和测试集
- 使用训练集对模型进行训练
- 使用测试集进行模型的测试并评估性能如何
print X.shapeprint y.shape
# 第一步:将X和y分割成训练和测试集from sklearn.cross_validation import train_test_splitX_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.4, random_state=4)# 这里的random_state参数根据给定的给定的整数,得到伪随机生成器的随机采样
上面这个图告诉我们train_test_split函数的功能,将一个数据集分成两部分。这样使用不同的数据集对模型进行分别的训练和测试,得到的测试准确率能够更好的估计模型对于未知数据的预测效果。
这里测试数据的大小没有统一的标准,一般选择数据集的20%-40%作为测试数据。
print X_train.shapeprint X_test.shape
print y_train.shapeprint y_test.shape
# 第二步:使用训练数据训练模型logreg = LogisticRegression()logreg.fit(X_train, y_train)
# 第三步: 针对测试数据进行预测,并得到测试准确率y_pred = logreg.predict(X_test)print metrics.accuracy_score(y_test, y_pred)# 可以尝试一下,对于上面不同数据集分割,得到的测试准确率不同
使用KNN算法
# K=5knn5 = KNeighborsClassifier(n_neighbors=5)knn5.fit(X_train, y_train)y_pred = knn5.predict(X_test)print metrics.accuracy_score(y_test, y_pred)
# K=1knn1 = KNeighborsClassifier(n_neighbors=1)knn1.fit(X_train, y_train)y_pred = knn1.predict(X_test)print metrics.accuracy_score(y_test, y_pred)
我们能找到一个比较好的K值吗?
# 测试从K=1到K=25,记录测试准确率k_range = range(1, 26)test_accuracy = []for k in k_range: knn = KNeighborsClassifier(n_neighbors=k) knn.fit(X_train, y_train) y_pred = knn.predict(X_test) test_accuracy.append(metrics.accuracy_score(y_test, y_pred))
%matplotlib inlineimport matplotlib.pyplot as pltplt.plot(k_range, test_accuracy)plt.xlabel("Value of K for KNN")plt.ylabel("Testing Accuracy")
模型参数的选择
在这里,我们选择K的值为11,因为在K=11时,有较高的测试准确率。
# 这里我们对未知数据进行预测knn11 = KNeighborsClassifier(n_neighbors=11)knn11.fit(X, y)knn11.predict([3, 5, 4, 2])
小结
- KNN的模型复杂度主要由K的值决定,K值越小,复杂度越高
- 训练准确度随着模型复杂度更加复杂而升高
- 测试准确率在模型过于复杂和过于简单的时候都比较低
这种分割训练和测试数据集的模型评估流程的缺点是:这种方式会导致待预测数据(out-of-sample)估计准确率的方差过高。因为这种方式过于依赖训练数据和测试数据在数据集中的选择方式。一种克服这种的缺点的模型评估流程称为K折交叉验证,这种方法通过多次反复分割训练、测试集,对结果进行平均。
3. K折交叉检验
K折将数据集分成K个部分,其中K-1组数据作为构建预测函数的训练之用,剩余的一组数据作为测试之用。
from sklearn.cross_validation import KFoldimport numpy as npdef cv_estimate(k, kfold=5): cv = KFold(n = X.shape[0], n_folds=kfold) clf = KNeighborsClassifier(n_neighbors=k) score = 0 for train, test in cv: clf.fit(X[train], y[train]) score += clf.score(X[test], y[test]) #print clf.score(X[test], y[test]) score /= kfold return score
# 测试从K=1到K=25,记录测试准确率k_range = range(1, 26)test_accuracy = []for k in k_range: test_accuracy.append(cv_estimate(k, 5))
print test_accuracy
plt.plot(k_range, test_accuracy)plt.xlabel("Value of K for KNN")plt.ylabel("Average Accuracy of Kfold CV")
【scikit-learn】如何进行模型参数的选择
- scikit-learn进行模型参数的选择
- 【scikit-learn】如何进行模型参数的选择
- 【scikit-learn】如何进行模型参数的选择
- 【scikit-learn】交叉验证及其用于参数选择、模型选择、特征选择的例子
- 【scikit-learn】交叉验证及其用于参数选择、模型选择、特征选择的例子
- 【scikit-learn】交叉验证及其用于参数选择、模型选择、特征选择的例子
- scikit-learn中交叉验证及其用于参数选择、模型选择、特征选择的例子
- 【Scikit-Learn 中文文档】模型选择:选择估计量及其参数
- 【Scikit-Learn 中文文档】模型选择:选择估计量及其参数
- 【Scikit-Learn 中文文档】模型选择:选择估计量及其参数
- 【Scikit-Learn 中文文档】模型选择:选择估计量及其参数
- 【Scikit-Learn 中文文档】模型选择:选择估计量及其参数
- 【Scikit-Learn 中文文档】模型选择:选择估计量及其参数
- 【Scikit-Learn 中文文档】四十六:模型选择:选择估计量及其参数
- 【Scikit-Learn 中文文档】模型选择:选择估计量及其参数
- 【Scikit-Learn 中文文档】模型选择:选择估计量及其参数
- 【Scikit-Learn 中文文档】模型选择:选择估计量及其参数
- 【Scikit-Learn 中文文档】模型选择:选择估计量及其参数
- 如何设计一个数据库中间件(支持百亿级别数据存储)
- SqlSever安装遇到的问题
- Kali下载
- android——Seneor(获得数据值流程以及同时监听多个sensor)
- 第11周阅读程序写出执行结果1(2)
- scikit-learn进行模型参数的选择
- Implement Trie (Prefix Tree)
- Spring Boot的POM文件
- leetcode 088 Merge Sorted Array
- 1012
- Android进程间通信
- 【设计模式C++】单例模式
- 【《OpenCV3编程入门》内容简介&勘误&配套源代码下载
- 第1章 概述