Keras:2.2搭建分类神经网络
来源:互联网 发布:2018年禁止网络直播 编辑:程序博客网 时间:2024/06/01 09:11
- Keras22搭建分类神经网络Classifier
- 任务综述
- 数据预处理
- 建立神经网络
- 1网络结构
- 2优化器
- 3激活模型
- 训练网络
- 测试模型
- 代码总结带自己注释
Keras:2.2搭建分类神经网络Classifier
0 任务综述
今天用 Keras 来构建一个分类神经网络,用到的数据集是 MNIST,就是 0 到 9 这几个数字的图片数据集。
如图:
Keras 自身就有 MNIST 这个数据包,再分成训练集和测试集。x 是一张张图片,y 是每张图片对应的标签,即它是哪个数字。
下面开始任务:首先是导入必要的包
import numpy as npnp.random.seed(1337) # for reproducibilityfrom keras.datasets import mnistfrom keras.utils import np_utilsfrom keras.models import Sequentialfrom keras.layers import Dense, Activationfrom keras.optimizers import RMSprop
- models.Sequential,用来一层一层一层的去建立神经层;
- layers.Dense 意思是这个神经层是全连接层。
- layers.Activation 激励函数。
- optimizers.RMSprop 优化器采用 - RMSprop,加速神经网络训练方法。
1 数据预处理
首先装载需要的数据:
# download the mnist to the path '~/.keras/datasets/' 如果第一次运行,程序会自动去网上下载(X_train, y_train), (X_test, y_test) = mnist.load_data()# 数据的格式: X shape (60,000 28x28), y shape (10,000)
但是我们想预处理数据,使之更好用。
1. 对于X来说:
我们将其3维变2维((60000,28,28)变(60000,784)):X_train.reshape(X_train.shape[0], -1)
(这里-1的意思是:懒的写维度,np自己计算去)
再归一化:/ 255.
- 对于Y来说
我们将其1x1维,变为1x10维。one-hot
数据预处理代码如下:
# data pre-processingX_train = X_train.reshape(X_train.shape[0], -1) / 255. # normalizeX_test = X_test.reshape(X_test.shape[0], -1) / 255. # normalizey_train = np_utils.to_categorical(y_train, num_classes=10)y_test = np_utils.to_categorical(y_test, num_classes=10)print(X_train[1].shape)"""(784,)"""print(y_train[:3])"""[[ 0. 0. 0. 0. 0. 1. 0. 0. 0. 0.] [ 1. 0. 0. 0. 0. 0. 0. 0. 0. 0.] [ 0. 0. 0. 0. 1. 0. 0. 0. 0. 0.]]"""
2 建立神经网络
2.1网络结构
在回归网络中用到的是 model.add 一层一层添加神经层,今天的方法是直接在模型的里面加多个神经层。好比一个水管,一段一段的,数据是从上面一段掉到下面一段,再掉到下面一段。
第一段就是加入 Dense 神经层。32 是输出的维度,784 是输入的维度。 第一层传出的数据有 32 个 feature,传给激励单元,激励函数用到的是 relu 函数。 经过激励函数之后,就变成了非线性的数据。
然后再把这个数据传给下一个神经层,这个 Dense 我们定义它有 10 个输出的 feature。同样的,此处不需要再定义输入的维度,因为它接收的是上一层的输出。 接下来再输入给下面的 softmax 函数,用来分类。
# 另外一种创建模型的方法model = Sequential([ Dense(32, input_dim=784), Activation('relu'), Dense(10), Activation('softmax'),])
2.2优化器
接下来用 RMSprop 作为优化器,它的参数包括学习率等,可以通过修改这些参数来看一下模型的效果。
# Another way to define your optimizerrmsprop = RMSprop(lr=0.001, rho=0.9, epsilon=1e-08, decay=0.0)
2.3激活模型
接下来用 model.compile 激励神经网络。
优化器,可以是默认的,也可以是我们在上一步定义的。 损失函数,分类和回归问题的不一样,用的是交叉熵。 metrics,里面可以放入需要计算的 cost,accuracy,score 等。
# We add metrics to get more results you want to see# 我们添加指标以获得更多您想要查看的结果model.compile(optimizer=rmsprop, loss='categorical_crossentropy', metrics=['accuracy'])
3 训练网络
这里用到的是 fit 函数,把训练集的 x 和 y 传入之后,epoch,训练的轮数, 表示把整个数据训练多少次,batch_size 每批处理32个。
print('Training ------------')# Another way to train the modelmodel.fit(X_train, y_train, epoch=2, batch_size=32)"""Training ------------Epoch 1/260000/60000 [==============================] - 2s - loss: 0.3506 - acc: 0.9025 Epoch 2/260000/60000 [==============================] - 2s - loss: 0.1995 - acc: 0.9421 """
4 测试模型
接下来就是用测试集来检验一下模型,方法和回归网络中是一样的,运行代码之后,可以输出 accuracy 和 loss。
print('\nTesting ------------')# Evaluate the model with the metrics we defined earlierloss, accuracy = model.evaluate(X_test, y_test)print('test loss: ', loss)print('test accuracy: ', accuracy)"""Testing ------------ 9760/10000 [============================>.] - ETA: 0stest loss: 0.1724540345test accuracy: 0.9489"""
5 代码总结(带自己注释)
代码光看不行,必须自己敲一遍:
import numpy as npnp.random.seed(1337) # 让每次的随机数相似from keras.datasets import mnist # 数据集合from keras.utils import np_utils # keras自带的numpyfrom keras.models import Sequentialfrom keras.layers import Dense, Activationfrom keras.optimizers import RMSprop## 1 数据预处理# download the mnist to the path '~/.keras/datasets/' if it is the first time to be called# X shape (60,000 28x28), y shape (10,000, )(X_train, y_train), (X_test, y_test) = mnist.load_data()# 我们将X3维变2维X_train = X_train.reshape(X_train.shape[0],-1)/255.X_test = X_test.reshape(X_test.shape[0],-1)/255.# 将Y进行one-hot化y_train = np_utils.to_categorical(y_train,10)y_test = np_utils.to_categorical(y_test,10)print(X_train.shape)print(y_train[:2])## 2 建立模型model = Sequential([ Dense(32,input_dim=784), Activation('relu'), Dense(10), Activation('softmax'),])# 自己定制 优化器rmsprop = RMSprop(lr=0.001,rho=0.9,epsilon=1e-8,decay=0.0)# 激活神经网络model.compile(optimizer=rmsprop, loss='categorical_crossentropy', metrics=['accuracy'])## 3 训练模型print('Training----------------')model.fit(X_train,y_train,epochs=2,batch_size=32)## 4测试模型print('\ntesting---------------------')loss,accuracy = model.evaluate(X_test,y_test)print('test loss:',loss)print('test accuracy:',accuracy)
- Keras:2.2搭建分类神经网络
- keras —— 30秒搭建神经网络
- 使用Keras构建神经网络进行Mnist手写字体分类
- Keras框架神经网络算法训练MNIST分类准确率(实验)
- [深度学习框架] Keras上使用神经网络进行mnist分类
- 用Keras搭建, 编译和训练神经网络时,常见问题
- 用Keras搭建, 编译和训练神经网络时,常见问题
- Keras学习笔记01——快速搭建神经网络结构
- 对比学习用 Keras 搭建 CNN RNN 等常用神经网络
- 利用tensorflow keras搭建一个简单的卷积神经网络
- 【Iris】【Keras】神经网络分类器和【scikit-learn】逻辑回归分类器的构建
- Keras(2):使用Keras构建神经网络进行Mnist手写字体分类,并定性分析各种超参数的影响
- [神经网络]keras中的层
- keras 实现BP神经网络
- Keras实现卷积神经网络
- # Keras:2.1 回归神经网络
- 【Keras】DNN神经网络模型
- Keras:2.3 keras实现卷积神经网络
- PHP 7 的革新与性能优化
- 设计模式之策略模式
- Linux kernel中断子系统之(五):驱动申请中断API
- 序列化SerializedField
- 海康摄像头实时显示与字符叠加详解
- Keras:2.2搭建分类神经网络
- luogu1149【2008提高】火柴棒等式(模拟)
- #NOIP模拟赛#同色齿轮问题(Hungary最大匹配 or 网络流)
- 面向对象编程思想-访问者模式
- LightOJ 1348 Aladdin and the Return Journey【树链剖分入门题】
- iOS 应用闪退的原因
- OSI七层与TCP/IP五层网络架构详解
- RGB颜色对照表(全)
- 每个商家都能用得起的客流统计系统,中科每时每客助力线下零售