Keras中函数用法

来源:互联网 发布:spss数据转换正态分布 编辑:程序博客网 时间:2024/05/21 17:21
from keras.models import Sequential  from keras.layers import Dense, Dropout, Activation, Flatten  from keras.layers.convolutional import Conv2D  from keras.layers.pooling import MaxPooling2D  from keras.layers import Embedding, LSTM  from keras.utils import np_utils  from keras.datasets import mnist 

激活函数有如下几种类型可选:

softmax、elu、softplus、softsign、relu、tanh、sigmoid、hard_sigmoid、linear
1、Dense(全连接层)

keras.layers.core.Dense ( units, activation=None, use_bias=True, kernel_initializer='glorot_uniform', bias_initializer='zeros', kernel_regularizer=None, bias_regularizer=None, activity_regularizer=None, kernel_constraint=None, bias_constraint=None  ) 
units:大于0的整数,代表该层的输出维度。activation:激活函数,为预定义的激活函数名(参考激活函数),或逐元素(element-wise)的Theano函数。如果不指定该参数,将不会使用任何激活函数(即使用线性激活函数:a(x)=x)use_bias: 布尔值,是否使用偏置项kernel_initializer:权值初始化方法,为预定义初始化方法名的字符串,或用于初始化权重的初始化器。参考initializersbias_initializer:权值初始化方法,为预定义初始化方法名的字符串,或用于初始化权重的初始化器。参考initializerskernel_regularizer:施加在权重上的正则项,为Regularizer对象bias_regularizer:施加在偏置向量上的正则项,为Regularizer对象activity_regularizer:施加在输出上的正则项,为Regularizer对象kernel_constraints:施加在权重上的约束项,为Constraints对象bias_constraints:施加在偏置上的约束项,为Constraints对象input_dim:可以指定输入数据的维度

2、Conv2D (卷积层)

keras.layers.convolutional.Conv2D(filters, kernel_size, strides=(1,1), padding='valid', data_format=None, dilation_rate=(1,1),activation=None, use_bias=True, kernel_initializer='glorot_uniform', bias_initializer='zeros', kernel_regularizer=None, bias_regularizer=None, activity_regularizer=None, kernel_constraint=None,bias_constraint=None, input_shape = (rows,cols,channels) )  
filters:卷积核的数目(即输出的维度)kernel_size:单个整数或由两个整数构成的list/tuple,卷积核的宽度和长度。如为单个整数,则表示在各个空间维度的相同长度。strides:单个整数或由两个整数构成的list/tuple,为卷积的步长。如为单个整数,则表示在各个空间维度的相同步长。任何不为1的strides均与任何不为1的dilation_rata均不兼容padding:补0策略,为“valid”, “same” 。“valid”代表只进行有效的卷积,即对边界数据不处理。“same”代表保留边界处的卷积结果,通常会导致输出shape与输入shape相同。activation:激活函数,为预定义的激活函数名(参考激活函数),或逐元素(element-wise)的Theano函数。如果不指定该参数,将不会使用任何激活函数(即使用线性激活函数:a(x)=x)dilation_rate:单个整数或由两个个整数构成的list/tuple,指定dilated convolution中的膨胀比例。任何不为1的dilation_rata均与任何不为1的strides均不兼容。data_format:字符串,“channels_first”或“channels_last”之一,代表图像的通道维的位置。该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。use_bias:布尔值,是否使用偏置项kernel_initializer:权值初始化方法,为预定义初始化方法名的字符串,或用于初始化权重的初始化器。参考initializersbias_initializer:权值初始化方法,为预定义初始化方法名的字符串,或用于初始化权重的初始化器。参考initializerskernel_regularizer:施加在权重上的正则项,为Regularizer对象bias_regularizer:施加在偏置向量上的正则项,为Regularizer对象activity_regularizer:施加在输出上的正则项,为Regularizer对象kernel_constraints:施加在权重上的约束项,为Constraints对象bias_constraints:施加在偏置上的约束项,为Constraints对象

3、MaxPooling2D(池化层)

keras.layers.pooling.MaxPooling2D( pool_size=(2, 2), strides=None, padding='valid', data_format=None )  
pool_size:整数或长为2的整数tuple,代表在两个方向(竖直,水平)上的下采样因子,如取(22)将使图片在两个维度上均变为原长的一半。为整数意为各个维度值相同且为该数字。strides:整数或长为2的整数tuple,或者None,步长值。padding:‘valid’或者‘same’data_format:字符串,“channels_first”或“channels_last”之一,代表图像的通道维的位置。该参数是Keras 1.x中的image_dim_ordering,“channels_last”对应原本的“tf”,“channels_first”对应原本的“th”。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。

4、Embedding(嵌入层)

keras.layers.embeddings.Embedding( input_dim, output_dim, embeddings_initializer='uniform', embeddings_regularizer=None, activity_regularizer=None, embeddings_constraint=None, mask_zero=False, input_length=None) 
作用:嵌入层将正整数(下标)转换为具有固定大小的向量,如[[4],[20]]->[[0.25,0.1],[0.6,-0.2]]。Embedding层只能作为模型的第一层。input_dim:大或等于0的整数,字典长度,即输入数据最大下标+1,就是矩阵中的最大值output_dim:大于0的整数,代表全连接嵌入的维度embeddings_initializer: 嵌入矩阵的初始化方法,为预定义初始化方法名的字符串,或用于初始化权重的初始化器。参考initializersembeddings_regularizer: 嵌入矩阵的正则项,为Regularizer对象embeddings_constraint: 嵌入矩阵的约束项,为Constraints对象mask_zero:布尔值,确定是否将输入中的‘0’看作是应该被忽略的‘填充’(padding)值,该参数在使用递归层处理变长输入时有用。设置为True的话,模型中后续的层必须都支持masking,否则会抛出异常。如果该值为True,则下标0在字典中不可用,input_dim应设置为|vocabulary| + 2。input_length:当输入序列的长度固定时,该值为其长度。如果要在该层后接Flatten层,然后接Dense层,则必须指定该参数,否则Dense层的输出维度无法自动推断。关于embeding作用的详细介绍:http://spaces.ac.cn/archives/4122/比如说我的测试:[ batch,200 ]的训练数据 ,数据类型为int型 最大不超过4000。期望的输出为[ batch,32*200 ](其中32含义是每个int或者单词id转换成32维的词向量)。
model.add( Embedding(input_dim=4000, output_dim=32,input_length=200) )  #生成中间矩阵大小为[batch,200,32]  model.add( Flatten() )  

5、LSTM (长短时记忆)

keras.layers.recurrent.LSTM(units, activation='tanh', recurrent_activation='hard_sigmoid', use_bias=True, kernel_initializer='glorot_uniform', recurrent_initializer='orthogonal', bias_initializer='zeros', unit_forget_bias=True, kernel_regularizer=None, recurrent_regularizer=None, bias_regularizer=None, activity_regularizer=None, kernel_constraint=None, recurrent_constraint=None, bias_constraint=None, dropout=0.0, recurrent_dropout=0.0)  
units:输出维度activation:激活函数,为预定义的激活函数名(参考激活函数)recurrent_activation: 为循环步施加的激活函数(参考激活函数)use_bias: 布尔值,是否使用偏置项return_sequences:=True时,返回(None,timesteps,output_dim);=False时,返回(None,output_dim)kernel_initializer:权值初始化方法,为预定义初始化方法名的字符串,或用于初始化权重的初始化器。参考initializersrecurrent_initializer:循环核的初始化方法,为预定义初始化方法名的字符串,或用于初始化权重的初始化器。参考initializersbias_initializer:权值初始化方法,为预定义初始化方法名的字符串,或用于初始化权重的初始化器。参考initializerskernel_regularizer:施加在权重上的正则项,为Regularizer对象bias_regularizer:施加在偏置向量上的正则项,为Regularizer对象recurrent_regularizer:施加在循环核上的正则项,为Regularizer对象activity_regularizer:施加在输出上的正则项,为Regularizer对象kernel_constraints:施加在权重上的约束项,为Constraints对象recurrent_constraints:施加在循环核上的约束项,为Constraints对象bias_constraints:施加在偏置上的约束项,为Constraints对象dropout:0~1之间的浮点数,控制输入线性变换的神经元断开比例recurrent_dropout:0~1之间的浮点数,控制循环状态的线性变换的神经元断开比例

9、compile(编译模型)

model.compile(optimizer, loss, metrics=None, sample_weight_mode=None)  
编译用来配置模型的学习过程,其参数有optimizer:字符串(预定义优化器名)或优化器对象,参考优化器 loss:字符串(预定义损失函数名)或目标函数,参考损失函数metrics:列表,包含评估模型在训练和测试时的网络性能的指标,典型用法是metrics=['accuracy']sample_weight_mode:如果你需要按时间步为样本赋权(2D权矩阵),将该值设为“temporal”。默认为“None”,代表按样本赋权(1D权)。在下面fit函数的解释中有相关的参考内容。kwargs:使用TensorFlow作为后端请忽略该参数,若使用Theano作为后端,kwargs的值将会传递给 K.function
model.compile( loss='categorical_crossentropy', optimizer='adam',metrics=['accuracy'] )  

10、fit

fit(self, x, y, batch_size=32, epochs=10, verbose=1, callbacks=None, validation_split=0.0,validation_data=None, shuffle=True, class_weight=None, sample_weight=None, initial_epoch=0 )  
x:输入数据。如果模型只有一个输入,那么x的类型是numpy array,如果模型有多个输入,那么x的类型应当为listlist的元素是对应于各个输入的numpy arrayy:标签,numpy arraybatch_size:整数,指定进行梯度下降时每个batch包含的样本数。训练时一个batch的样本会被计算一次梯度下降,使目标函数优化一步。epochs:整数,训练的轮数,每个epoch会把训练集轮一遍。verbose:日志显示,0为不在标准输出流输出日志信息,1为输出进度条记录,2为每个epoch输出一行记录callbacks:list,其中的元素是keras.callbacks.Callback的对象。这个list中的回调函数将会在训练过程中的适当时机被调用,参考回调函数validation_split:0~1之间的浮点数,用来指定训练集的一定比例数据作为验证集。验证集将不参与训练,并在每个epoch结束后测试的模型的指标,如损失函数、精确度等。注意,validation_split的划分在shuffle之前,因此如果你的数据本身是有序的,需要先手工打乱再指定validation_split,否则可能会出现验证集样本不均匀。validation_data:形式为(X,y)的tuple,是指定的验证集。此参数将覆盖validation_spilt。shuffle:布尔值或字符串,一般为布尔值,表示是否在训练过程中随机打乱输入样本的顺序。若为字符串“batch”,则是用来处理HDF5数据的特殊情况,它将在batch内部将数据打乱。class_weight:字典,将不同的类别映射为不同的权值,该参数用来在训练过程中调整损失函数(只能用于训练)sample_weight:权值的numpy array,用于在训练时调整损失函数(仅用于训练)。可以传递一个1D的与样本等长的向量用于对样本进行11的加权,或者在面对时序数据时,传递一个的形式为(samples,sequence_length)的矩阵来为每个时间步上的样本赋不同的权。这种情况下请确定在编译模型时添加了sample_weight_mode='temporal'。initial_epoch: 从该参数指定的epoch开始训练,在继续之前的训练时有用。
原创粉丝点击