TensorFlow 笔记(三):多层 LSTM代码详细介绍

来源:互联网 发布:网络销售是不是传销 编辑:程序博客网 时间:2024/05/18 01:59


之前讲过了tensorflow中CNN的示例代码,现在我们来看RNN的代码。不过好像官方只给了LSTM的代码。那么我们就来看LSTM吧。

坦白说,这份写LSTM的代码有点难,倒不是说LSTM的原理有多难,而是这份代码中使用了大量tf提供的现成的操作函数。在精简了代码的同时,也增加了初学者阅读的难度。很多函数的用法我是去看源码,然后自己写示例代码才搞懂的。当然如果能把整份代码搞清楚的话,掌握这么多操作函数还是非常有用的。


分段讲解

总的来看,这份代码主要由三步分组成。
第一部分,是PTBModel,也是最核心的部分,负责tf中模型的构建和各种操作(op)的定义。
第二部分,是run_epoch函数,负责将所有文本内容分批喂给模型(PTBModel)训练。
第三部分,就是main函数了,负责将第二部分的run_epoch运行多遍,也就是说,文本中的每个内容都会被重复多次的输入到模型中进行训练。随着训练的进行,会适当的进行一些参数的调整。
下面就按照这几部分来分开讲一下。我在后面提供了完整的代码,所以可以将完整代码和分段讲解对照着看。


参数设置

在构建模型和训练之前,我们首先需要设置一些参数。tf中可以使用tf.flags来进行全局的参数设置

flags = tf.flagslogging = tf.logging    flags.DEFINE_string(    # 定义变量 model的值为small, 后面的是注释    "model", "small",    "A type of model. Possible options are: small, medium, large.")flags.DEFINE_string("data_path",   #定义下载好的数据的存放位置                    '/home/multiangle/download/simple-examples/data/',                     "data_path")flags.DEFINE_bool("use_fp16", False,    # 是否使用 float16格式?                  "Train using 16-bit floats instead of 32bit floats")FLAGS = flags.FLAGS     # 可以使用FLAGS.model来调用变量 model的值。def data_type():    return tf.float16 if FLAGS.use_fp16 else tf.float32
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17

细心的人可能会注意到上面有行代码定义了model的值为small.这个是什么意思呢?其实在后面的完整代码部分可以看到,作者在其中定义了几个参数类,分别有small,medium,large和test这4种参数。如果model的值为small,则会调用SmallConfig,其他同样。在SmallConfig中,有如下几个参数:

init_scale = 0.1        # 相关参数的初始值为随机均匀分布,范围是[-init_scale,+init_scale]learning_rate = 1.0     # 学习速率,在文本循环次数超过max_epoch以后会逐渐降低max_grad_norm = 5       # 用于控制梯度膨胀,如果梯度向量的L2模超过max_grad_norm,则等比例缩小num_layers = 2          # lstm层数num_steps = 20          # 单个数据中,序列的长度。hidden_size = 200       # 隐藏层中单元数目max_epoch = 4           # epoch<max_epoch时,lr_decay值=1,epoch>max_epoch时,lr_decay逐渐减小max_max_epoch = 13      # 指的是整个文本循环次数。keep_prob = 1.0         # 用于dropout.每批数据输入时神经网络中的每个单元会以1-keep_prob的概率不工作,可以防止过拟合lr_decay = 0.5          # 学习速率衰减batch_size = 20         # 每批数据的规模,每批有20个。vocab_size = 10000      # 词典规模,总共10K个词
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12

其他的几个参数类中,参数类型都是一样的,只是参数的值各有所不同。


PTBModel

这个可以说是核心部分了。而具体来说,又可以分成几个小部分:多层LSTM结构的构建,输入预处理,LSTM的循环,损失函数计算,梯度计算和修剪


LSTM结构

self.batch_size = batch_size = config.batch_sizeself.num_steps = num_steps = config.num_stepssize = config.hidden_size       # 隐藏层规模vocab_size = config.vocab_size  # 词典规模self._input_data = tf.placeholder(tf.int32, [batch_size, num_steps])    # 输入self._targets = tf.placeholder(tf.int32, [batch_size, num_steps])       # 预期输出,两者都是index序列,长度为num_step
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

首先引进参数,然后定义2个占位符,分别表示输入和预期输出。注意此时不论是input还是target都是用词典id来表示单词的。

lstm_cell = tf.nn.rnn_cell.BasicLSTMCell(size, forget_bias=0.0, state_is_tuple=True)
  • 1
  • 1

首先使用tf.nn.rnn_cell.BasicLSTMCell定义单个基本的LSTM单元。这里的size其实就是hidden_size。
从源码中可以看到,在LSTM单元中,有2个状态值,分别是c和h,分别对应于下图中的c和h。其中h在作为当前时间段的输出的同时,也是下一时间段的输入的一部分。

此处输入图片的描述

那么当state_is_tuple=True的时候,state是元组形式,state=(c,h)。如果是False,那么state是一个由c和h拼接起来的张量,state=tf.concat(1,[c,h])。在运行时,则返回2值,一个是h,还有一个state。


DropoutWrapper

if is_training and config.keep_prob < 1: # 在外面包裹一层dropout    lstm_cell = tf.nn.rnn_cell.DropoutWrapper(        lstm_cell, output_keep_prob=config.keep_prob)
  • 1
  • 2
  • 3
  • 1
  • 2
  • 3

我们在这里使用了dropout方法。所谓dropout,就是指网络中每个单元在每次有数据流入时以一定的概率(keep prob)正常工作,否则输出0值。这是是一种有效的正则化方法,可以有效防止过拟合。在rnn中使用dropout的方法和cnn不同,推荐大家去把recurrent neural network regularization看一遍。
在rnn中进行dropout时,对于rnn的部分不进行dropout,也就是说从t-1时候的状态传递到t时刻进行计算时,这个中间不进行memory的dropout;仅在同一个t时刻中,多层cell之间传递信息的时候进行dropout,如下图所示

此处输入图片的描述

上图中,t-2时刻的输入xt2首先传入第一层cell,这个过程有dropout,但是从t−2时刻的第一层cell传到t−1,t,t+1的第一层cell这个中间都不进行dropout。再从t+1时候的第一层cell向同一时刻内后续的cell传递时,这之间又有dropout了。

在使用tf.nn.rnn_cell.DropoutWrapper时,同样有一些参数,例如input_keep_prob,output_keep_prob等,分别控制输入和输出的dropout概率,很好理解。


多层LSTM结构和状态初始化

cell = tf.nn.rnn_cell.MultiRNNCell([lstm_cell] * config.num_layers, state_is_tuple=True) # 参数初始化,rnn_cell.RNNCell.zero_statself._initial_state = cell.zero_state(batch_size, data_type()) 
  • 1
  • 2
  • 3
  • 4
  • 1
  • 2
  • 3
  • 4

在这个示例中,我们使用了2层的LSTM网络。也就是说,前一层的LSTM的输出作为后一层的输入。使用tf.nn.rnn_cell.MultiRNNCell可以实现这个功能。这个基本没什么好说的,state_is_tuple用法也跟之前的类似。构造完多层LSTM以后,使用zero_state即可对各种状态进行初始化。


输入预处理

with tf.device("/cpu:0"):    embedding = tf.get_variable(        # vocab size * hidden size, 将单词转成embedding描述        "embedding", [vocab_size, size], dtype=data_type())     # 将输入seq用embedding表示, shape=[batch, steps, hidden_size]    inputs = tf.nn.embedding_lookup(embedding, self._input_data)if is_training and config.keep_prob < 1:    inputs = tf.nn.dropout(inputs, config.keep_prob)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10

之前有提到过,输入模型的input和target都是用词典id表示的。例如一个句子,“我/是/学生”,这三个词在词典中的序号分别是0,5,3,那么上面的句子就是[0,5,3]。显然这个是不能直接用的,我们要把词典id转化成向量,也就是embedding形式。可能有些人已经听到过这种描述了。实现的方法很简单。

第一步,构建一个矩阵,就叫embedding好了,尺寸为[vocab_size, embedding_size],分别表示词典中单词数目,以及要转化成的向量的维度。一般来说,向量维度越高,能够表现的信息也就越丰富。

第二步,使用tf.nn.embedding_lookup(embedding,input_ids) 假设input_ids的长度为len,那么返回的张量尺寸就为[len,embedding_size]。举个栗子

# 示例代码import tensorflow as tfimport numpy as npsess = tf.InteractiveSession()embedding = tf.Variable(np.identity(5,dtype=np.int32))input_ids = tf.placeholder(dtype=tf.int32,shape=[None])input_embedding = tf.nn.embedding_lookup(embedding,input_ids)sess.run(tf.initialize_all_variables())print(sess.run(embedding))#[[1 0 0 0 0]# [0 1 0 0 0]# [0 0 1 0 0]# [0 0 0 1 0]# [0 0 0 0 1]]print(sess.run(input_embedding,feed_dict={input_ids:[1,2,3,0,3,2,1]}))#[[0 1 0 0 0]# [0 0 1 0 0]# [0 0 0 1 0]# [1 0 0 0 0]# [0 0 0 1 0]# [0 0 1 0 0]# [0 1 0 0 0]]
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25

第三步,如果keep_prob<1, 那么还需要对输入进行dropout。不过这边跟rnn的dropout又有所不同,这边使用tf.nn.dropout。


LSTM循环

现在,多层lstm单元已经定义完毕,输入也已经经过预处理了。那么现在要做的就是将数据输入lstm进行训练了。其实很简单,只要按照文本顺序依次向cell输入数据就好了。lstm上一时间段的状态会自动参与到当前时间段的输出和状态的计算当中。

outputs = []state = self._initial_state # state 表示 各个batch中的状态with tf.variable_scope("RNN"):    for time_step in range(num_steps):        if time_step > 0: tf.get_variable_scope().reuse_variables()        # cell_out: [batch, hidden_size]        (cell_output, state) = cell(inputs[:, time_step, :], state) # 按照顺序向cell输入文本数据        outputs.append(cell_output)  # output: shape[num_steps][batch,hidden_size]# 把之前的list展开,成[batch, hidden_size*num_steps],然后 reshape, 成[batch*numsteps, hidden_size]output = tf.reshape(tf.concat(1, outputs), [-1, size])
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11

这边要注意,tf.get_variable_scope().reuse_variables()这行代码不可少,不然会报错,应该是因为同一命名域(variable_scope)内不允许存在多个同一名字的变量的原因。


损失函数计算

# softmax_w , shape=[hidden_size, vocab_size], 用于将distributed表示的单词转化为one-hot表示softmax_w = tf.get_variable(    "softmax_w", [size, vocab_size], dtype=data_type())softmax_b = tf.get_variable("softmax_b", [vocab_size], dtype=data_type())# [batch*numsteps, vocab_size] 从隐藏语义转化成完全表示logits = tf.matmul(output, softmax_w) + softmax_b# loss , shape=[batch*num_steps]# 带权重的交叉熵计算loss = tf.nn.seq2seq.sequence_loss_by_example(    [logits],   # output [batch*numsteps, vocab_size]    [tf.reshape(self._targets, [-1])],  # target, [batch_size, num_steps] 然后展开成一维【列表】    [tf.ones([batch_size * num_steps], dtype=data_type())]) # weightself._cost = cost = tf.reduce_sum(loss) / batch_size # 计算得到平均每批batch的误差self._final_state = state
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15

上面代码的上半部分主要用来将多层lstm单元的输出转化成one-hot表示的向量。关于one-hot presentation和distributed presentation的区别,可以参考这里

代码的下半部分,正式开始计算损失函数。这里使用了tf提供的现成的交叉熵计算函数,tf.nn.seq2seq.sequence_loss_by_example。不知道交叉熵是什么?见这里各个变量的具体shape我都在注释中标明了。注意其中的self._targets是词典id表示的。这个函数的具体实现方式不明。我曾经想自己手写一个交叉熵,不过好像tf不支持对张量中单个元素的操作。


梯度计算

之前已经计算得到了每批数据的平均误差。那么下一步,就是根据误差来进行参数修正了。当然,首先必须要求梯度

self._lr = tf.Variable(0.0, trainable=False)  # lr 指的是 learning_ratetvars = tf.trainable_variables()
  • 1
  • 2
  • 1
  • 2

通过tf.trainable_variables 可以得到整个模型中所有trainable=True的Variable。实际得到的tvars是一个列表,里面存有所有可以进行训练的变量。

grads, _ = tf.clip_by_global_norm(tf.gradients(cost, tvars),                                    config.max_grad_norm)
  • 1
  • 2
  • 1
  • 2

这一行代码其实使用了两个函数,tf.gradients 和 tf.clip_by_global_norm。 我们一个一个来。

tf.gradients
用来计算导数。该函数的定义如下所示

def gradients(ys,              xs,              grad_ys=None,              name="gradients",              colocate_gradients_with_ops=False,              gate_gradients=False,              aggregation_method=None):
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

虽然可选参数很多,但是最常使用的还是ys和xs。根据说明得知,ys和xs都可以是一个tensor或者tensor列表。而计算完成以后,该函数会返回一个长为len(xs)的tensor列表,列表中的每个tensor是ys中每个值对xs[i]求导之和。如果用数学公式表示的话,那么g = tf.gradients(y,x)可以表示成

gi=j=0len(y)yjxig=[g0,g1,...,glen(x)]


梯度修剪

tf.clip_by_global_norm
修正梯度值,用于控制梯度爆炸的问题。梯度爆炸和梯度弥散的原因一样,都是因为链式法则求导的关系,导致梯度的指数级衰减。为了避免梯度爆炸,需要对梯度进行修剪。
先来看这个函数的定义:

def clip_by_global_norm(t_list, clip_norm, use_norm=None, name=None):
  • 1
  • 1

输入参数中:t_list为待修剪的张量, clip_norm 表示修剪比例(clipping ratio).

函数返回2个参数: list_clipped,修剪后的张量,以及global_norm,一个中间计算量。当然如果你之前已经计算出了global_norm值,你可以在use_norm选项直接指定global_norm的值。

那么具体如何计算呢?根据源码中的说明,可以得到
list_clipped[i]=t_list[i] * clip_norm / max(global_norm, clip_norm),其中
global_norm = sqrt(sum([l2norm(t)**2 for t in t_list]))

如果你更熟悉数学公式,则可以写作

Lic=LitNcmax(Nc,Ng)Ng=i(Lit)2

其中,
LicLig代表t_list[i]和list_clipped[i],
NcNg代表clip_norm 和 global_norm的值。
其实也可以看到其实Ng就是t_list的L2模。上式也可以进一步写作
Lic={Lit,(Ng<=Nc)LitNcNg,(Ng>Nc)Ng=i(Lit)2

也就是说,当t_list的L2模大于指定的Nc时,就会对t_list做等比例缩放


优化参数

之前的代码已经求得了合适的梯度,现在需要使用这些梯度来更新参数的值了。

# 梯度下降优化,指定学习速率optimizer = tf.train.GradientDescentOptimizer(self._lr)# optimizer = tf.train.AdamOptimizer()# optimizer = tf.train.GradientDescentOptimizer(0.5)self._train_op = optimizer.apply_gradients(zip(grads, tvars))  # 将梯度应用于变量# self._train_op = optimizer.minimize(grads)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

这一部分就比较自由了,tf提供了很多种优化器,例如最常用的梯度下降优化(GradientDescentOptimizer)也可以使用AdamOptimizer。这里使用的是梯度优化。值得注意的是,这里使用了optimizer.apply_gradients来将求得的梯度用于参数修正,而不是之前简单的optimizer.minimize(cost)

还有一点,要留心一下self._train_op,只有该操作被模型执行,才能对参数进行优化。如果没有执行该操作,则参数就不会被优化。


run_epoch

这就是我之前讲的第二部分,主要功能是将所有文档分成多个批次交给模型去训练,同时记录模型返回的cost,state等记录,并阶段性的将结果输出。

def run_epoch(session, model, data, eval_op, verbose=False):    """Runs the model on the given data."""    # epoch_size 表示批次总数。也就是说,需要向session喂这么多批数据    epoch_size = ((len(data) // model.batch_size) - 1) // model.num_steps  # // 表示整数除法    start_time = time.time()    costs = 0.0    iters = 0    state = session.run(model.initial_state)    for step, (x, y) in enumerate(reader.ptb_iterator(data, model.batch_size,                                                      model.num_steps)):        fetches = [model.cost, model.final_state, eval_op] # 要获取的值        feed_dict = {}      # 设定input和target的值        feed_dict[model.input_data] = x        feed_dict[model.targets] = y        for i, (c, h) in enumerate(model.initial_state):            feed_dict[c] = state[i].c              feed_dict[h] = state[i].h        cost, state, _ = session.run(fetches, feed_dict) # 运行session,获得cost和state        costs += cost   # 将 cost 累积        iters += model.num_steps        if verbose and step % (epoch_size // 10) == 10:  # 也就是每个epoch要输出10个perplexity值            print("%.3f perplexity: %.3f speed: %.0f wps" %                  (step * 1.0 / epoch_size, np.exp(costs / iters),                   iters * model.batch_size / (time.time() - start_time)))    return np.exp(costs / iters)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27

基本没什么其他的,就是要注意传入的eval_op。在训练阶段,会往其中传入train_op,这样模型就会自动进行优化;而在交叉检验和测试阶段,传入的是tf.no_op,此时模型就不会优化。


main函数

这里略去了数据读取和参数读取的代码,只贴了最关键的一部分。

with tf.Graph().as_default(), tf.Session() as session:    # 定义如何对参数变量初始化    initializer = tf.random_uniform_initializer(-config.init_scale,                                                 config.init_scale)    with tf.variable_scope("model", reuse=None,initializer=initializer):        m = PTBModel(is_training=True, config=config)     with tf.variable_scope("model", reuse=True,initializer=initializer):        mvalid = PTBModel(is_training=False, config=config)         mtest = PTBModel(is_training=False, config=eval_config)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

注意这里定义了3个模型,对于训练模型,is_trainable=True; 而对于交叉检验和测试模型,is_trainable=False

    summary_writer = tf.train.SummaryWriter('/tmp/lstm_logs',session.graph)    tf.initialize_all_variables().run()  # 对参数变量初始化    for i in range(config.max_max_epoch):   # 所有文本要重复多次进入模型训练        # learning rate 衰减        # 在 遍数小于max epoch时, lr_decay = 1 ; > max_epoch时, lr_decay = 0.5^(i-max_epoch)        lr_decay = config.lr_decay ** max(i - config.max_epoch, 0.0)        m.assign_lr(session, config.learning_rate * lr_decay) # 设置learning rate        print("Epoch: %d Learning rate: %.3f" % (i + 1, session.run(m.lr)))        train_perplexity = run_epoch(session, m, train_data, m.train_op,verbose=True) # 训练困惑度        print("Epoch: %d Train Perplexity: %.3f" % (i + 1, train_perplexity))        valid_perplexity = run_epoch(session, mvalid, valid_data, tf.no_op()) # 检验困惑度        print("Epoch: %d Valid Perplexity: %.3f" % (i + 1, valid_perplexity))    test_perplexity = run_epoch(session, mtest, test_data, tf.no_op())  # 测试困惑度    print("Test Perplexity: %.3f" % test_perplexity)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18

注意上面train_perplexity操作中传入了m.train_op,表示要进行优化,而在valid_perplexity和test_perplexity中均传入了tf.no_op,表示不进行优化。


完整代码和注释

# Copyright 2015 The TensorFlow Authors. All Rights Reserved.## Licensed under the Apache License, Version 2.0 (the "License");# you may not use this file except in compliance with the License.# You may obtain a copy of the License at##     http://www.apache.org/licenses/LICENSE-2.0## Unless required by applicable law or agreed to in writing, software# distributed under the License is distributed on an "AS IS" BASIS,# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.# See the License for the specific language governing permissions and# limitations under the License.# =============================================================================="""Example / benchmark for building a PTB LSTM model.Trains the model described in:(Zaremba, et. al.) Recurrent Neural Network Regularizationhttp://arxiv.org/abs/1409.2329There are 3 supported model configurations:===========================================| config | epochs | train | valid  | test===========================================| small  | 13     | 37.99 | 121.39 | 115.91| medium | 39     | 48.45 |  86.16 |  82.07| large  | 55     | 37.87 |  82.62 |  78.29The exact results may vary depending on the random initialization.The hyperparameters used in the model:- init_scale - the initial scale of the weights- learning_rate - the initial value of the learning rate- max_grad_norm - the maximum permissible norm of the gradient- num_layers - the number of LSTM layers- num_steps - the number of unrolled steps of LSTM- hidden_size - the number of LSTM units- max_epoch - the number of epochs trained with the initial learning rate- max_max_epoch - the total number of epochs for training- keep_prob - the probability of keeping weights in the dropout layer- lr_decay - the decay of the learning rate for each epoch after "max_epoch"- batch_size - the batch sizeThe data required for this example is in the data/ dir of thePTB dataset from Tomas Mikolov's webpage:$ wget http://www.fit.vutbr.cz/~imikolov/rnnlm/simple-examples.tgz$ tar xvf simple-examples.tgzTo run:$ python ptb_word_lm.py --data_path=simple-examples/data/"""from __future__ import absolute_importfrom __future__ import divisionfrom __future__ import print_functionimport timeimport numpy as npimport tensorflow as tffrom tensorflow.models.rnn.ptb import readerflags = tf.flagslogging = tf.loggingflags.DEFINE_string(    "model", "small",    "A type of model. Possible options are: small, medium, large.")flags.DEFINE_string("data_path", '/home/multiangle/download/simple-examples/data/', "data_path")flags.DEFINE_bool("use_fp16", False,                  "Train using 16-bit floats instead of 32bit floats")FLAGS = flags.FLAGSdef data_type():    return tf.float16 if FLAGS.use_fp16 else tf.float32class PTBModel(object):    """The PTB model."""    def __init__(self, is_training, config):        """        :param is_training: 是否要进行训练.如果is_training=False,则不会进行参数的修正。        """        self.batch_size = batch_size = config.batch_size        self.num_steps = num_steps = config.num_steps        size = config.hidden_size        vocab_size = config.vocab_size        self._input_data = tf.placeholder(tf.int32, [batch_size, num_steps])    # 输入        self._targets = tf.placeholder(tf.int32, [batch_size, num_steps])       # 预期输出,两者都是index序列,长度为num_step        # Slightly better results can be obtained with forget gate biases        # initialized to 1 but the hyperparameters of the model would need to be        # different than reported in the paper.        lstm_cell = tf.nn.rnn_cell.BasicLSTMCell(size, forget_bias=0.0, state_is_tuple=True)        if is_training and config.keep_prob < 1: # 在外面包裹一层dropout            lstm_cell = tf.nn.rnn_cell.DropoutWrapper(                lstm_cell, output_keep_prob=config.keep_prob)        cell = tf.nn.rnn_cell.MultiRNNCell([lstm_cell] * config.num_layers, state_is_tuple=True) # 多层lstm cell 堆叠起来        self._initial_state = cell.zero_state(batch_size, data_type()) # 参数初始化,rnn_cell.RNNCell.zero_state        with tf.device("/cpu:0"):            embedding = tf.get_variable(                "embedding", [vocab_size, size], dtype=data_type()) # vocab size * hidden size, 将单词转成embedding描述            # 将输入seq用embedding表示, shape=[batch, steps, hidden_size]            inputs = tf.nn.embedding_lookup(embedding, self._input_data)        if is_training and config.keep_prob < 1:            inputs = tf.nn.dropout(inputs, config.keep_prob)        # Simplified version of tensorflow.models.rnn.rnn.py's rnn().        # This builds an unrolled LSTM for tutorial purposes only.        # In general, use the rnn() or state_saving_rnn() from rnn.py.        #        # The alternative version of the code below is:        #        # inputs = [tf.squeeze(input_, [1])        #           for input_ in tf.split(1, num_steps, inputs)]        # outputs, state = tf.nn.rnn(cell, inputs, initial_state=self._initial_state)        outputs = []        state = self._initial_state # state 表示 各个batch中的状态        with tf.variable_scope("RNN"):            for time_step in range(num_steps):                if time_step > 0: tf.get_variable_scope().reuse_variables()                # cell_out: [batch, hidden_size]                (cell_output, state) = cell(inputs[:, time_step, :], state)                outputs.append(cell_output)  # output: shape[num_steps][batch,hidden_size]        # 把之前的list展开,成[batch, hidden_size*num_steps],然后 reshape, 成[batch*numsteps, hidden_size]        output = tf.reshape(tf.concat(1, outputs), [-1, size])        # softmax_w , shape=[hidden_size, vocab_size], 用于将distributed表示的单词转化为one-hot表示        softmax_w = tf.get_variable(            "softmax_w", [size, vocab_size], dtype=data_type())        softmax_b = tf.get_variable("softmax_b", [vocab_size], dtype=data_type())        # [batch*numsteps, vocab_size] 从隐藏语义转化成完全表示        logits = tf.matmul(output, softmax_w) + softmax_b        # loss , shape=[batch*num_steps]        # 带权重的交叉熵计算        loss = tf.nn.seq2seq.sequence_loss_by_example(            [logits],   # output [batch*numsteps, vocab_size]            [tf.reshape(self._targets, [-1])],  # target, [batch_size, num_steps] 然后展开成一维【列表】            [tf.ones([batch_size * num_steps], dtype=data_type())]) # weight        self._cost = cost = tf.reduce_sum(loss) / batch_size # 计算得到平均每批batch的误差        self._final_state = state        if not is_training:  # 如果没有训练,则不需要更新state的值。            return        self._lr = tf.Variable(0.0, trainable=False)        tvars = tf.trainable_variables()        # clip_by_global_norm: 梯度衰减,具体算法为t_list[i] * clip_norm / max(global_norm, clip_norm)        # 这里gradients求导,ys和xs都是张量        # 返回一个长为len(xs)的张量,其中的每个元素都是\grad{\frac{dy}{dx}}        # clip_by_global_norm 用于控制梯度膨胀,前两个参数t_list, global_norm, 则        # t_list[i] * clip_norm / max(global_norm, clip_norm)        # 其中 global_norm = sqrt(sum([l2norm(t)**2 for t in t_list]))        grads, _ = tf.clip_by_global_norm(tf.gradients(cost, tvars),                                          config.max_grad_norm)        # 梯度下降优化,指定学习速率        optimizer = tf.train.GradientDescentOptimizer(self._lr)        # optimizer = tf.train.AdamOptimizer()        # optimizer = tf.train.GradientDescentOptimizer(0.5)        self._train_op = optimizer.apply_gradients(zip(grads, tvars))  # 将梯度应用于变量        self._new_lr = tf.placeholder(            tf.float32, shape=[], name="new_learning_rate")     #   用于外部向graph输入新的 lr值        self._lr_update = tf.assign(self._lr, self._new_lr)     #   使用new_lr来更新lr的值    def assign_lr(self, session, lr_value):        # 使用 session 来调用 lr_update 操作        session.run(self._lr_update, feed_dict={self._new_lr: lr_value})    @property    def input_data(self):        return self._input_data    @property    def targets(self):        return self._targets    @property    def initial_state(self):        return self._initial_state    @property    def cost(self):        return self._cost    @property    def final_state(self):        return self._final_state    @property    def lr(self):        return self._lr    @property    def train_op(self):        return self._train_opclass SmallConfig(object):    """Small config."""    init_scale = 0.1        #    learning_rate = 1.0     # 学习速率    max_grad_norm = 5       # 用于控制梯度膨胀,    num_layers = 2          # lstm层数    num_steps = 20          # 单个数据中,序列的长度。    hidden_size = 200       # 隐藏层规模    max_epoch = 4           # epoch<max_epoch时,lr_decay值=1,epoch>max_epoch时,lr_decay逐渐减小    max_max_epoch = 13      # 指的是整个文本循环13遍。    keep_prob = 1.0    lr_decay = 0.5          # 学习速率衰减    batch_size = 20         # 每批数据的规模,每批有20个。    vocab_size = 10000      # 词典规模,总共10K个词class MediumConfig(object):    """Medium config."""    init_scale = 0.05    learning_rate = 1.0    max_grad_norm = 5    num_layers = 2    num_steps = 35    hidden_size = 650    max_epoch = 6    max_max_epoch = 39    keep_prob = 0.5    lr_decay = 0.8    batch_size = 20    vocab_size = 10000class LargeConfig(object):    """Large config."""    init_scale = 0.04    learning_rate = 1.0    max_grad_norm = 10    num_layers = 2    num_steps = 35    hidden_size = 1500    max_epoch = 14    max_max_epoch = 55    keep_prob = 0.35    lr_decay = 1 / 1.15    batch_size = 20    vocab_size = 10000class TestConfig(object):    """Tiny config, for testing."""    init_scale = 0.1    learning_rate = 1.0    max_grad_norm = 1    num_layers = 1    num_steps = 2    hidden_size = 2    max_epoch = 1    max_max_epoch = 1    keep_prob = 1.0    lr_decay = 0.5    batch_size = 20    vocab_size = 10000def run_epoch(session, model, data, eval_op, verbose=False):    """Runs the model on the given data."""    # epoch_size 表示批次总数。也就是说,需要向session喂这么多次数据    epoch_size = ((len(data) // model.batch_size) - 1) // model.num_steps  # // 表示整数除法    start_time = time.time()    costs = 0.0    iters = 0    state = session.run(model.initial_state)    for step, (x, y) in enumerate(reader.ptb_iterator(data, model.batch_size,                                                      model.num_steps)):        fetches = [model.cost, model.final_state, eval_op] # 要进行的操作,注意训练时和其他时候eval_op的区别        feed_dict = {}      # 设定input和target的值        feed_dict[model.input_data] = x        feed_dict[model.targets] = y        for i, (c, h) in enumerate(model.initial_state):            feed_dict[c] = state[i].c   # 这部分有什么用?看不懂            feed_dict[h] = state[i].h        cost, state, _ = session.run(fetches, feed_dict) # 运行session,获得cost和state        costs += cost   # 将 cost 累积        iters += model.num_steps        if verbose and step % (epoch_size // 10) == 10:  # 也就是每个epoch要输出10个perplexity值            print("%.3f perplexity: %.3f speed: %.0f wps" %                  (step * 1.0 / epoch_size, np.exp(costs / iters),                   iters * model.batch_size / (time.time() - start_time)))    return np.exp(costs / iters)def get_config():    if FLAGS.model == "small":        return SmallConfig()    elif FLAGS.model == "medium":        return MediumConfig()    elif FLAGS.model == "large":        return LargeConfig()    elif FLAGS.model == "test":        return TestConfig()    else:        raise ValueError("Invalid model: %s", FLAGS.model)# def main(_):if __name__=='__main__':    if not FLAGS.data_path:        raise ValueError("Must set --data_path to PTB data directory")    print(FLAGS.data_path)    raw_data = reader.ptb_raw_data(FLAGS.data_path) # 获取原始数据    train_data, valid_data, test_data, _ = raw_data    config = get_config()    eval_config = get_config()    eval_config.batch_size = 1    eval_config.num_steps = 1    with tf.Graph().as_default(), tf.Session() as session:        initializer = tf.random_uniform_initializer(-config.init_scale, # 定义如何对参数变量初始化                                                    config.init_scale)        with tf.variable_scope("model", reuse=None,initializer=initializer):            m = PTBModel(is_training=True, config=config)   # 训练模型, is_trainable=True        with tf.variable_scope("model", reuse=True,initializer=initializer):            mvalid = PTBModel(is_training=False, config=config) #  交叉检验和测试模型,is_trainable=False            mtest = PTBModel(is_training=False, config=eval_config)        summary_writer = tf.train.SummaryWriter('/tmp/lstm_logs',session.graph)        tf.initialize_all_variables().run()  # 对参数变量初始化        for i in range(config.max_max_epoch):   # 所有文本要重复多次进入模型训练            # learning rate 衰减            # 在 遍数小于max epoch时, lr_decay = 1 ; > max_epoch时, lr_decay = 0.5^(i-max_epoch)            lr_decay = config.lr_decay ** max(i - config.max_epoch, 0.0)            m.assign_lr(session, config.learning_rate * lr_decay) # 设置learning rate            print("Epoch: %d Learning rate: %.3f" % (i + 1, session.run(m.lr)))            train_perplexity = run_epoch(session, m, train_data, m.train_op,verbose=True) # 训练困惑度            print("Epoch: %d Train Perplexity: %.3f" % (i + 1, train_perplexity))            valid_perplexity = run_epoch(session, mvalid, valid_data, tf.no_op()) # 检验困惑度            print("Epoch: %d Valid Perplexity: %.3f" % (i + 1, valid_perplexity))        test_perplexity = run_epoch(session, mtest, test_data, tf.no_op())  # 测试困惑度        print("Test Perplexity: %.3f" % test_perplexity)# if __name__ == "__main__":#     tf.app.run()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67
  • 68
  • 69
  • 70
  • 71
  • 72
  • 73
  • 74
  • 75
  • 76
  • 77
  • 78
  • 79
  • 80
  • 81
  • 82
  • 83
  • 84
  • 85
  • 86
  • 87
  • 88
  • 89
  • 90
  • 91
  • 92
  • 93
  • 94
  • 95
  • 96
  • 97
  • 98
  • 99
  • 100
  • 101
  • 102
  • 103
  • 104
  • 105
  • 106
  • 107
  • 108
  • 109
  • 110
  • 111
  • 112
  • 113
  • 114
  • 115
  • 116
  • 117
  • 118
  • 119
  • 120
  • 121
  • 122
  • 123
  • 124
  • 125
  • 126
  • 127
  • 128
  • 129
  • 130
  • 131
  • 132
  • 133
  • 134
  • 135
  • 136
  • 137
  • 138
  • 139
  • 140
  • 141
  • 142
  • 143
  • 144
  • 145
  • 146
  • 147
  • 148
  • 149
  • 150
  • 151
  • 152
  • 153
  • 154
  • 155
  • 156
  • 157
  • 158
  • 159
  • 160
  • 161
  • 162
  • 163
  • 164
  • 165
  • 166
  • 167
  • 168
  • 169
  • 170
  • 171
  • 172
  • 173
  • 174
  • 175
  • 176
  • 177
  • 178
  • 179
  • 180
  • 181
  • 182
  • 183
  • 184
  • 185
  • 186
  • 187
  • 188
  • 189
  • 190
  • 191
  • 192
  • 193
  • 194
  • 195
  • 196
  • 197
  • 198
  • 199
  • 200
  • 201
  • 202
  • 203
  • 204
  • 205
  • 206
  • 207
  • 208
  • 209
  • 210
  • 211
  • 212
  • 213
  • 214
  • 215
  • 216
  • 217
  • 218
  • 219
  • 220
  • 221
  • 222
  • 223
  • 224
  • 225
  • 226
  • 227
  • 228
  • 229
  • 230
  • 231
  • 232
  • 233
  • 234
  • 235
  • 236
  • 237
  • 238
  • 239
  • 240
  • 241
  • 242
  • 243
  • 244
  • 245
  • 246
  • 247
  • 248
  • 249
  • 250
  • 251
  • 252
  • 253
  • 254
  • 255
  • 256
  • 257
  • 258
  • 259
  • 260
  • 261
  • 262
  • 263
  • 264
  • 265
  • 266
  • 267
  • 268
  • 269
  • 270
  • 271
  • 272
  • 273
  • 274
  • 275
  • 276
  • 277
  • 278
  • 279
  • 280
  • 281
  • 282
  • 283
  • 284
  • 285
  • 286
  • 287
  • 288
  • 289
  • 290
  • 291
  • 292
  • 293
  • 294
  • 295
  • 296
  • 297
  • 298
  • 299
  • 300
  • 301
  • 302
  • 303
  • 304
  • 305
  • 306
  • 307
  • 308
  • 309
  • 310
  • 311
  • 312
  • 313
  • 314
  • 315
  • 316
  • 317
  • 318
  • 319
  • 320
  • 321
  • 322
  • 323
  • 324
  • 325
  • 326
  • 327
  • 328
  • 329
  • 330
  • 331
  • 332
  • 333
  • 334
  • 335
  • 336
  • 337
  • 338
  • 339
  • 340
  • 341
  • 342
  • 343
  • 344
  • 345
  • 346
  • 347
  • 348
  • 349
  • 350
  • 351
  • 352
  • 353
  • 354
  • 355
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67
  • 68
  • 69
  • 70
  • 71
  • 72
  • 73
  • 74
  • 75
  • 76
  • 77
  • 78
  • 79
  • 80
  • 81
  • 82
  • 83
  • 84
  • 85
  • 86
  • 87
  • 88
  • 89
  • 90
  • 91
  • 92
  • 93
  • 94
  • 95
  • 96
  • 97
  • 98
  • 99
  • 100
  • 101
  • 102
  • 103
  • 104
  • 105
  • 106
  • 107
  • 108
  • 109
  • 110
  • 111
  • 112
  • 113
  • 114
  • 115
  • 116
  • 117
  • 118
  • 119
  • 120
  • 121
  • 122
  • 123
  • 124
  • 125
  • 126
  • 127
  • 128
  • 129
  • 130
  • 131
  • 132
  • 133
  • 134
  • 135
  • 136
  • 137
  • 138
  • 139
  • 140
  • 141
  • 142
  • 143
  • 144
  • 145
  • 146
  • 147
  • 148
  • 149
  • 150
  • 151
  • 152
  • 153
  • 154
  • 155
  • 156
  • 157
  • 158
  • 159
  • 160
  • 161
  • 162
  • 163
  • 164
  • 165
  • 166
  • 167
  • 168
  • 169
  • 170
  • 171
  • 172
  • 173
  • 174
  • 175
  • 176
  • 177
  • 178
  • 179
  • 180
  • 181
  • 182
  • 183
  • 184
  • 185
  • 186
  • 187
  • 188
  • 189
  • 190
  • 191
  • 192
  • 193
  • 194
  • 195
  • 196
  • 197
  • 198
  • 199
  • 200
  • 201
  • 202
  • 203
  • 204
  • 205
  • 206
  • 207
  • 208
  • 209
  • 210
  • 211
  • 212
  • 213
  • 214
  • 215
  • 216
  • 217
  • 218
  • 219
  • 220
  • 221
  • 222
  • 223
  • 224
  • 225
  • 226
  • 227
  • 228
  • 229
  • 230
  • 231
  • 232
  • 233
  • 234
  • 235
  • 236
  • 237
  • 238
  • 239
  • 240
  • 241
  • 242
  • 243
  • 244
  • 245
  • 246
  • 247
  • 248
  • 249
  • 250
  • 251
  • 252
  • 253
  • 254
  • 255
  • 256
  • 257
  • 258
  • 259
  • 260
  • 261
  • 262
  • 263
  • 264
  • 265
  • 266
  • 267
  • 268
  • 269
  • 270
  • 271
  • 272
  • 273
  • 274
  • 275
  • 276
  • 277
  • 278
  • 279
  • 280
  • 281
  • 282
  • 283
  • 284
  • 285
  • 286
  • 287
  • 288
  • 289
  • 290
  • 291
  • 292
  • 293
  • 294
  • 295
  • 296
  • 297
  • 298
  • 299
  • 300
  • 301
  • 302
  • 303
  • 304
  • 305
  • 306
  • 307
  • 308
  • 309
  • 310
  • 311
  • 312
  • 313
  • 314
  • 315
  • 316
  • 317
  • 318
  • 319
  • 320
  • 321
  • 322
  • 323
  • 324
  • 325
  • 326
  • 327
  • 328
  • 329
  • 330
  • 331
  • 332
  • 333
  • 334
  • 335
  • 336
  • 337
  • 338
  • 339
  • 340
  • 341
  • 342
  • 343
  • 344
  • 345
  • 346
  • 347
  • 348
  • 349
  • 350
  • 351
  • 352
  • 353
  • 354
  • 355

阅读全文
0 0
原创粉丝点击