seq2seq 做翻译,预测时 用argmax的原因
来源:互联网 发布:小号男士衣服淘宝店铺 编辑:程序博客网 时间:2024/05/22 12:56
在这里https://github.com/tensorflow/models/blob/master/tutorials/rnn/translate/translate.py#L281-L282
# This is a greedy decoder - outputs are just argmaxes of output_logits.outputs = [int(np.argmax(logit, axis=1)) for logit in output_logits]
最初很难理解,其实就是在所有词里选概率最大的
因为这段代码的存在https://github.com/tensorflow/models/blob/master/tutorials/rnn/translate/seq2seq_model.py#L168-L173
if output_projection is not None: for b in xrange(len(buckets)): self.outputs[b] = [ tf.matmul(output, output_projection[0]) + output_projection[1] for output in self.outputs[b] ]
里面output的维数就是embedding之后的维数,比如1024
output_projection的维数是[1024,vocabulary_size]
0 0
- seq2seq 做翻译,预测时 用argmax的原因
- seq2seq 做翻译,预测时 最终feed的数据的样子(接上文)
- seq2seq 做翻译,训练时 最终feed的数据的样子(接上文)
- seq2seq 预测时 feed 自己的数据 (接上文)
- seq2seq 预测/测试阶段decoder的输入
- seq2seq 训练时 feed 自己的数据
- argmin/argmax的含义
- tf.argmax的使用
- 详解numpy的argmax
- 详解numpy的argmax
- 详解numpy的argmax
- argmax()
- 用LIBSVM做回归和预测的步骤
- 用 LSTM 做时间序列预测的一个小例子
- 用LSTM做一个简单预测的Demo
- 用 LSTM 做时间序列预测的一个小例子
- 谷歌开源 tf-seq2seq,你也能用谷歌翻译的框架训练模型
- seq2seq 的 keras 实现
- 读一点<鲁迅全集>
- Windows 平台安装MongoDB
- Python爬虫基础
- 1067
- PyTorch上搭建简单神经网络实现回归和分类
- seq2seq 做翻译,预测时 用argmax的原因
- 欢迎使用CSDN-markdown编辑器
- 如何解决win10系统更新出现错误代码0x80070057
- IE6、IE7兼容问题汇总(持续更新)
- java.util
- 设计模式(四)--适配器模式
- 大小端检测方法(ARM 和linux系统)
- iOS开发笔记-触摸事件与手势
- 基础Android之最后总结