tf.nn.embedding_lookup理解
来源:互联网 发布:张捷 青年网络公开课 编辑:程序博客网 时间:2024/04/28 22:23
tf.nn.embedding_lookup(params, ids, partition_strategy='mod', name=None, validate_indices=True, max_norm=None)
在params中查找与ids对应的表示。
如下代码表示在W
中查找self.input_x
对应的表示。
W = tf.Variable( tf.random_uniform([vocab_size, embedding_size], -1.0, 1.0),name="W")self.embedded_chars = tf.nn.embedding_lookup(W, self.input_x)
与在numpy中检索arrays类似, E.g.
matrix = np.random.random([1024, 64]) # 64-dimensional embeddingsids = np.array([0, 5, 17, 33])print matrix[ids] # prints a matrix of shape [4, 64]
partition_strategy
决定了ids分布的方式,如果partition_strategy
是 “mod”,每个 id 按照 p = id % len(params)
分割. 例如,13 ids 按照 5 的间隔分割成5份: [[0, 5, 10], [1, 6, 11], [2, 7, 12], [3, 8], [4, 9]]
如果 partition_strategy
是 “div”, 每个 id连续地进行分割, 上一个例子分割为: [[0, 1, 2], [3, 4, 5], [6, 7, 8], [9, 10], [11, 12]]
0 0
- tf.nn.embedding_lookup理解
- tf.nn.embedding_lookup()笔记
- tf.nn.embedding_lookup
- tf.nn.embedding_lookup函数
- tf.nn.embedding_lookup()的使用
- Tensorflow学习---tf.nn.embedding_lookup
- TensorFlow中 tf.nn.embedding_lookup
- tf.nn.embedding_lookup简单介绍
- tensorflow中embedding_lookup, tf.gather以及tf.nn.embedding_lookup_sparse的理解
- tensorflow tf.nn.embedding_lookup(embeddings, train_inputs)解释
- tf.nn.embedding_lookup()的参数形式
- tf.nn.embedding_lookup函数的用法
- Tensorflow-tf.nn.embedding_lookup函数原理
- tf.nn.embedding_lookup TensorFlow embedding_lookup 函数最简单实例
- tf.nn.embedding_lookup中关于partition_strategy参数详解
- tf.nn.conv2d理解
- tf.nn
- Tensorflow卷积操作tf.nn.conv2d的理解
- Message.obtain的简单使用--方便msg.what分辨数据
- 完美覆盖
- StringUtils 工具类的使用
- 导入dmp文件时,需要删除原有ORACLE数据库实例
- du命令
- tf.nn.embedding_lookup理解
- 多元线性回归模型的t检验和回归系数的置信区间
- Android设置虚线、圆角、渐变
- GET与POST的区别:
- 仅一成人不跳槽,工作十年跳三次薪资涨三倍
- hbase与hive关联
- transform(变形)和transform-origin(变形原点)
- redis集群搭建
- 生产者-消费者模式