tf1.基础结构

来源:互联网 发布:java 时间选择控件 编辑:程序博客网 时间:2024/06/06 17:02

Tensorflow 是谷歌开发的深度学习系统,用它可以很快速地入门神经网络。
它可以做分类,也可以做拟合问题,就是要把这个模式给模拟出来。

这是一个基本的神经网络的结构,有输入层,隐藏层,和输出层。
每一层点开都有它相应的内容,函数和功能。

那我们要做的就是要建立一个这样的结构,然后把数据喂进去。
把数据放进去后它就可以自己运行,TensorFlow 翻译过来就是向量在里面飞。

这个动图的解释就是,在输入层输入数据,然后数据飞到隐藏层飞到输出层,用梯度下降处理,梯度下降会对几个参数进行更新和完善,更新后的参数再次跑到隐藏层去学习,这样一直循环直到结果收敛。

因为TensorFlow是采用数据流图(data flow graphs)来计算, 所以首先我们得创建一个数据流流图, 然后再将我们的数据(数据以张量(tensor)的形式存在)放在数据流图中计算. 节点(Nodes)在图中表示数学操作,图中的线(edges)则表示在节点间相互联系的多维数据数组, 即张量(tensor). 训练模型时tensor会不断的从数据流图中的一个节点flow到另一节点, 这就是TensorFlow名字的由来.

张量(tensor):

张量有多种. 零阶张量为 纯量或标量 (scalar) 也就是一个数值. 比如 [1]
一阶张量为 向量 (vector), 比如 一维的 [1, 2, 3]
二阶张量为 矩阵 (matrix), 比如 二维的 [[1, 2, 3],[4, 5, 6],[7, 8, 9]]
以此类推, 还有 三阶 三维的 …

简单线性预测例子

import sysprint(sys.version)'''3.5.3 |Continuum Analytics, Inc.| (default, May 15 2017, 10:43:23) [MSC v.1900 64 bit (AMD64)]'''import tensorflow as tfimport numpy as np# shape=tuple ,size=100x_data = np.random.rand(100).astype(np.float32)y_data = x_data*0.1 + 0.3 #实际值Weights = tf.Variable(tf.random_uniform([1], -1.0, 1.0))#[1],一个数,范围从-1.0到1.0biases = tf.Variable(tf.zeros([1]))#初始值0y = Weights*x_data + biases#框架loss = tf.reduce_mean(tf.square(y-y_data))#定义误差(square平方)#梯度下降法optimizer = tf.train.GradientDescentOptimizer(0.5)train = optimizer.minimize(loss)# init = tf.initialize_all_variables() # tf 马上就要废弃这种写法init = tf.global_variables_initializer()  # 替换成这样就好sess = tf.Session()sess.run(init)          # Very importantfor step in range(201):#训练200次    sess.run(train)    if step % 20 == 0:        print(step, sess.run(Weights), sess.run(biases))#越来越接近真实w和b

输出

0 [-0.01233229] [ 0.479366]20 [ 0.04969411] [ 0.32581243]40 [ 0.08435673] [ 0.30802673]60 [ 0.09513554] [ 0.30249602]80 [ 0.09848735] [ 0.30077615]100 [ 0.09952962] [ 0.30024135]120 [ 0.09985375] [ 0.30007505]140 [ 0.09995452] [ 0.30002335]160 [ 0.09998586] [ 0.30000728]180 [ 0.09999558] [ 0.30000228]200 [ 0.09999862] [ 0.30000073]
原创粉丝点击