Tensorflow学习与应用一

来源:互联网 发布:yousee监控软件下载 编辑:程序博客网 时间:2024/05/18 08:30

总结一下这几天的学习吧

五天没有写博客啦,感觉生命好空虚啊

也不知为啥,感觉好迷惑好迷茫

前几天做的事:

一直调试代码测试mnist数据集的

在docker中运行TensorFlow镜像

看利用TensorFlow框架的代码写的检测mnist数据集,看的一脸懵逼外加迷惑、烦躁

前天和昨天听了,参加了一个会议和听了几场报告,无聊的人生


------------------------------------------------------------------------------------------------------------------------------------


总结一下今天的学习过程

今天在网上找到了一些视屏资料,从新学习一下TensorFlow框架

TensorFlow:

使用graphs来表示计算任务

在被称之为会话session的上下文context中执行graphs

使用tensor表示数据

通过变量variable维护状态

使用feed和fetch可以为任意的操作赋值或者从其中获取数据

TensorFlow是一个编程系统,使用graphs来表示计算任务,graphs中的节点被称之为op(operation),一个op获得0个或多个tensor,执行计算产生0个或者多个tensor,tensor看做是一个N维的数组或列表,graphs必须在Session中被启动

使用teb键补全函数

constant定义常量

malmul矩阵的相乘,输出的是一个tensor,只有在Session中再回被执行

session定义一个会话,使用run方法来启动

variable定义一个变量,使用的时候必须先初始化:tf.global_variables_initializer()

subtract减法

add加法

assign赋值操作

multiply乘法

placeholder占位符

np.linspace(-0.5,0.5,200)[:,np.newaxis]:生成随机矩阵

np.random.normal(0,0.02,x_data.shape)生成一个和x_data形状相同的随机矩阵

one-hot向量:有一个为1,其他为0

softmax模型可以用来给不同的对象分配概率

修改的方法

批次大小

增加隐藏层

改变激活函数

权值和偏置变量的初始化方法更换

改变代价函数,如交叉熵方法

优化方法:梯度下降法,调整学习率大小

更多的循环次数训练


算是比较充实的一天吧,明天加油!

原创粉丝点击