线性回归
来源:互联网 发布:投资新三板风险知乎 编辑:程序博客网 时间:2024/06/01 18:42
import tensorflow as tfimport numpy as np#Matplotlib是一个Python的图形框架,类似于MATLAB和R语言import matplotlib.pyplot as plt#随机生成1000个点 围绕在y=0.1x+0.3的直线周围num_points=1000 #生成随机点vectors_set=[]for i in range(num_points): #循环1000次 x1=np.random.normal(0.0,0.55) #数据点的横坐标 高斯初始化 y1=x1*0.1+0.3+np.random.normal(0.0,0.03) #加上了小范围的分布 也是高斯分布 vectors_set.append([x1,y1]) #把数据点放到vectors_set中#生成一些样本x_data=[v[0]for v in vectors_set]y_data=[v[1]for v in vectors_set]plt.scatter(x_data,y_data,c='r')plt.show()#生成一维W矩阵,取值是[-1,1]之间的随机数#W是一维矩阵 值是随机在-1,1之间取的W=tf.Variable(tf.random_uniform([1],-1.0,1.0),name='W') #选取-1到1之间的随机数作为W的初始值#生成一维的b矩阵,初始值是0b=tf.Variable(tf.zeros(1),name='b')#经过计算得出预估值yy=W*x_data+b#以预估值y和实际值的y_data的均方误差作为损失#square 平方项loss=tf.reduce_mean(tf.square(y-y_data),name='loss')#采用梯度下降法来优化参数#optimizer=tf.train.GradientDescentOptimizer(0.5)#训练过程就是最小化这个误差值 optimizer优化器train=optimizer.minimize(loss,name='train')sess=tf.Session()init=tf.global_variables_initializer()#全局变量的初始化sess.run(init)#初始化W和b是多少print("W=",sess.run(W),"b=",sess.run(b),"loss=",sess.run(loss))#执行20次训练for step in range(20): sess.run(train) #输出训练好的W和b print("W=",sess.run(W),"b=",sess.run(b),"loss=",sess.run(loss))plt.scatter(x_data,y_data,c='r')plt.plot(x_data,sess.run(W)*x_data+sess.run(b))plt.show()
阅读全文
0 0
- 线性回归
- 线性回归
- 线性回归
- 线性回归
- 线性回归
- 线性回归
- 线性回归
- 线性回归
- 线性回归
- 线性回归
- 线性回归
- 线性回归
- 线性回归
- 线性回归
- 线性回归
- 线性回归
- 线性回归
- 线性回归
- Git fetch和git pull的区别(转载)
- hadoop学习记录2017年11月20日14:25:55
- 数据结构上机——KMP算法
- 支持向量机通俗导论(理解SVM的三层境界)
- 阿里巴巴集团学术委员会主席曾鸣纵论BAT人工智能战略:任何公司都必须AIl in AI
- 线性回归
- CCF—数字排序20150302
- 安迪-比尔定律
- SVN的学习之路四(客户端工具的使用)
- find |xargs |grep命令
- 习题 5.15 用二分法求下面方程在(-10,10)之间的根:
- lock(),tryLock(),lockInterruptibly()区别
- 让你思维洞开的5个头脑风暴工具
- 基于WEB的客户关系管理系统