七层神经网络 PK logstic 回归
来源:互联网 发布:无损cd刻录软件 编辑:程序博客网 时间:2024/06/02 06:52
logstic链接 在这 篇文章中,我们讨论了logstic 回归,但是logstic回归的正确率太低了
在那个算例中,正确率只有66.2%
import pandas as pdinputfile1='horseColicTraining.xlsx' input1= pd.read_excel(inputfile1).valuesdata_train=input1'''data_max = data_train.max()data_min = data_train.min()# data_std = data_train.std()#data_train1 = (data_train-data_min)/(data_max-data_min) #数据标准化'''train_input=data_train[:,0:21]train_label=data_train[:,21:22]from keras.models import Sequentialfrom keras.layers.core import Dense, Dropout, Activationmodel = Sequential() #建立模型model.add(Dense(input_dim = 21, output_dim = 48)) #添加输入层、隐藏层的连接model.add(Activation('tanh')) #以Relu函数为激活函数model.add(Dense(input_dim = 48, output_dim = 48)) #添加隐藏层、隐藏层的连接model.add(Activation('relu')) #以Relu函数为激活函数model.add(Dropout(0.2))model.add(Dense(input_dim = 48, output_dim = 36)) #添加隐藏层、隐藏层的连接model.add(Activation('relu')) #以Relu函数为激活函数model.add(Dropout(0.2))model.add(Dense(input_dim = 36, output_dim = 36)) #添加隐藏层、隐藏层的连接model.add(Activation('relu')) #以Relu函数为激活函数model.add(Dense(input_dim = 36, output_dim = 12)) #添加隐藏层、隐藏层的连接model.add(Activation('relu')) #以Relu函数为激活函数model.add(Dense(input_dim = 36, output_dim = 36)) #添加隐藏层、隐藏层的连接model.add(Activation('relu')) #以Relu函数为激活函数model.add(Dense(input_dim = 36, output_dim = 1)) #添加隐藏层、输出层的连接model.add(Activation('sigmoid')) #以sigmoid函数为激活函数#编译模型,损失函数为binary_crossentropy,用adam法求解model.compile(loss='mean_squared_error', optimizer='adam')model.fit(train_input, train_label, nb_epoch = 1000, batch_size = 20) #训练模型inputfile2='horseColicTest.xlsx' input2= pd.read_excel(inputfile1).valuesdata_test=input2'''test_max = data_test.max()test_min = data_test.min()# data_std = data_train.std()test_train = (data_test-test_min)/(test_max-test_min) #数据标准化'''test_input=data_test[:,0:21]test_label=data_test[:,21:22]r = pd.DataFrame(model.predict_classes(test_input))print('/n') print('I love tt and cc') from sklearn.metrics import accuracy_scoreprint(accuracy_score(test_label, r))
0.993288590604
当我采用神经网络时,正确率取得了惊人的提高
达到99.3%
logstic 回归 ,从本质上说,就是一个单层感知器,仅此而已。 一个输入层 ,一个激活层的单层感知机。
在本文中,我采用的是一个七层神经网络,更深沉的大脑才能进行深度思考,单纯的logstic 回归 太浅薄了。
提取密码 l1hr
github
阅读全文
0 0
- 七层神经网络 PK logstic 回归
- logstic 回归好文章
- 逻辑斯蒂回归 Logstic Regression in Python
- logstic回归损失函数及梯度下降公式推导
- 神经网络七:神经网络设置层的数量和尺寸
- 神经网络学习笔记(七):线性回归模型(上)
- GRNN广义回归神经网络
- # Keras:2.1 回归神经网络
- 神经网络-逻辑回归
- 人类PK机器:人工神经网络和生物神经网络的比较
- 七种回归技术
- 七种回归技术
- 七种回归分析
- 七种回归
- 七种回归技术
- 神经网络学习:逻辑回归与 SoftMax 回归
- 神经网络七十年
- matlab 神经网络做回归预测
- Nginx常用代理配置
- JAVA开发的23种设计模式之 --- 模板模式
- 自定义PullToRefreshListView
- 51 nod 1134 最长递增子序列
- 小小的请求方法
- 七层神经网络 PK logstic 回归
- 动态规划—矩阵乘法排序
- Thread的使用
- 数据结构与算法_折半查找
- glibc源码分析之rename函数
- ssh免密码登录
- Linux下clang/gcc使用pthread.h编译出错undefined reference to `pthread_create'
- vue入门——开始一个项目
- platform-device程序加载时各个函数的执行顺序