Encog入门学习(一)
来源:互联网 发布:山西软件定做开发 编辑:程序博客网 时间:2024/06/04 17:52
这段时间对斯坦福大学的stanford nlp挺感兴趣,stanford nlp的一大亮点就是他们团队采用深度学习的方法对一些传统的方法进行改进,比如建立语法树采用了递归神经网络(RNN),情感分析采用了递归神经伸张网络(RNTN)……所以呢,我又把注意点放到了神经网络上面,想要自己实现一些简单的神经网络算法,因此注意到了Encog,Encog最强大的地方,就是提供了丰富的神经网络算法的实现。
国内关于Encog的资料比较少,因此就按照Encog提供的手册开始学习了。以下是第一个例子:
import org.encog.Encog;import org.encog.engine.network.activation.ActivationSigmoid;import org.encog.ml.data.MLData;import org.encog.ml.data.MLDataPair;import org.encog.ml.data.MLDataSet;import org.encog.ml.data.basic.BasicMLDataSet;import org.encog.neural.networks.BasicNetwork;import org.encog.neural.networks.layers.BasicLayer;import org.encog.neural.networks.training.propagation.resilient.ResilientPropagation;public class HelloWorld {/** * the input necessary for XOR * */public static double XOR_INPUT[][] = {{0.0, 0.0}, {1.0, 0.0}, {0.0, 1.0}, {1.0, 1.0}};/** * the ideal data necessary for XOR * */public static double XOR_IDEAL[][] = {{0.0}, {1.0}, {1.0}, {0.0}};/** * @param no arguments are used * */public static void main(String[] args) {// TODO Auto-generated method stub//create a neural network, without using a factoryBasicNetwork network = new BasicNetwork();//BasicLayer 参数: 激活函数、是否偏移、该层神经元数目network.addLayer(new BasicLayer(null, true, 2));network.addLayer(new BasicLayer(new ActivationSigmoid(),true,3));network.addLayer(new BasicLayer(new ActivationSigmoid(),false,1));network.getStructure().finalizeStructure();//Reset the weight matrix and the bias values. //This will use a Nguyen-Widrow randomizer with a range between -1 and 1. //If the network does not have an input, output or hidden layers, then //Nguyen-Widrow cannot be used and a simple range randomize between -1//and 1 will be used.network.reset();//create training dataMLDataSet trainingSet = new BasicMLDataSet(XOR_INPUT, XOR_IDEAL);//train the neural networkfinal ResilientPropagation train = new ResilientPropagation(network, trainingSet);int epoch = 1;do{train.iteration();System.out.println("Epoch #" + epoch + " Error: " + train.getError());epoch++;}while(train.getError()>0.01);train.finishTraining();//test the neural networkSystem.out.println("Neural Network Results: ");for(MLDataPair pair: trainingSet){final MLData output = network.compute(pair.getInput());System.out.println(pair.getInput().getData(0) + "," + pair.getInput().getData(1) + ", actual=" + output.getData(0) + ",ideal=" + pair.getIdeal().getData(0));}Encog.getInstance().shutdown();}}
从这个例子可以看出,使用Encog实现一个神经网络主要分为三个部分:
1.建立神经网络的结构
2.训练网络
3.使用网络进行预测
第一部分中,建立了一个三层的神经网络,BasicLayer的构造器中有三个重要的参数,第一个数激活函数的类型,第二个是确定是否存在偏移,第三个是该层有多少个神经元。可选的激活函数有以下几种,在例子中采用的是sigmoid函数,这个函数和Logistic回归采用的核函数是一样的。
第二部分首先设置输入的训练数据集和目标数据集,然后在一个循环中进行神经网络的训练,直到误差小于0.01才结束。
第三部分预测,这里使用训练数据进行预测,运行结果如下:
0 0
- Encog入门学习(一)
- Encog入门学习(二)
- [Encog入门] 写在前面
- JAVA入门学习(一)
- XML入门学习(一)
- OpenGL入门学习(一)
- OpenGL入门学习(一)
- OpenGL入门学习(一)
- Jquery 入门学习(一)
- OpenGL入门学习(一)
- membership入门学习(一)
- YUI3学习(一)---入门
- MyBatis入门学习(一)
- DTD学习一(入门)
- YUI3学习(一)---入门
- OpenGL入门学习(一)
- matlab入门学习(一)
- OpenGL入门学习(一)
- Android 一个app启动另一个app
- 如何提高自己的技能
- 【Android】Gson-以类模板的方式解析复杂JSON
- request.getQueryString();
- Hibernate持久化对象存在三种状态
- Encog入门学习(一)
- android WebView与JS的交互
- session缓存和快照的区别
- 图像算法---Image Deformation Using Moving Least Squares
- [python&php 网络编程]socket缓冲区大小设置
- OSChina代码仓库push不上Pods文件夹的问题解决
- 立即检索&延迟检索&关联级别检索&批量检索
- Combination Sum变体 II
- 二级缓存提供的供应商