【机器学习学习过程中的笔记1——Stochastic gradient descent 和 Batch gradient descent 】
来源:互联网 发布:小米手机没有4g网络 编辑:程序博客网 时间:2024/05/18 22:40
<span style="font-size:18px;">#include "stdio.h" #include<iostream>using namespace std;#include "stdio.h" int main(void){float matrix[4][2] = { { 1, 4 }, { 2, 5 }, { 5, 1 }, { 4, 2 } };float result[4] = { 19, 26, 19, 20 };float theta[2] = { 2, 5 }; float learning_rate = 0.01;float loss = 1000.0; for (int i = 0; i<100 && loss>0.0001; ++i){float error_sum[2] = { 0.0, 0.0 };for (int j = 0; j<4; ++j){float h = 0.0;for (int k = 0; k<2; ++k){h += matrix[j][k] * theta[k];}for (int k = 0; k < 2; ++k){error_sum[k] += (result[j] - h)*matrix[j][k];}}for (int k = 0; k<2; ++k){theta[k] += learning_rate*error_sum[k];}printf("*************************************\n");printf("theta now: %f,%f\n", theta[0], theta[1]);loss = 0.0;for (int j = 0; j<4; ++j){float sum = 0.0;for (int k = 0; k<2; ++k){sum += matrix[j][k] * theta[k];}loss += (sum - result[j])*(sum - result[j]);}printf("loss now: %f\n", loss);}system("pause");// return 0;}</span>
0 0
- 【机器学习学习过程中的笔记1——Stochastic gradient descent 和 Batch gradient descent 】
- Batch Gradient Descent and Stochastic Gradient Descent
- Stochastic gradient descent与Batch gradient descent
- batch gradient descent和stochastic/incremental gradient descent
- 台大机器学习笔记(10-11)——Linear Models for Classification&Stochastic Gradient Descent
- 深度学习—加快梯度下降收敛速度(一):mini-batch、Stochastic gradient descent
- 使用SGD(Stochastic Gradient Descent)进行大规模机器学习
- 使用SGD(Stochastic Gradient Descent)进行大规模机器学习
- 使用SGD(Stochastic Gradient Descent)进行大规模机器学习
- 使用SGD(Stochastic Gradient Descent)进行大规模机器学习
- 使用SGD(Stochastic Gradient Descent)进行大规模机器学习
- 使用SGD(Stochastic Gradient Descent)进行大规模机器学习
- 机器学习笔记4---Gradient descent
- gradient descent vs (mini-batch) stochastic gradient descent
- CS231N学习笔记4 Optimization: Stochastic Gradient Descent
- CS231Optimization: Stochastic Gradient Descent笔记
- BGD(Batch Gradient Descent), SGD (Stochastic Gradient Descent), MBGD (Mini-Batch Gradient Descent)
- Stochastic Gradient Descent vs Batch Gradient Descent vs Mini-batch Gradient Descent
- 数据结构(19)--DAG应用之AOE网的拓扑排序
- 数组中重复的数字
- 镇江第一周
- python 中的%符号
- poj 2479 Maximum sum 最大数字连续和
- 【机器学习学习过程中的笔记1——Stochastic gradient descent 和 Batch gradient descent 】
- APPIUM+JAVA实现对安卓APK的自动化测试----第九篇【为什么】
- 视频播放器(AVPlayer)
- 珍藏文:60条有名的原则与定理
- 30还是个程序员
- IP协议学习总结
- C语言实现使用动态数组实现循环队列
- MATLAB仿真
- Java 基础知识