深度学习机器学习:softmax和log_softmax区分
来源:互联网 发布:c# 高级编程教程 编辑:程序博客网 时间:2024/05/16 05:58
softmax 函数
又称为 normalized exponential function:is a generalization of the logistic function that “squashes” a K-dimensional vector
很显然,这个式子将一个n维的张量输入转化为n维的数,其中每个数的范围为0-1,所有数加起来为1。可以理解为为一种概率分布(probability distribution),比如一个多 label 的分类任务(比如手写字符识别0-9),其结果对应着分类结果为j的概率。
In probability theory, the output of the softmax function can be used to represent a categorical distribution – that is, a probability distribution over K different possible outcomes. In fact, it is the gradient-log-normalizer of the categorical probability distribution.[further explanation needed]
The softmax function is used in various multiclass classification methods, such as multinomial logistic regression (also known as softmax regression)[1]:206–209 [1], multiclass linear discriminant analysis, naive Bayes classifiers, and artificial neural networks.[2] Specifically, in multinomial logistic regression and linear discriminant analysis, the input to the function is the result of K distinct linear functions, and the predicted probability for the j’th class given a sample vector x and a weighting vector w[further explanation needed] is:
下面这个函数是通过向量版的softmax,与之前不同的是这里的x、w是特定维数的向量,输入的向量都在k维的空间中。
- 深度学习机器学习:softmax和log_softmax区分
- 人工智能,机器学习和深度学习的概念区分
- Softmax 和Softmax-Loss在深度学习里面的求导
- 深度学习笔记----softmax
- 机器学习--logistic回归和softmax回归
- 机器学习----Softmax回归
- 机器学习:Softmax回归
- 【机器学习】Softmax推导
- 机器学习和深度学习
- 人工智能、机器学习、深度学习、数据挖掘、数据分析区分
- 深度学习7softmax回归
- 深度学习之Softmax回归
- Tensorflow深度学习之softmax
- 深度学习入门 ---softmax回归
- [深度学习]Softmax 交叉熵
- 深度学习: softmax loss 计算
- 机器学习之Softmax回归
- 【机器学习】Softmax Regression简介
- 多重循环和动态规划解决最大子数组问题
- python 调用 C 动态库
- SpringMVC表单
- 查看mysql是否安装成功和mysql的版本信息
- 职场四原则
- 深度学习机器学习:softmax和log_softmax区分
- 关于jQuery设置复选框checked的属性
- 问题三 卸载VirtualBox时,回滚并提示"严重错误"
- PyQt5+matplotlib结合显示报表
- android 获取指定月份的开始时间 结束时间
- ROS rviz奔溃:QXcbConnection: XCB error解决方法
- 可持久化线段树(主席树)【数组】
- 计步算法个人总结
- 一种快速求集合交集个数上限的方法