Asynchronous Advantage Actor-Critic (A3C)实现cart-pole
来源:互联网 发布:阿洋个人发卡平台源码 编辑:程序博客网 时间:2024/06/07 22:58
tensorflow实现:
github代码地址如下:
https://github.com/wweichn/A3C.git
1 Asynchronous Advantage Actor-Critic (A3C)简介
actor network,critic network
1 Actor观测到state,得到action
2 critic对于state和action进行打分
3 actor根据critic打分,调整策略
4 critic根据reward,调整打分策略
其中A3C特点在于
1) softmax作为actor网络输出,linear作为critic网络输出
2)A3C使用优势A(Advantage)作为动作的评价。
优势A是指动作a在状态s下相对其他动作的优势。假设状态s的价值是V,那么A=Q-V。这里的动作价值Q是指状态s下a的价值,与V的含义不同。直观上看,采用优势A来评估动作更为准确。举个例子来说,假设在状态s下,动作1的Q值是3,动作2的Q值是1,状态s的价值V是2。如果使用Q作为动作的评价,那么动作1和2的出现概率都会增加,但是实际上我们知道唯一要增加出现概率的是动作1。这时如果采用优势A,我们可以计算出动作1的优势是1,动作2的优势是-1。基于优势A来更新网络,动作1的出现概率增加,动作2的出现概率减少,更符合我们的目标。因此,A3C算法调整了Critic评判模块的价值网络,让其输出V值,然后使用多步的历史信息来计算动作的Q值,从而得到优势A,进而计算出损失函数,对行动网络进行更新
阅读全文
0 0
- Asynchronous Advantage Actor-Critic (A3C)实现cart-pole
- 强化学习系列<8>Asynchronous Advantage Actor-Critic(A3C)
- A2C Advantage Actor-Critic源码
- actor-critic框架
- Actor-Critic强化学习教程
- 强化学习之Actor Critic
- Actor Critic算法源码分析
- 强化学习系列<6>Actor Critic
- 强化学习w/ Keras + OpenAI的实践:Actor-Critic模型
- DRL之Policy Gradient, Deterministic Policy Gradient与Actor Critic
- CART实现
- CNTK与深度强化学习笔记之二: Cart Pole游戏示例
- Ruby Actor指南(五)实现Actor
- actor Java 实现
- cart未实现
- JAC88 Critic
- Actor
- Actor
- Linux下的Type C网络端口无法使用
- input 输入框禁止输入小数点
- 使用ajax提交form表单,包括ajax文件上传
- Ant+Jmeter 批量执行脚本
- C计算1/1-1/2+1/3-1/4+1/5 …… + 1/99
- Asynchronous Advantage Actor-Critic (A3C)实现cart-pole
- java基础编程练习题及解答
- android 4.1.1 setColorFilter bug解决
- 面向对象程序设计上机练习十二(运算符重载)
- vue基于vue-cli的项目搭建及部分依赖的添加
- eclipse安装Hudson/Jenkins插件
- 借助第三方,java长链接转短链接,IP域名同样支持
- nginx url中带中文不能访问
- 浮动IP(FLOAT IP)