|本期目录/Table of Contents|

[1]姚杰,柯飂挺,任佳.基于深度强化学习的自适应增益控制算法[J].浙江理工大学学报,2020,43-44(自科五):647-652.
 YAO Jie,KE Liuting,REN Jia.Adaptive gain control algorithm based on deep reinforcement learning[J].Journal of Zhejiang Sci-Tech University,2020,43-44(自科五):647-652.
点击复制

基于深度强化学习的自适应增益控制算法()
分享到:

浙江理工大学学报[ISSN:1673-3851/CN:33-1338/TS]

卷:
第43-44卷
期数:
2020年自科五期
页码:
647-652
栏目:
出版日期:
2020-09-18

文章信息/Info

Title:
Adaptive gain control algorithm based on deep reinforcement learning
文章编号:
1673-3851 (2020) 05-0647-06
作者:
姚杰柯飂挺任佳
浙江理工大学机械与自动控制学院,杭州 310018
Author(s):
YAO Jie KE Liuting REN Jia
Faculty of Mechanical Engineering & Automation, Zhejiang Sci-Tech  University, Hangzhou 310018, China
关键词:
深度强化学习PID自适应增益定值控制
分类号:
TP29
文献标志码:
A
摘要:
经典比例积分微分(ProportionalIntegralDerivative, PID)控制器的参数整定过程繁琐,且随着被控对象模型的改变需要重新整定参数,针对该问题提出了一种基于深度强化学习的自适应增益控制算法。该算法在经典PID控制器的比例环节引入深度Q学习网络(Deep Qnetwork, DQN)模型,对增益进行自适应调整,同时为简化控制器结构,去除了经典PID控制器中的微分环节和积分环节。以双容水箱为研究对象,对该算法进行仿真实验。结果表明:该算法在满足定值控制任务的前提下,相比于经典PID控制器,其超调量及稳态误差更小,且在模型对象改变后能够通过自学习得到相应的控制策略,从而避免了繁琐的参数整定过程。

参考文献/References:

[1] Adel T, Abdelkader C. A Particle swarm optimization approach for optimum design of PID controller for nonlinear systems[C]//2013 International Conference on Electrical Engineering and Software Applications. Hammamet. Tunisia: IEEE, 2013: 682-685.
[2] 甄岩, 郝明瑞. 基于深度强化学习的智能PID控制方法研究[J]. 战术导弹技术, 2019(5): 37-43.
[3] Qureshi M S, Swarnkar P, Gupta S. Fuzzy PID sliding mode control for robotics: An application to surgical robot[J]. Recent Advances in Electrical & Electronic Engineering, 2019, 12(2): 118-129.
[4] Osinski C, Leandro G V, Da Costa Oliveira G H. Fuzzy PID controller design for LFC in electric power systems[J]. IEEE Latin America Transactions, 2019, 17(1): 147-154.
[5] Bhatt R, Parmar G, Gupta R. Whale optimized PID controllers for LFC of two area interconnected thermal power plants[J]. ICTACT Journal on Microelectronics, 2018, 3(4): 467-472.
[6] 袁春元, 蔡锦康, 王新彦. 基于粒子群算法的车辆悬架PID控制器研究[J]. 中国农机化学报, 2019, 40(5): 91-97.
[7] Du X J, Wang J L, Jegatheesan V, et al. Dissolved oxygen control in activated sludge process using a neural networkbased adaptive PID algorithm[J]. Applied Sciences, 2018, 8(2): 261.
[8] 霍召晗, 许鸣珠. 基于小波神经网络PID的永磁同步电机转速控制[J]. 电机与控制应用, 2019, 46(11): 1-6.
[9] Liu X Y, Ding Z, Borst S, et al. Deep reinforcement learning for intelligent transportation systems. (2018-12-03)[2020-03-02]. https://arxiv.org/abs/1812-00979.
[10] Zheng G, Zang X, Xu N, et al. Diagnosing reinforcement learning for traffic signal control. (2019-05-12)[2020-03-02]. https://arxiv.org/abs/1905-04716.

备注/Memo

备注/Memo:
收稿日期:2020-01-09
网络出版日期:2020-05-08
基金项目:浙江省公益技术研究项目(GG20F030031);浙江省自然科学基金项目(LY17F030024)
作者简介:姚杰(1996-),男,浙江温州人,硕士研究生,主要从事深度强化学习方面的研究
通信作者:任佳,E-mail:jren@zstu.edu.cn
更新日期/Last Update: 2020-09-15