NÂNG CAO HIỆU QUẢ ĐIỀU KHIỂN ROBOT, SỬ DỤNG HỌC TĂNG CƯỜNG KẾT HỢP HỌC SÂU

Lương Thị Thảo Hiếu, Phạm Thị Phương Thuý, Nguyễn Khắc Hiệp
{"title":"NÂNG CAO HIỆU QUẢ ĐIỀU KHIỂN ROBOT, SỬ DỤNG HỌC TĂNG CƯỜNG KẾT HỢP HỌC SÂU","authors":"Lương Thị Thảo Hiếu, Phạm Thị Phương Thuý, Nguyễn Khắc Hiệp","doi":"10.34238/tnu-jst.7733","DOIUrl":null,"url":null,"abstract":"Mặc dù học sâu có thể giải quyết các bài toán mà các thuật toán học máy cũ không giải quyết được nhưng cần lượng dữ liệu rất lớn và trong thực tế dữ liệu không phải lúc nào cũng có sẵn trong bài toán điều khiển. Học tăng cường là một giải pháp tốt trong bài toán điều khiển robot. Trong học tăng cường, dữ liệu được tạo ra khi tác tử tương tác với môi trường. Cùng với sự ra đời của mạng noron, nhiều nghiên cứu đã tập trung kết hợp mạng noron vào học tăng cường tạo nên học tăng cường sâu. Trong bài báo này chúng tôi đề xuất mô hình học tăng cường sâu mới dựa trên sự cải tiến thuật giải Deep Q Learning truyền thống bằng cách kết hợp các kỹ thuật: Fixed_Q Target, Double Deep Q, Prioritized Experience Replay, với mô hình mạng VGG16, ứng dụng điều khiển robot xếp hàng hóa với không gian trạng thái tự thiết kế sử dụng Unity ML-Agents.  Mô hình đề xuất được thực nghiệm, so sánh đánh giá hiệu quả so với mô hình ban đầu. Kết quả cho thấy phương pháp đề xuất hội tụ nhanh và khắc phục được hiện tượng ước lượng quá mức giá trị Q.","PeriodicalId":23148,"journal":{"name":"TNU Journal of Science and Technology","volume":"17 1","pages":""},"PeriodicalIF":0.0000,"publicationDate":"2023-05-24","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":null,"platform":"Semanticscholar","paperid":null,"PeriodicalName":"TNU Journal of Science and Technology","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.34238/tnu-jst.7733","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
引用次数: 0

Abstract

Mặc dù học sâu có thể giải quyết các bài toán mà các thuật toán học máy cũ không giải quyết được nhưng cần lượng dữ liệu rất lớn và trong thực tế dữ liệu không phải lúc nào cũng có sẵn trong bài toán điều khiển. Học tăng cường là một giải pháp tốt trong bài toán điều khiển robot. Trong học tăng cường, dữ liệu được tạo ra khi tác tử tương tác với môi trường. Cùng với sự ra đời của mạng noron, nhiều nghiên cứu đã tập trung kết hợp mạng noron vào học tăng cường tạo nên học tăng cường sâu. Trong bài báo này chúng tôi đề xuất mô hình học tăng cường sâu mới dựa trên sự cải tiến thuật giải Deep Q Learning truyền thống bằng cách kết hợp các kỹ thuật: Fixed_Q Target, Double Deep Q, Prioritized Experience Replay, với mô hình mạng VGG16, ứng dụng điều khiển robot xếp hàng hóa với không gian trạng thái tự thiết kế sử dụng Unity ML-Agents.  Mô hình đề xuất được thực nghiệm, so sánh đánh giá hiệu quả so với mô hình ban đầu. Kết quả cho thấy phương pháp đề xuất hội tụ nhanh và khắc phục được hiện tượng ước lượng quá mức giá trị Q.
查看原文
分享 分享
微信好友 朋友圈 QQ好友 复制链接
本刊更多论文
提高机器人控制效率,提高深度结合学习
虽然深度学习可以解决旧机器算法无法解决的问题,但它需要大量的数据,而且在现实中,数据并不总是在控制问题中可用。增强学习是机器人控制问题的一个很好的解决方案。在增强学习中,当角色与环境交互时产生的数据。随着诺伦网络的出现,许多研究集中在将诺伦网络结合到增强学习中,从而形成深度增强学习。在这篇文章中,我们提出了一种基于传统深度Q学习算法改进的新的深度增强模型,通过结合技术:Fixed_Q目标,双深度Q,优先级体验重放,与VGG16网络模型,应用程序控制机器人排队与自设计状态空间使用统一的ml代理。提出的模型经过了试验,并与原模型进行了比较。结果表明,该方法收敛速度快,克服了估计超过Q值的现象。
本文章由计算机程序翻译,如有差异,请以英文原文为准。
求助全文
约1分钟内获得全文 去求助
来源期刊
自引率
0.00%
发文量
0
期刊最新文献
CHARACTERIZATION OF INDIGENOUS OIL-DEGRADING BACTERIA FROM OIL-POLLUTED SOIL IN CAM RANH, KHANH HOA ADHESION OF EPOXY PAINT AND POLYURETHANE PAINT BY THE PULL-OFF METHOD DETERMINATION OF COEFFICIENT OF FRICTION DURING COLD RING UPSETTING PROCESS WITH DIFFERENT LUBRICANTS NÂNG CAO CHẤT LƯỢNG HIỆU CHUẨN NỘI KÊNH PHÁT CỦA HỆ THỐNG ĂNG TEN MẢNG PHA SỐ NHẬN THỨC VỀ RỦI RO KHI THAM GIA MUA SẮM TRỰC TUYẾN: TRƯỜNG HỢP NGHIÊN CỨU TẠI THÀNH PHỐ PHAN THIẾT, TỈNH BÌNH THUẬN
×
引用
GB/T 7714-2015
复制
MLA
复制
APA
复制
导出至
BibTeX EndNote RefMan NoteFirst NoteExpress
×
×
提示
您的信息不完整,为了账户安全,请先补充。
现在去补充
×
提示
您因"违规操作"
具体请查看互助需知
我知道了
×
提示
现在去查看 取消
×
提示
确定
0
微信
客服QQ
Book学术公众号 扫码关注我们
反馈
×
意见反馈
请填写您的意见或建议
请填写您的手机或邮箱
已复制链接
已复制链接
快去分享给好友吧!
我知道了
×
扫码分享
扫码分享
Book学术官方微信
Book学术文献互助
Book学术文献互助群
群 号:481959085
Book学术
文献互助 智能选刊 最新文献 互助须知 联系我们:info@booksci.cn
Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。
Copyright © 2023 Book学术 All rights reserved.
ghs 京公网安备 11010802042870号 京ICP备2023020795号-1