论文部分内容阅读
随着机器人在众多领域取得的广泛应用,常见的一些如重复性、危险性的工作均可由机器人完成。路径规划作为机器人的重要研究内容,受到国内外学者的广泛关注。快速扩展随机树算法(Rapidly-exploring Random Tree)作为一种新颖的随机节点采样算法,自提出以来就得到极大的研究与发展。相对传统路径规划算法,RRT具有建模时间短、搜索能力强、方便添加非完整约束等优点,但是节点随机扩展导致路径质量差,无法收敛至最优路径。而RRT的变体RRT*能生成收敛的最优路径,但整体消耗时间长。在RRT的基础上,本文提出基于强化学习的SRRT(Sarsa RRT)算法。在节点扩展过程中采用马尔科夫决策建模,并使用Sarsa算法训练节点,提高所规划路径的质量。同时,针对其变体RRT*,提出基于同伦渐进优化的AIRRT*(Adjoined Informed RRT*)算法,结合椭圆区域采样与同伦路径优化过程,提高算法的收敛速度。本文的主要研究内容与创新点如下:(1)提出基于强化学习的SRRT算法。针对RRT节点的随机扩展,使用Sarsa的回合状态更新机制代替单步更新,建立马尔科夫模型、定义算法的状态与动作空间,采用变参数的贪婪策略及连续反馈的奖赏函数训练节点扩展过程,通过产生的Q表来选择有效动作策略,形成路径值稳定的次优收敛路径。仿真结果表明,在不同环境下,SRRT收敛后的路径值比初始平均路径值低;在一定迭代次数下,SRRT收敛后的路径质量及搜索成功率均优于RRT,体现SRRT的收敛效果及整体优化性能。(2)提出基于同伦渐进优化的AIRRT*算法,将椭圆采样区域与同伦路径优化过程相结合,详细介绍IRRT*算法的椭圆区域采样原理,并在IRRT*基础上,增加同伦路径渐进优化过程。通过线性插值和自适应选取的环境信息点,将路径优化为同伦最优路径,缩小椭圆采样区域,提高算法最优路径收敛速度。仿真结果表明,在不同实验环境下,AIRRT*收敛至最优路径的速度均快于IRRT*和RRT*,体现了其快速收敛至最优路径的能力。