论文部分内容阅读
环境探索与路径规划是室内移动机器人自主完成其他工作任务的基础,基于地图创建目的的环境探索是指机器人能够高效进行环境遍历,获取相应的环境信息,从而在机器人大脑中建立机器人能够理解的环境布局地图,并在完成地图创建的基础上进行全局路径规划,最终实现工作任务的顺利完成。本文对机器人环境探索和路径规划问题进行了研究,本论文的主要研究工作如下:1.针对移动机器人需要高效进行环境遍历,获取详细的环境信息,而传统的随机搜索方法又存在效率不高,资源浪费的问题,研究了一种基于有限状态自动机(Finite-State-Auto Machine,FSAM)的移动机器人室内环境遍历方法。该方法对机器人探测域内的环境信息进行栅格化处理,设计了不同的转换状态,对状态机的选择策略进行研究,设计了三种状态转换选择策略:最大信息熵选择策略,重定位栅格选择策略,搜索移动策略。利用FSAM将各个状态与转换策略组织成循环体,从而实现机器人对环境的高效遍历过程。2.在确保机器人能够较好地进行环境遍历的基础上,针对机器人进行环境拓扑地图创建的问题,提出了一种基于阈值可变的动态增长自组织神经网络(Variable Threshold Dynamic Growing Self-Organizing Map,VTDGSOM)的环境地图建模方法。引入层次聚类因子(Clustering Factor,CF),使网络生长阈值可以根据环境信息进行自适应改变,从而实现不同层次的聚类,缩短了机器人进行环境建模的时间。在三种典型环境中对算法进行了仿真实验,并与已有的SOM和DGSOM算法进行对比,实验结果证明了基于VTDGSOM算法创建环境拓扑地图的有效性和高效性。3.在已创建环境地图的基础上,提出一种基于删减A*(Pruning Algorithm_A*,PA_A*)算法进行全局路径规划,PA_A*算法对使用A*算法在全局地图上搜索到的从任一起点到终点的最优路径进行进一步删减优化。仿真实验结果表明优化后的路径点数目减少而且机器人所需行走的距离更短,从而进一步提高了机器人全局路径规划的效率。4.针对机器人增强学习导航中,可能会出现的由于状态空间扩大而导致的“维数灾难”和学习性能不佳的问题,提出了BP神经网络与Q学习相结合的模型。设计了利用BP神经网络生成的启发回报函数—Shaping函数,对Q学习的lookup表格进行启发更新,将神经网络的泛化能力和预测能力与Q学习结合,用于机器人室内环境导航。实验表明该方法对Q学习性能的提高具有较好地作用。本文的研究工作受到国家973计划项目(2012CB720000),国家自然科学基金项目(61375086),北京市自然科学基金项目/北京市教育委员会科技计划重点项目(KZ201210005001)资助。本文的工作对于研究机器人室内环境探索和路径规划的问题具有一定的参考意义。