论文部分内容阅读
针对现有图像局部特征描述算法在面向特征点法视觉SLAM应用中存在的耗时和精度不能兼顾的问题,提出了一种基于深度可分离卷积和反向残差结构的改进型描述子提取网络结构。使用基于指数函数的三元组损失函数和基于余弦距离矩阵的负样本挖掘策略训练网络,得到了具有良好表征能力的网络参数。通过在Hpatches评价指标的3种任务上的对比实验,结果表明:该算法的精度远优于传统描述子和浅层网络描述子,耗时远低于深层网络描述子,兼顾了视觉SLAM的耗时和精度。