一、基于模型的位姿估计中优化方法研究(论文文献综述)
梁文斌[1](2021)在《考虑鲁棒性的高精度视觉SLAM混合方法研究》文中指出视觉SLAM技术是机器人、无人驾驶、视觉惯导、虚拟现实以及增强现实等新兴邻域的核心技术。视觉SLAM技术的精度、鲁棒性和实时性是影响其在这些先进科技邻域中产业化应用的主要因素。传统的两类视觉SLAM方法,直接法和间接法,各自都存在一些优势与不足,且两者的特性非常互补。一类新的视觉SLAM方法通过将这两种传统视觉SLAM方法进行融合,结合两者的互补优势来提升性能,这类新方法被称为半直接法或混合方法。一些新的研究成果表明,基于混合方法的视觉SLAM系统整体性能远远优于传统方法。这一新的视觉SLAM研究领域相关工作较少,现有的混合方法在系统结构和算法性能方面还存在许多需要改进和完善之处,如系统工作效率低,算法模块性能不高,系统功能不完善等问题。针对上述问题,论文从改进系统结构,扩展应用范围,提升算法模块性能,完善系统功能方面,对视觉SLAM混合方法展开如下研究:(1)提出一种基于混合方法的RGB-D SLAM系统。首先,通过在系统中引入卷帘曝光相机模型,降低RGB-D相机卷帘畸变对系统精度和鲁棒性的影响。其次,改进松耦合混合方法的系统结构,提高了系统跟踪的鲁棒性。最后,将混合方法应用在RGB-D SLAM系统上。实验验证了论文所提出系统相比传统方法具有更高的精度和鲁棒性。(2)提出一种考虑了特征点分布情况的紧耦合混合方法。首先,定义了图像上特征点的覆盖度和均匀度两个参数,量化了图像上特征点的分布情况。其次,将定义的量化参数融合到紧耦合混合方法的联合优化算法模块的融合权重之中。最后,通过实验验证了所提出的方法有效提升了精度,计算效率和鲁棒性。(3)提出一种针对混合方法视觉里程计的回环策略。首先,为系统添加独立的线程,并通过基于BRIEF描述子的词袋模型进行闭环检测。其次,用位姿图优化算法修正回环轨迹。最后,通过实验验证了所提出的回环策略的有效性。
赵丽华[2](2020)在《机器人室内场景规则体视觉感知及重建研究》文中研究指明近年来,随着机器人领域的不断发展,机器人已经广泛的应用于生产生活各个方面。准确的场景地图是机器人与环境进行有效交互的保障,场景地图构建已成为热点问题。同时定位与构图(Simultaneous Localization and Mapping,SLAM)技术在场景地图构建方面应用广泛,虽取得了一定的进展,但是构建的场景地图不含语义信息,地图精度不高,存在深度信息缺失和闭环效果不佳等问题。针对以上问题,本文将规则体信息应用到地图构建中,设计了融合规则体信息与RGB-D SLAM的室内场景语义地图构建方案,借助规则体语义信息与三维模型提高场景地图的质量。本文主要研究工作如下:(1)通过深度学习与传统方法融合完成规则体检测及边缘提取。首先,通过COCO数据集对YOLO目标检测模型进行训练,得到目标检测模型,利用该模型对包含规则体的图像进行检测;然后,利用检测结果将图像分割为仅包含单个物体的图像,使用HED网络进行边缘提取,得到较为准确的物体边缘;最后,结合Canny边缘检测进行优化,得到规则体重建所需边缘信息。(2)通过单张图像中规则体的边缘信息和几何约束完成规则体建模。主要实现了长方体、回转体、球体以及广义圆柱体和广义立方体的建模。建模方式简单高效,可以快速完成建模。对于长方体建模,借助边缘检测所得二维检测框和消失点求解顶点坐标,再结合相机参数求解三维坐标。对于回转体,结合回转体在成像后存在的几何约束,对回转体上下底面形成的椭圆进行拟合,以此为基础逐步求解并矫正生成曲线与对称轴。对于球体,通过在投影图像中选取投影圆上的三个点作为先验,求解圆心及半径,进而结合相机参数求解球心及球体半径。对于广义圆柱体和广义立方体,利用边缘轮廓信息获取底面与侧面轮廓,确定对称轴,然后将底面沿着对称轴进行扩展,从而完成建模。(3)融合规则体信息进行场景地图构建。首先,设计融合规则体信息的场景地图构建总体框架;其次,提出规则体尺度与位姿估计初始化方法,利用帧间匹配进行尺度与位姿的初始估计。在初始位姿的基础上,借助深度数据对规则体尺度和位姿进行优化;最后构建完整的融合规则体信息的场景语义地图。实验结果表明,本文提出的融合规则体信息的场景语义地图构建方法,可以用在室内场景地图构建中,构建的地图包含特定规则体的语义信息与形状信息,相比于传统点云地图,包含规则体语义信息,地图更加完整,适用于更高要求的应用场景,在机器人室内场景服务与环境感知中具有一定的实用价值。
黄德斌[3](2020)在《面向车联网的视觉惯性里程计方法研究》文中研究表明随着人工智能、云/边缘计算和5G网络技术的蓬勃发展,车联网(Io V)技术引起了学术界和工业界的广泛关注。车联网是支持自动驾驶的重要基础设施,其可以完成实时的道路信息交换、共享和车辆定位,而车辆自主定位是提高自动驾驶智能决策和安全运输能力的关键。传统车联网系统中广泛采用全球定位系统(GPS)来定位,由于GPS有米级误差和多径效应,尤其是在高楼密集的城市以及密闭的隧道等,已经不能满足自动驾驶的关键应用需求。为了解决上述车辆自主定位问题,在基于同步定位与地图构建(Simultaneous Localization and Mapping,SLAM)的基础上,本文将视觉定位与惯性测量单元结合设计了自主定位方法。利用视觉设备不漂移特性能有效地估计并修正惯性测量单元(Inertial Measurement Unit,IMU)的漂移,惯性测量单元能获取本体的角速度和加速度弥补相机数据无效的时刻。结合两者的互补性,本文设计了视觉惯性里程计定位方法,提出了基于点线特征的半直接法单目视觉惯性里程计定位方法(SDMPL-VIO)。低成本的IMU和单目摄像机获取周围环境信息作为SDMPL-VIO模型的输入。采用半直接法处理图像中的点线特征,IMU信息通过IMU预积分方式计算,最后使用紧耦合优化框架融合两者数据,使得里程计更加具有稳定性和鲁棒性。可以有效解决车辆在某些场景下无法使用GPS问题,实现车辆自主定位。本文主要的研究内容如下:(1)深入研究了视觉惯性里程计实现的基本原理本文首先系统分析了多视觉几何、三维空间刚体运动、群和流形基本理论,深入研究了惯性导航系统基本原理、IMU运动学模型以及非线性优化理论等,为后续视觉前端特征提取、特征描述以及后端优化研究奠定了基础。(2)提出了半直接法视觉跟踪模型针对点特征存在对环境依赖比较大,以及在纹理缺失等场景下容易出现特征跟踪丢失的问题。面向车联网领域,基于多视觉几何原理,本文提出了半直接法视觉跟踪模型。该模型对相机采集的图像同时采用提取点和线特征的方法。另外根据场景的特征,利用半直接法来处理不同的场景。如果此时场景特征比较少,则采用直接法进行位姿跟踪,反之采用特征点法。该模型在弱纹理场景下具有较好的特征跟踪效果,可以有效解决点特征存在对环境依赖比较大,并且在纹理缺失等场景下容易出现特征跟踪丢失的问题。本文提出的半直接法视觉跟踪模型提高了对图像帧的处理效率和以及特征匹配的准确性,实验结果表明该模型能为后端优化提供更具有鲁棒性的初始结果。(3)提出了视觉惯性里程计后端优化模型基于ORB-SLAM2视觉模型和惯性测量单元数据融合的组合定位方法,提出了视觉惯性里程计后端优化模型。改进了ORB-SLAM2的优化模型,利用IMU数据来构建本文的车辆运动预测模型,利用ORB-SLAM2输出的位姿作为车辆位姿更新。通过光束平差法对视觉里程计的点线特征与IMU输出位姿进行紧耦合最优位姿估计。该模型在动态环境和长时间运行的情况下具有较高的准确度,可以有效解决外界环境对相机的干扰以及IMU器件长时间运行误差累积造成车辆自主定位不准确或者定位失败的问题。在Eu Ro C和KITTI数据集上实验结果表明,本文提出的SDMPL-VIO方法在性能上优于多个同类型的里程计方法,验证了基于点线特征的半直接法单目视觉惯性里程计定位方法的可靠性和稳定性。
戴磊[4](2020)在《基于RGB-D相机和IMU传感器融合的移动机器人SLAM研究》文中提出对于移动机器人来说,精确的定位与对位置环境的感知是正常工作的基础,同时定位与地图构建(Simultaneous Localization and Mapping,SLAM)能很好地解决这一问题。视觉SLAM是指利用视觉传感器,实现对自身的定位和对环境的感知。针对室内机器人,RGB-D相机可以提供丰富的视觉信息和深度信息,实现移动机器人的定位,但是在特征稀疏的区域或快速运动的情况下可能丢失跟踪。而通过融合IMU传感器的数据,可以很好地解决上述跟踪丢失的问题,得到更优的鲁棒性和精度。因此,本文对基于RGB-D相机和IMU传感器融合的SLAM问题进行了研究。首先,本文分析了视觉SLAM问题的求解方式,得出视觉SLAM问题本质上是一个状态估计问题,并分析了基于非线性优化的优化方式。其次,从RGB-D相机的针孔相机模型和IMU传感器观测模型出发,分别估计自身的位姿。并研究分析两种传感器估计位姿的异同点,构建新的优化向量和系统的联合目标函数。然后,设计了深度VINS的整体框架。采用松耦合的方式以视觉估计为先验进行系统初始化,利用RGB-D相机深度信息减去尺度初始化估计的环节。制定了关键帧筛选条件,并根据RGB-D相机的性质设计了地图点管理方法。后续通过边缘化控制滑动窗口的大小,并将边缘化的先验误差加入到新的联合目标函数中进一步提高系统的精度和鲁棒性。为解决长时间跟踪导致的漂移问题设计了基于词袋模型的回环优化算法。最后,介绍了基于RGB-D相机和IMU传感器的SLAM系统搭建的硬件平台和软件平台。通过标定获取相机的内参矩阵、畸变系数和与IMU传感器之间的欧式变换矩阵,误差满足系统要求。在公开的数据集中同时测试本文方法与开源的VIO算法,相比较之下本文方法能更好地估计尺度信息,得到更好的精度。后续在移动机器人上搭载RGB-D相机和IMU传感器测试算法,在实际运行中也能很好的贴合固定轨迹,并能根据RGB-D相机构建稠密地图和八叉树地图。
陈垚鑫[5](2020)在《基于单目顶视相机的室内定位方法研究与实现》文中研究说明基于单目相机的视觉里程计是室内移动定位领域的关键技术。该技术通过追踪视频流图像中的点-线-面特征,建立了相机在现实世界中运动轨迹的数学模型。考虑到室内网格型天花板上存在大量有利于定位的结构化线特征与平面特征,本文设计了一种基于单目顶视相机追踪天花板特征的室内定位系统,并在嵌入式平台上实现。该系统以PLSVO为基础框架,改进线特征的初始化、坐标优化、匹配以及位姿优化等模块,并增加天花板平面特征优化模块。本文的主要工作有:1)采用基于匹配线段的三角化深度估计方法初始化线特征,相比于PL-SVO基于匹配点的深度估计,具有更高的初始化坐标精度与更快的收敛速度。2)采取严格的匹配条件筛选线特征,同时增加线段中点匹配与出界处理,提高匹配的成功率。3)分析了三种线特征重投影误差模型,采用投影线-匹配点模型结合特征权重策略提高系统的定位精度。4)为降低非显着端点误匹配对线特征坐标精度的影响,采用高斯牛顿迭代法优化在普吕克坐标系下的线特征空间直线位置,并使用最小二乘法在直线上寻找最佳的端点位置。5)将天花板平面特征作为先验条件初步估计特征的深度,提高特征初始化收敛速度。同时,将平面特征作为强约束,进一步优化平面上特征的世界坐标。在嵌入式平台上,本文综合改进后的系统在实际网格型天花板场景数据集下的平均每米漂移误差为1.48cm,相比于PL-SVO降低了25.3%;系统的运行速度为78帧/秒,相比于PL-SVO降低了12.6%。与其他主流的视觉里程计相比,本文系统在网格型天花板场景下的定位精度最高,同时在嵌入式平台具备较高的运行速度与较低的内存开销。
李攀伟[6](2020)在《关于单目视觉实时定位与建图中的优化算法研究》文中研究说明移动机器人技术越来越成为万众瞩目的焦点。在未来,SLAM技术,不仅和无人驾驶结合方便人们出行,而且与工业运输相结合使得无人卡车无人飞机提高流通效率,也应用于VR和AR眼镜,改变人们生活娱乐的交互理念。这些生活中熟悉的场景,将为会因这项技术的进步而取得翻天覆地的变化。视觉SLAM目前遇到的挑战有两方面:第一是移动机器人持续运动视角的动态场景下,如何保持算法系统的稳定性,第二是,如何有效的利用从传感器获取的丰富的数据信息,并在现有的硬件设备下高效的优化计算结果。基于以上问题,本文将因子图模型应用于单目视觉的优化算法研究,提出了一种信息融合的单目视觉SLAM方法。本论文针对目前视觉同步定位与建图(SLAM)的视觉里程计(Visual Odometry)方法在室外动态场景下,视觉前端中特征点信息利用率低,且不足以满足稳定的图像匹配跟踪的问题,提出一种结合特征关键子和直接法灰度匹配方法前端视觉里程计信息融合方法,使其不仅在快速运动情况下不再有严重的特征丢失而且降低对灰度不变假设的依赖,在纹理不足的场景也有较好的稳定性。实验证明,通过前端视觉里程计对特征点进一步简化,进而对像素块的像素梯度计算,提高了视觉前端图像的像素信息利用率,改善了传统方法中特征点丢失、对光强不变性过度依赖的特点,平均实时帧率满足实时性的要求。在视觉里程计后端,本文摒弃传统的滤波器算法,递推的贝叶斯估计构建因子图模型。当视觉里程计前端获取传感器量测信息后,通过系统的变量节点和因子节点对因子图进行拓展,基于设置的代价函数完成状态的递推和更新。通过因子图优化采用增量平滑的方法,边缘化位姿矩阵,从而实现单目视觉SLAM在室外大尺度场景下保持实时性需求的前提下,进一步提高定位精度。实验表明,相对于传统的SLAM算法,本论文提出的视觉里程计方法在KITTI odometry数据集中的定位精度平均平方根误差为1.79m,加入因子图优化模型后,平均均方根误差为1.63m,帧率达到71fps。实验分析,在同等硬件环境下,与其他经典视觉里程计相比,本算法在精准度和稳定性度上有一定的提升。同时基于此视觉里程计引入的因子图非线性优化模型,使得视觉里程计的定位精度有了进一步的提升,而且保证了较高的帧率水平,满足实时定位的需要,也有良好的稳定性。
何宇喆[7](2020)在《基于点、线特征的视觉惯性里程计》文中进行了进一步梳理视觉惯性里程计(VIO)被广泛应用于无人机、无人驾驶、VR/AR等领域中,用于解决移动端在未知环境中实时定位的问题,具有重要的研究价值。为了提升位姿估计的准确性和鲁棒性,本文提出了基于点、线特征的采用紧耦合优化方法的视觉惯性里程计。线特征广泛存在于人造环境中,在VIO中添加对环境中线特征的观测,在纹理缺失的环境中线特征可以为VIO提供足够多的帧间视觉信息约束。本文的主要研究内容和研究方法包括:1.在点特征跟踪模块中通过最小化帧间图像灰度误差的方法估计帧间的单应变换矩阵和帧间的仿射亮度变化参数,然后用单应矩阵预测特征点在当前图像帧的位置,最后用KLT光流法跟踪特征点准确位置,本文的这种跟踪方法可以得到更高的跟踪成功率。在线征跟踪中本文采用先跟踪直线采样点的方法,再对直线进行筛选。2.本文中采用了一种新的IMU预积分方法,对IMU的预积分状态先用中值积分方法积分再推导出离散形式的误差状态方程,通过误差状态方程求得IMU预积分的均值和误差状态的协方差,从本文的最终位姿估计结果中证实了这个预积分方法的可靠性。3.在VIO的滑动窗口优化器中,本文采用非线性优化的方法最小化视觉点特征观测残差、视觉线特征观测残差、IMU预积分观测残差和先验信息残差来估计系统的状态。为了维持滑动窗口关键帧数量恒定,本文给出了被边缘化的关键帧的选择策略和与被边缘化关键帧相关的路标点、线的选择方法。4.在VIO的回环检测与优化模块中,本文采用DBo W2检测闭环关键帧,给出了当前关键帧和闭环关键帧局部地图关键帧的图像间特征点的匹配方法,在当前关键帧和闭环关键帧局部地图间求取关联位姿,通过位姿图优化的方法减少位姿的漂移。
王鹤群[8](2020)在《弱纹理环境下基于深度相机的关键信息融合位姿估计方法》文中提出同步定位与地图构建(Simultaneous Localization and Mapping,SLAM)技术是实现机器人自主移动的基础,具有广阔的应用前景。通过SLAM技术,机器人能够实现在未知环境中感知及自主定位,并在此基础上完成自动驾驶、自主导航等任务。视觉里程计(Visual Odometry,VO)是视觉SLAM的重要组成部分,通常以相机作为传感器来获取图像输入信息,估计帧与帧之间的相机运动,即相机位姿估计。相机位姿估计是SLAM技术的重要环节,影响着SLAM系统的实时性和准确性,位姿估计方法的研究对于机器人技术的发展具有重要意义。近年来计算机视觉技术飞速发展,相机位姿估计问题得到了初步解决,但是在弱纹理环境中由于特征点少、信噪比低,位姿估计仍是难点。其中,基于特征点法的位姿估计方法的提出较早,该类方法提取图像中的特征点并进行帧与帧之间的特征点匹配,利用若干匹配的特征点对计算相机位姿。但在弱纹理环境中,由于能够检测到的特征点少,故特征点法易于出现因匹配的特征点对数目不足而无法估计出位姿的情况,导致相机位姿跟踪的中断。另一方面,基于直接法的位姿估计方法以灰度不变前提为假设,通过最小化图像中的全部或部分像素的帧间灰度残差,从而解得最优位姿。但是直接法容易受到弱纹理环境信噪比低的影响,从而位姿估计的准确度大大降低。为了解决弱纹理环境下的位姿估计问题,出现了一些基于线特征的位姿估计方法来替代特征点,但其特征提取和描述子计算较为复杂,难以融合后端优化;另一些方法通过提取图像中的边缘位置像素来增加信噪比,但边缘提取的不稳定和像素数量少易造成位姿估计的鲁棒性差,并且纹理少的环境不利于灰度误差最小化中的位姿迭代优化,极大地影响位姿估计的准确度。针对弱纹理环境下的位姿估计信噪比低的问题,本文提出一种基于深度相机的关键信息融合位姿估计方法。该方法充分利用图像中的关键信息,提高弱纹理环境下位姿估计的信噪比,使得位姿估计更稳定;并利用环境中的结构信息,引入基于深度的误差最小化方法,提高位姿估计的准确度。为了测试本文方法的性能,通过在标准数据集上的实验展示了本文方法的效果并与其他方法作对比。本文的主要工作如下:1.融合传统方法与深度学习的优势进行边缘提取,然后将提取的边缘进行基于直接法的相机位姿估计,并使用非参数统计的方法拟合边缘像素残差,给出参与计算的像素权重。通过在标准数据集TUM的7个序列上的实验,证明了边缘融合的位姿估计方法的优越性。2.融合灰度图像边缘提取、深度图像边缘提取、高残差区域提取作为关键信息,在灰度误差最小化求解相机位姿的基础上引入基于深度误差最小化的方法。通过在弱纹理数据集上的实验,展示了基于深度相机的关键信息融合位姿估计方法在弱纹理环境下的稳定性和准确度。
孙煊溢[9](2020)在《室内移动机器人精确跟踪定位技术研究》文中指出室内移动机器人的高度智能化服务得益于机器人自主定位算法的使用,但是该算法运算量大、易受环境影响,这使机器人的自主定位容易出现偏差。为了评估机器人自主定位算法的精度,许多基于室内定位技术的移动机器人定位系统被提出。室内定位技术依靠室内丰富的信息构建算法模型,确定定位目标的位置,而在多种类的信息中,视觉信息相比其他信息具有更强的可辨识度。基于计算机视觉的室内定位技术与视觉信息密切相关,是本文研究的重点。本文将扫地机器人作为研究对象,采用单个或多个高分辨率的工业相机作为视觉图像的采集传感器,通过跟踪与定位结合的方式实现一个室内移动机器人的定位系统。本文的主要研究内容包含:(1)实现一个面向室内移动机器人的跟踪定位系统,该系统使用单目工业相机进行图像采集,借助特殊的标记物突出机器人的定位特征,设计跟踪器与检测器提取图像特征,通过位姿估计算法实现对扫地机器人的定位。系统分为四个模块,初始化模块实现对系统初始数据的获取,提供定位所需初始数据;特征检测模块实现对扫地机器人的跟踪与特征提取,关键特征的位置信息是定位算法的基本数据;机器人定位模块实现对相机位姿的估计和对扫地机器人位置的估计;可视化模块实现将连续时间的定位结果以路径的形式展现。(2)实现基于多相机的定位优化方法,该方法针对单相机定位扫地机器人时存在的异物遮挡、深度信息缺失问题,构建多个相机的场景布局,设定基准坐标系,为相机与机器人位姿的确定提供参照物,以多线程的方式实现了多相机协同定位机制,使多个相机能够同时定位。同时,在基于多相机的定位优化方法中设计了一种定位结果融合算法,将经由不同时间、不同相机所得的定位结果进行整理融合,计算更加准确的机器人位置。(3)实现基于多相机场景的图优化方法,该方法通过场景中的相机与机器人构建图模型,求解最小化重投影误差优化问题实现对定位结果的整体优化,消除定位过程中积累的噪声误差。为验证基于多相机的定位优化方法的可行性,将单相机定位的情况与多相机定位的情况进行对照实验,分别对静态和动态的机器人进行定位,定量分析定位结果中存在的误差。实验结果表明,基于多相机的定位优化方法在定位静态机器人时降低了约20%的定位误差,在定位动态机器人时降低了约34%的定位误差。为验证基于多相机的定位系统的泛用性,分别在低亮度场景和存在遮挡物的场景中进行机器人定位的测试,对比这些场景与正常场景中的定位结果,分析基于多相机的定位系统在复杂场景中的定位能力。结果表明低亮度场景对该系统的定位没有造成影响,存在遮挡物的场景增大了该系统的定位误差,但定位的准确度依旧可观。最后测试评估了图优化方法对定位结果的整体优化效果,通过对比优化前后的定位结果验证了图优化模型在基于多相机定位的系统中的可行性。
韩世豪[10](2020)在《基于点线特征的双目视觉惯性SLAM系统研究》文中研究表明同步定位与地图构建(Simultaneous Localization and Mapping)是计算机视觉和机器人导航领域中的核心技术。SLAM技术在机器人领域中被广泛应用,其目的是机器人在没有先验知识的情况下,能够根据传感器数据实时估计自身位置,同时构建环境地图。基于点特征的SLAM系统最近成为人们研究的重心,但在结构化环境中,线特征和点特征一样的丰富,本文提出基于点线特征的双目视觉惯性SLAM系统,目的在于融合点特征、线特征与IMU信息提高机器人的定位精度和鲁棒性。本文的主要研究内容如下:首先,本文搭建了双目IMU视觉惯性模组。根据SLAM硬件平台的实时性与同步性要求,从元件选型、电路图设计到整体框架对模组做一个整体介绍,同时对双目IMU视觉惯性模组的FPGA驱动设计和IMU数据采集驱动设计进行介绍,然后进行模组性能测试。其次,本文对线特征的提取、匹配与参数化方法进行研究。其中详细介绍了使用LSD方法提取图像中线段的原理和LBD描述子的生成方法,然后仔细分析了空间直线的普吕克表示方法以及正交表示法的原理、优缺点以及应用场景。然后,本文提出了基于点线特征的视觉惯性紧耦合优化算法。基于滑动窗口优化理论,提出了一种同时融合双目视觉约束(点特征和线特征)和IMU约束的方法,对优化目标函数即先验残差、IMU残差、点特征观测残差和线特征观测残差进行了详细推导,同时本文提出了一种关键帧筛选机制,分析了滑动窗口优化算法和边缘化原理。最后,本文搭建了基于点线特征的双目视觉惯性SLAM系统进行实验,包括硬件平台搭建和软件系统。在Eu Ro C数据集上与其他几种主流算法进行实验对比,验证了本文提出的基于点线特征的双目视觉惯性SLAM系统具有较高的定位精度和鲁棒性,同时在室外场景下进行实验测试,验证了本文搭建的硬件平台具有较高的稳定性与可靠性。
二、基于模型的位姿估计中优化方法研究(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、基于模型的位姿估计中优化方法研究(论文提纲范文)
(1)考虑鲁棒性的高精度视觉SLAM混合方法研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究工作的背景与意义 |
1.2 视觉SLAM国内外研究现状 |
1.2.1 视觉SLAM系统介绍 |
1.2.2 视觉SLAM间接法 |
1.2.3 视觉SLAM直接法 |
1.2.4 视觉SLAM混合方法 |
1.2.5 RGB-D SLAM系统 |
1.3 论文的研究内容及主要贡献 |
1.4 论文结构安排 |
第二章 视觉SLAM相关理论研究 |
2.1 引言 |
2.2 三维空间运动理论基础 |
2.2.1 三维空间运动的表示 |
2.2.2 流形上的优化 |
2.3 相机模型 |
2.3.1 针孔相机模型 |
2.3.2 卷帘相机模型 |
2.4 视觉SLAM中的优化方法 |
2.4.1 光束平差法 |
2.4.2 因子图模型 |
2.4.3 位姿图优化 |
2.5 视觉SLAM结构 |
2.5.1 间接法视觉SLAM经典系统:ORB-SLAM |
2.5.2 直接法视觉SLAM经典系统:DSO |
2.6 视觉SLAM鲁棒性问题 |
2.7 本章小结 |
第三章 视觉SLAM松耦合混合方法研究 |
3.1 引言 |
3.2 考虑卷帘畸变的松耦合半直接RGB-D SLAM系统 |
3.2.1 系统结构 |
3.2.2 卷帘曝光建模 |
3.2.3 直接法模块 |
3.2.4 特征点法法模块 |
3.2.5 三维地图构建模块 |
3.3 实验结果与分析 |
3.3.1 精度实验 |
3.3.2 鲁棒性实验 |
3.3.3 跟踪时间实验 |
3.4 本章小结 |
第四章 视觉SLAM紧耦合混合方法研究 |
4.1 引言 |
4.2 特征点分布情况分析与量化 |
4.2.1 特征点覆盖度定义 |
4.2.2 特征点均匀度定义 |
4.3 考虑特征点分布情况的紧耦合半直接视觉SLAM系统 |
4.3.1 系统结构 |
4.3.2 改进权重的混合方法跟踪 |
4.4 实验结果与分析 |
4.4.1 覆盖度对轨迹估计精度影响实验 |
4.4.2 计算效率统计实验 |
4.4.3 丢帧实验 |
4.4.4 精度实验 |
4.5 本章总结 |
第五章 视觉SLAM紧耦合混合方法回环策略研究 |
5.1 引言 |
5.2 基于词袋模型的回环检测 |
5.3 具有回环功能的紧耦合半直接视觉SLAM系统 |
5.3.1 系统结构 |
5.3.2 回环检测 |
5.3.3 回环优化 |
5.4 实验设计与结果分析 |
5.4.1 实验设计 |
5.4.2 实验结果及性能评估 |
5.5 本章总结 |
第六章 全文总结与展望 |
6.1 总结 |
6.2 展望 |
致谢 |
参考文献 |
攻读硕士学位期间取得的成果 |
(2)机器人室内场景规则体视觉感知及重建研究(论文提纲范文)
摘要 |
ABSTRACT |
1 绪论 |
1.1 研究背景与研究意义 |
1.2 国内外研究现状 |
1.2.1 基于深度学习的目标检测与边缘提取 |
1.2.2 基于单张图像的建模技术 |
1.2.3 物体级SLAM研究 |
1.3 主要工作及章节安排 |
1.3.1 主要工作 |
1.3.2 各章节内容安排 |
2 相机标定和规则体建模相关理论及本文整体框架 |
2.1 相机模型 |
2.1.1 针孔相机模型 |
2.1.2 RGB-D相机模型 |
2.2 相机标定 |
2.2.1 张正友相机标定法 |
2.2.2 实验研究 |
2.3 规则体建模相关概念和几何变换 |
2.3.1 规则体建模相关概念 |
2.3.2 规则体建模相关几何变换 |
2.4 本文整体框架 |
2.5 本章小结 |
3 基于深度学习的规则体检测与边缘提取 |
3.1 规则体检测 |
3.2 边缘提取 |
3.2.1 HED边缘提取算法 |
3.2.2 传统的边缘检测算法 |
3.2.3 融合HED与Canny算法的边缘提取 |
3.3 实验结果与分析 |
3.4 本章小结 |
4 基于单张图像的规则体建模 |
4.1 基于单张图像的长方体建模 |
4.1.1 顶点坐标求解 |
4.1.2 长方体建模 |
4.2 基于单张图像的回转体建模 |
4.2.1 回转体概念及成像规律 |
4.2.2 回转体建模 |
4.3 基于单张图像的球体建模 |
4.4 基于单张图像的广义圆柱体和广义立方体建模 |
4.5 实验结果与分析 |
4.5.1 仿真实验 |
4.5.2 真实场景实验 |
4.6 本章小结 |
5 融合规则体信息的室内场景地图构建 |
5.1 场景地图构建方法总体框架 |
5.2 规则体尺度与位姿估计 |
5.3 融合规则体信息的后端优化与闭环检测 |
5.3.1 后端优化 |
5.3.2 闭环检测 |
5.4 实验结果与分析 |
5.4.1 规则体尺度与位姿融合 |
5.4.2 闭环检测与优化 |
5.5 本章小结 |
6 总结与展望 |
6.1 全文总结 |
6.2 工作展望 |
致谢 |
参考文献 |
攻读硕士学位期间发表的论文 |
(3)面向车联网的视觉惯性里程计方法研究(论文提纲范文)
摘要 |
abstract |
主要符号说明 |
第一章 绪论 |
1.1 课题研究背景和意义 |
1.2 车联网技术研究现状 |
1.2.1 车联网概述 |
1.2.2 智能车辆定位技术 |
1.2.3 视觉SLAM发展和现状 |
1.3 论文主要工作 |
1.4 主要章节安排 |
1.5 本章小结 |
第二章 视觉惯性里程计理论基础 |
2.1 引言 |
2.2 视觉里程计工作原理 |
2.3 视觉里程计数学模型 |
2.3.1 针孔相机模型 |
2.3.2 双目相机模型 |
2.4 李群李代数和位姿变换 |
2.4.1 群的定义 |
2.4.2 李群和李代数 |
2.5 IMU模型 |
2.5.1 IMU测量模型和运动学模型 |
2.5.2 IMU预积分模型 |
2.6 非线性优化理论 |
2.7 本章总结 |
第三章 视觉惯性里程计点线特征 |
3.1 引言 |
3.2 图像中点特征处理 |
3.3 图像线特征处理 |
3.4 点线投影误差定义 |
3.4.1 点投影误差定义 |
3.4.2 线投影误差定义 |
3.5 半直接法位姿估计 |
3.5.1 关键帧选择 |
3.5.2 直接法位姿估计 |
3.6 本章总结 |
第四章 IMU和点线特征的后端优化 |
4.1 引言 |
4.2 图优化理论 |
4.3 IMU和点、线特征紧耦合优化模型 |
4.4 点线残差雅克比矩阵 |
4.5 IMU残差雅克比矩阵 |
4.6 本章小结 |
第五章 实验与分析 |
5.1 实验 |
5.1.1 实验环境描述 |
5.1.2 评价指标 |
5.2 EuRoC数据集实验 |
5.2.1 实验描述 |
5.2.2 实验结果分析 |
5.3 KITTI数据集实验 |
5.3.1 实验描述 |
5.3.2 实验结果分析 |
5.4 本章总结 |
第六章 总结 |
6.1 主要工作回顾 |
6.2 本课题今后需进一步研究的地方 |
参考文献 |
附录 A 个人简历 在读期间发表的学术论文 |
致谢 |
(4)基于RGB-D相机和IMU传感器融合的移动机器人SLAM研究(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 视觉SLAM研究现状 |
1.2.1 基于滤波的视觉SLAM研究现状 |
1.2.2 基于非线性优化的视觉SLAM研究现状 |
1.3 基于视觉-惯导融合的SLAM研究现状 |
1.4 本文研究内容和结构安排 |
第二章 数学理论基础及SLAM问题分析 |
2.1 惯性导航理论基础 |
2.1.1 常用坐标系表示 |
2.1.2 刚体的欧式变换 |
2.2 李群和李代数 |
2.3 SLAM系统状态估计问题和优化 |
2.3.1 SLAM状态估计问题 |
2.3.2 非线性优化 |
2.4 本章小结 |
第三章 系统的参数化与分析 |
3.1 RGB-D相机模型 |
3.1.1 针孔相机模型 |
3.1.2 相机畸变及其修正 |
3.1.3 相机标定 |
3.2 RGB-D相机视觉里程计 |
3.2.1 特征点提取与光流跟踪 |
3.2.2 光束水平差 |
3.3 IMU模型参数化 |
3.3.1 IMU测量模型与运动积分 |
3.3.2 IMU预积分理论 |
3.4 深度VINS的状态估计问题 |
3.5 本章小结 |
第四章 深度VINS的定位与地图构建 |
4.1 系统框架 |
4.2 系统初始化 |
4.2.1 视觉初始化 |
4.2.2 IMU初始化 |
4.3 基于滑动窗口的后端优化 |
4.3.1 插入关键帧 |
4.3.2 地图点管理 |
4.3.3 滑动窗口模型 |
4.3.4 边缘化 |
4.3.5 基于滑动窗口的非线性优化 |
4.4 回环优化 |
4.4.1 词袋模型 |
4.4.2 回环检测 |
4.4.3 重定位 |
4.4.4 全局优化 |
4.5 地图构建 |
4.6 本章小结 |
第五章 实验与分析 |
5.1 系统平台搭建 |
5.1.1 硬件平台搭建 |
5.1.2 软件平台搭建 |
5.2 传感器标定实验 |
5.2.1 相机标定实验 |
5.2.2 相机-IMU联合标定 |
5.3 系统定位实验 |
5.4 基于移动机器人平台的实验 |
5.5 本章小结 |
总结与展望 |
参考文献 |
攻读硕士学位期间取得的研究成果 |
致谢 |
附件 |
(5)基于单目顶视相机的室内定位方法研究与实现(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 研究背景与意义 |
1.2 国内外发展现状 |
1.2.1 V-SLAM研究现状 |
1.2.2 基于线特征的视觉里程计研究现状 |
1.2.3 基于顶视相机的室内定位方法研究现状 |
1.3 研究内容与创新点 |
1.3.1 研究内容与指标 |
1.3.2 主要研究工作 |
1.3.3 创新点 |
1.4 论文组织结构 |
第二章 视觉里程计的关键技术 |
2.1 视觉里程计基础知识 |
2.1.1 坐标系及位姿变换 |
2.1.2 李群与李代数相关知识介绍 |
2.1.3 相机成像数学模型 |
2.2 PL-SVO建图与定位过程 |
2.2.1 图像稀疏对齐法初步估计位姿 |
2.2.2 特征匹配 |
2.2.3 位姿优化与特征坐标优化 |
2.2.4 特征初始化 |
2.3 本章小结 |
第三章 基于线特征的定位优化 |
3.1 线特征端点的相关问题描述 |
3.1.1 线特征上的非显着角点 |
3.1.2 线特征处理方案 |
3.2 线特征初始化模块改进 |
3.2.1 PL-SVO初始化方法的缺点 |
3.2.2 五点采样法 |
3.2.3 两点搜索法 |
3.2.4 初始化方法对比分析 |
3.3 线特征匹配模块改进 |
3.3.1 PL-SVO特征匹配方法的缺点 |
3.3.2 候选线特征匹配方法 |
3.3.3 成熟线特征匹配方法 |
3.4 相机位姿优化模块改进 |
3.4.1 线特征重投影误差模型分析 |
3.4.2 重投影误差关于位姿的雅克比矩阵求解 |
3.4.3 鲁棒的位姿优化策略 |
3.5 线特征坐标优化模块改进 |
3.5.1 优化线特征所在直线 |
3.5.2 最小二乘法求解线特征端点 |
3.5.3 设置关键帧权重系数 |
3.6 本章小结 |
第四章 视觉里程计在天花板场景中的优化 |
4.1 系统架构 |
4.2 三维空间平面特征检测提取算法 |
4.2.1 平面特征参数化方法 |
4.2.2 线性回归求解多个共面点所在平面 |
4.2.3 特征与平面关系的抗干扰判断算法 |
4.2.4 三维空间平面特征检测提取算法 |
4.3 平面对点线特征的优化作用 |
4.3.1 平面估计特征的初始化深度 |
4.3.2 平面约束优化特征坐标 |
4.4 天花板网格结构计算系统真实尺度 |
4.5 本章小结 |
第五章 嵌入式实现与系统定位性能评估 |
5.1 嵌入式平台与评估方案 |
5.1.1 嵌入式平台实现方案 |
5.1.2 自研仿真系统介绍 |
5.1.3 仿真数据集介绍 |
5.1.4 TUM数据集介绍 |
5.1.5 自制实际天花板场景数据集介绍 |
5.1.6 定位精度评估指标介绍 |
5.2 各模块优化改进对系统性能的影响 |
5.2.1 仿真数据集测试结果 |
5.2.2 TUM数据集测试结果 |
5.2.3 自制天花板场景数据集测试结果 |
5.2.4 各模块优化改进的耗时分析 |
5.3 多种视觉里程计系统的性能比较 |
5.3.1 各系统的定位精度对比分析 |
5.3.2 各系统在嵌入式平台的耗时对比分析 |
5.3.3 各系统在嵌入式平台的内存开销对比 |
5.4 本章小结 |
第六章 总结与展望 |
6.1 总结 |
6.2 展望 |
致谢 |
作者简介 |
参考文献 |
(6)关于单目视觉实时定位与建图中的优化算法研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 选题背景 |
1.2 研究目的及其意义 |
1.3 国内外研究现状分析 |
1.3.1 国外研究现状 |
1.3.2 国内研究现状 |
1.4 论文主要研究内容与创新点 |
1.4.1 论文主要研究内容 |
1.4.2 论文创新点 |
1.5 论文章节安排 |
第2章 视觉SLAM理论基础 |
2.1 视觉SLAM系统的典型框架与各个模块 |
2.1.1 获取数据的传感器类型 |
2.1.2 视觉里程计前端 |
2.1.3 视觉SLAM后端 |
2.1.4 回环检测 |
2.1.5 实时建图 |
2.2 单目相机的针孔模型和多视图几何下的坐标系转换 |
2.2.1 单目相机的针孔模型建模 |
2.2.2 多视图几何中的坐标系转换 |
2.3 单目相机的对极几何、三角化和去畸化标定 |
2.3.1 单目相机的对极几何原理 |
2.3.2 单目相机的三角化原理 |
2.3.3 单目相机的标定去畸变 |
2.4 本章小结 |
第3章 一种信息融合的视觉里程计方法和非线性优化方案设计 |
3.1 特征点和直接法的视觉里程计数据关联方式 |
3.1.1 多视图几何中的特征检测和特征描述 |
3.1.2 基于直接法的视觉里程计 |
3.2 一种单目视觉里程计信息融合系统设计 |
3.2.1 特征点的选取与对比实验 |
3.2.2 数据处理特征检测和跟踪模块 |
3.2.3 本质矩阵估计和求解 |
3.2.4 深度估计与优化位姿结构 |
3.3 图优化模型在SLAM中的应用综述 |
3.3.1 动态贝叶斯图模型 |
3.3.2 马尔可夫图模型 |
3.3.3 因子图模型 |
3.4 基于因子图的单目视觉SLAM系统 |
3.4.1 概率图模型的理论推导 |
3.4.2 创建因子图模型并进行优化计算 |
3.5 本章小结 |
第4章 实验验证与结果分析 |
4.1 基于特征点和像素梯度的视觉里程计设计 |
4.2 基于因子图后端优化的单目视觉SLAM设计 |
第5章 总结与展望 |
5.1 研究总结 |
5.2 研究展望 |
参考文献 |
致谢 |
作者简历及攻读学位期间发表的学术论文与研究成果 |
(7)基于点、线特征的视觉惯性里程计(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 课题背景及研究的目的和意义 |
1.2 国内外研究现状 |
1.2.1 国内外在视觉SLAM研究现状 |
1.2.2 国内外在VIO研究现状 |
1.3 本文的研究内容 |
第2章 图像视觉特征的跟踪 |
2.1 引言 |
2.2 图像特征点的提取和跟踪 |
2.2.1 图像特征点的提取 |
2.2.2 图像特征点的跟踪 |
2.2.3 图像特征点跟踪实验 |
2.3 图像线特征的提取和跟踪 |
2.4 本章小结 |
第3章 IMU预积分 |
3.1 引言 |
3.2 IMU测量模型 |
3.3 IMU运动学方程和数值积分 |
3.3.1 IMU运动学方程 |
3.3.2 IMU数值积分 |
3.4 预积分误差状态方程 |
3.5 本章小结 |
第4章 单目视觉惯性里程计初始化 |
4.1 引言 |
4.2 单目视觉初始化 |
4.3 IMU初始化 |
4.3.1 陀螺仪偏移初始化 |
4.3.2 速度、重力和尺度初始化 |
4.3.3 重力调优 |
4.3.4 加速度偏移初始化 |
4.4 本章小结 |
第5章 视觉惯性里程计的后端优化 |
5.1 引言 |
5.2 视觉点特征的参数化及观测模型 |
5.2.1 视觉点特征的参数化 |
5.2.2 视觉点特征的观测模型 |
5.3 视觉线特征的参数化及观测模型 |
5.3.1 直线的普吕克坐标表示 |
5.3.2 直线的正交表示 |
5.3.3 视觉线特征的观测模型 |
5.4 IMU观测模型 |
5.5 视觉、惯性紧耦合优化 |
5.6 滑动窗口中的边缘化 |
5.6.1 边缘化计算方法 |
5.6.2 滑动窗口关键帧边缘化 |
5.7 回环检测与位姿图优化 |
5.7.1 闭环关键帧检测 |
5.7.2 关联位姿计算 |
5.7.3 位姿图优化 |
5.8 本章小结 |
第6章 视觉惯性里程计实验 |
6.1 引言 |
6.2 轨迹精度评估方法 |
6.3 在EuRoC MAV数据集的实验 |
6.3.1 EuRoC MAV数据集简介 |
6.3.2 在EuRoC MAV数据集实验结果评估 |
6.4 在TUM Visual-Inertial数据集的实验 |
6.4.1 TUM Visual-Inertial数据集简介 |
6.4.2 在TUM Visual-Inertial数据集实验结果评估 |
6.5 实验结果分析 |
6.6 本章小结 |
结论 |
参考文献 |
致谢 |
(8)弱纹理环境下基于深度相机的关键信息融合位姿估计方法(论文提纲范文)
摘要 |
abstract |
第1章 引言 |
1.1 选题背景及意义 |
1.2 国内外研究现状 |
1.2.1 位姿估计技术的研究现状 |
1.2.2 弱纹理环境下的位姿估计方法 |
1.3 本文主要工作与章节安排 |
第2章 视觉SLAM背景知识 |
2.1 相机模型与相机运动 |
2.2 李代数与相机位姿 |
2.2.1 群的概念 |
2.2.2 李群与李代数 |
2.2.3 相机位姿的李代数表示 |
2.3 位姿估计方法 |
2.3.1 特征点法 |
2.3.2 直接法 |
2.4 本章小结 |
第3章 基于边缘融合的位姿估计方法 |
3.1 引言 |
3.2 方法框架 |
3.3 边缘信息提取 |
3.3.1 传统方法的边缘提取 |
3.3.2 基于深度学习的边缘提取 |
3.3.3 边缘融合 |
3.4 位姿估计方法 |
3.4.1 非参数统计模型 |
3.4.2 基于边缘信息的位姿估计 |
3.5 实验与分析 |
3.5.1 位姿估计实验 |
3.5.2 分析与讨论 |
3.6 本章小结 |
第4章 弱纹理环境下基于深度相机的关键信息融合位姿估计方法 |
4.1 引言 |
4.2 方法框架 |
4.3 关键信息提取与融合 |
4.3.1 基于深度的边缘提取 |
4.3.2 高残差区域提取 |
4.3.3 关键信息融合 |
4.4 引入深度信息的位姿估计 |
4.5 实验与分析 |
4.5.1 位姿估计实验 |
4.5.2 分析与讨论 |
4.6 本章小结 |
第5章 总结与展望 |
5.1 总结 |
5.2 展望 |
参考文献 |
致谢 |
作者简历及攻读学位期间发表的学术论文与研究成果 |
(9)室内移动机器人精确跟踪定位技术研究(论文提纲范文)
摘要 |
ABSTRACT |
符号对照表 |
缩略语对照表 |
第一章 绪论 |
1.1 研究背景 |
1.2 国内外研究现状 |
1.3 研究内容 |
1.4 全文结构 |
第二章 相关技术及理论 |
2.1 坐标系转换 |
2.2 相机内参标定方法 |
2.3 目标跟踪与检测技术 |
2.3.1 目标跟踪技术 |
2.3.2 目标检测技术 |
2.4 位姿估计 |
2.5 本章小结 |
第三章 移动机器人跟踪定位系统设计 |
3.1 初始化模块 |
3.1.1 本地数据的管理及加载 |
3.1.2 系统对象类设计 |
3.2 特征检测模块 |
3.2.1 基于相关滤波的跟踪器设计 |
3.2.2 基于角点检测的检测器设计 |
3.3 机器人定位模块 |
3.3.1 基于3D-2D的位姿估计方法研究 |
3.3.2 相机位姿估计方法 |
3.3.3 机器人位姿估计方法 |
3.4 可视化模块 |
3.4.1 位姿数据的封装与加载 |
3.4.2 机器人模型的制作与加载 |
3.5 本章小结 |
第四章 基于多相机的机器人定位优化方法设计 |
4.1 基于单相机的机器人定位局限性分析 |
4.2 基于多相机的机器人定位方法 |
4.2.1 定位场景的布局设置 |
4.2.2 坐标系统一 |
4.2.3 多相机协同定位机制 |
4.2.4 定位结果融合 |
4.3 基于多相机布局的精度优化方法 |
4.3.1 多相机布局的图构建 |
4.3.2 基于图的精度优化 |
4.4 本章小结 |
第五章 实验测试与分析评估 |
5.1 实验测试平台与测试环境说明 |
5.1.1 PC端测试平台 |
5.1.2 测试工具说明 |
5.1.3 实际测试环境介绍 |
5.1.4 实验测试评估指标 |
5.2 基于多相机的定位系统功能测试与分析 |
5.2.1 实验准备 |
5.2.2 静态定点定位测试与分析 |
5.2.3 动态定位测试与分析 |
5.2.4 添加场景干扰的定位测试与分析 |
5.3 基于图优化方法的定位结果优化测试与分析 |
5.4 本章小结 |
第六章 总结与展望 |
6.1 本文总结 |
6.2 未来展望 |
参考文献 |
致谢 |
作者简介 |
(10)基于点线特征的双目视觉惯性SLAM系统研究(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景与意义 |
1.2 研究现状 |
1.2.1 基于滤波器的SLAM方法 |
1.2.2 基于关键帧优化的SLAM方法 |
1.2.3 基于直接法的SLAM方法 |
1.2.4 基于点线特征的SLAM方法 |
1.3 本文研究内容与结构框架 |
1.4 课题来源 |
第二章 双目IMU视觉惯性模组设计与实现 |
2.1 双目IMU视觉惯性模组硬件选型与设计 |
2.1.1 硬件选型 |
2.1.2 硬件框架 |
2.2 双目IMU视觉惯性模组驱动设计 |
2.2.1 FPGA驱动设计 |
2.2.2 图像IMU数据采集驱动设计 |
2.3 相机采集实验 |
2.4 本章小结 |
第三章 SLAM中的线特征 |
3.1 线特征的提取 |
3.1.1 LSD线特征 |
3.1.2 LSD改进 |
3.2 线特征的描述 |
3.3 空间直线的参数化 |
3.4 本章小结 |
第四章 基于点线特征的双目视觉IMU紧耦合优化 |
4.1 滑动窗口优化与边缘化 |
4.1.1 滑动窗口优化 |
4.1.2 边缘化与关键帧的选取 |
4.2 IMU观测残差 |
4.3 点特征观测残差 |
4.3.1 两帧间同相机的点特征观测残差 |
4.3.2 两帧间两相机的点特征观测残差 |
4.3.3 一帧间两相机的点特征观测残差 |
4.4 线特征观测残差 |
4.4.1 线特征的观测模型和误差 |
4.4.2 线特征的误差雅可比推导 |
4.5 本章小结 |
第五章 实验与分析 |
5.1 基于点线特征的双目视觉惯性SLAM系统搭建 |
5.1.1 硬件平台 |
5.1.2 软件系统 |
5.2 基于EUROC数据集的实验 |
5.3 基于室外环境的实验 |
5.4 本章小结 |
总结与展望 |
1、工作总结 |
2、工作展望 |
参考文献 |
攻读硕士学位期间取得的研究成果 |
致谢 |
附件 |
四、基于模型的位姿估计中优化方法研究(论文参考文献)
- [1]考虑鲁棒性的高精度视觉SLAM混合方法研究[D]. 梁文斌. 电子科技大学, 2021(01)
- [2]机器人室内场景规则体视觉感知及重建研究[D]. 赵丽华. 陕西科技大学, 2020(05)
- [3]面向车联网的视觉惯性里程计方法研究[D]. 黄德斌. 华东交通大学, 2020(06)
- [4]基于RGB-D相机和IMU传感器融合的移动机器人SLAM研究[D]. 戴磊. 华南理工大学, 2020(02)
- [5]基于单目顶视相机的室内定位方法研究与实现[D]. 陈垚鑫. 东南大学, 2020(01)
- [6]关于单目视觉实时定位与建图中的优化算法研究[D]. 李攀伟. 中国科学院大学(中国科学院深圳先进技术研究院), 2020(07)
- [7]基于点、线特征的视觉惯性里程计[D]. 何宇喆. 哈尔滨工业大学, 2020(01)
- [8]弱纹理环境下基于深度相机的关键信息融合位姿估计方法[D]. 王鹤群. 中国科学院大学(中国科学院国家空间科学中心), 2020(02)
- [9]室内移动机器人精确跟踪定位技术研究[D]. 孙煊溢. 西安电子科技大学, 2020(05)
- [10]基于点线特征的双目视觉惯性SLAM系统研究[D]. 韩世豪. 华南理工大学, 2020