平面测量问题中的单应矩阵算法研究

平面测量问题中的单应矩阵算法研究

一、平面测量问题中单应矩阵的算法研究(论文文献综述)

李庆园[1](2021)在《面向双目立体视觉车辆测速系统的匹配算法优化研究》文中研究说明经济的发展和社会的进步使得汽车成为更多人出行时的代步工具,随之而来的是道路交通压力的增加,同时对智能交通网络的需求更为迫切。车辆运动速度的测量是智能交通网络中基础且重要的一部分。基于双目立体视觉车辆的车辆测速系统,能够克服传统测速方法中安装成本高、施工复杂、测量限制等缺点。该测速系统由目标检测、图像匹配、双目相机标定及测速四个部分组成,本文的研究内容是该系统中的图像匹配模块。图像匹配是计算机视觉领域里基础且关键的问题。在该测速系统中,图像匹配是为了得到两幅图像之间正确的匹配点,然而SURF与单应性矩阵相结合的方法在求解的过程中,噪声/异常值的干扰与计算量之间无法达到权衡。本文主要针对上述匹配方法的不足进行研究。图像匹配模块是目标检测模块的后续工作,在目标检测中可得到目标的所在区域的坐标位置信息,利用该位置信息对SURF提取到的特征点进行位置约束,利用车牌制式特性拟合出车牌区域像素占比与相机车牌距离之间的关系,利用该关系粗略剔除掉通过SURF算法对车牌区域进行匹配得到的匹配点对集合中到相机距离明显异常的匹配点对;随后,使用局部邻域一致性约束精细剔除掉匹配点对集合中的误匹配点对,进一步减小匹配点对集合的大小;利用相机位姿的估计,对车标、车灯、车镜区域的匹配点进行误匹配剔除;在测速过程中,为了使测速时前后两帧测量的是同一个点,结合视频序列的连贯性,提出一种基于视频时空域的车辆测速方案。本文针对基于双目立体视觉车辆的车辆测速系统中的匹配算法的不足进行研究,在理论上和实践上都证明了本文方法的可行性。经过六组实验的测试,将测速结果与GPS获得的速度对比,单特征的测速误差均符合中国国家标准GB/T 21555-2007中误差低于6%的应用要求。为了减小单特征测速的误差,对四个特征的测速误差进行平均,最大测速误差2.79%,比原测速系统的最大测速误差小1.01%。测速实验结果证明,该匹配算法有较高的精度和可靠性。

刘婉君[2](2021)在《基于多重二维约束和三维优化的平面目标跟踪算法》文中认为平面目标跟踪是计算机视觉中一种重要的三维跟踪技术,其技术核心是如何对各种复杂环境下具有平面结构的物体实现有效而准确的跟踪,现已广泛应用于增强现实、无人驾驶和机器人技术等诸多领域。目前,平面目标跟踪算法虽然已经取得了不错的成果,但面对恶劣的跟踪条件,现有算法依旧无法完全适应各种具有挑战性的干扰因素。特别是针对一些背景纹理复杂、视点变化剧烈、目标信息缺失和外观形变较大的场景,算法稳定性不足,准确性也难以满足实际需求。本文提出了一种基于多重二维约束和三维优化的平面目标跟踪算法。该算法主要包括光流初始跟踪、线段集提取、多重约束构建、单应性矩阵矫正和三维优化等步骤,其中多重约束和三维优化是本文的工作重点,具体内容如下:(1)利用线段几何属性、线段间重合度和边缘线段特征设计了一种多重约束筛选框架,用来跟踪平面目标的边缘线段。首先,建立几何属性判别式,根据组合概率排除边缘候选集中的干扰线段。其次,使用定积分原理定义重合度函数,通过相邻帧的边缘重合度进一步筛选候选线段,避免少许断裂线段受相似背景颜色影响而出现错误匹配。然后,采用Lab模型颜色特征和像素梯度值构建一种具有高识别性和唯一性的线段描述子,并加入比例因子和权重参数,使其更好地适应于目标外观的大小变化。最后,结合上述约束实现边缘匹配,再借助单应性矩阵进行边缘修补和形状矫正。(2)为了减少实际跟踪过程中目标信息缺失、图像边缘模糊等因素对二维约束的负面影响,本文假设平面目标在真实世界中的位置固定不变,并基于这一性质创新性地提出了一种利用空间三维信息矫正目标二维位置的优化策略。首先,通过拟合边缘获取两组消失点。然后,使用消失点求解单帧相机参数,并恢复目标的三维坐标。最后,对所求空间三维点进行重新投影,得到最终的跟踪结果。(3)采用最新的公开视频集POT数据集验证所提算法的有效性、准确性和鲁棒性。分别在尺度变化、旋转、透视形变、目标遮挡和超出视野等多种复杂场景下,与当前多个主流的平面目标跟踪算法Gracker、GO-ESM等进行了充分的实验对比,并从视觉效果和误差数据两方面作了定性和定量分析。实验结果表明,针对各种户内户外场景,本文算法能够实现有效、准确和稳定的跟踪,整体精度较Gracker提升了39%,与其他方法相比也具有一定的优越性。

葛义攀[3](2020)在《基于多视频序列的大规模运动恢复结构研究》文中认为大数据时代,传统的二维地理信息已经不能完全满足社会发展的需要,对三维地理信息的需求越来越迫切。常规的三维数据获取方式所需设备成本高昂,因此如何借助低成本设备获取的影像数据来重建三维数据的运动恢复结构具有重要意义且应用潜力巨大。运动恢复结构主要基于多视图几何原理,重建时主要包括特征检测、相机位姿估计、光束法平差等多个处理过程。本文研究分析了运动恢复结构及其后续稠密重建的整体流程,对特征检测和光束法平差等关键步骤进行分析与改进。论文的主要研究内容和研究结论如下:(1)针对常规的特征提取与匹配存在正确匹配会被剔除的问题,本文构建了基于本质矩阵的特征提取及精匹配方法。在深度变化场景情况下,常规的利用单应矩阵的匹配提纯方法,存在误剔除正确匹配点、提纯后匹配点对分布集中和提纯效果差等问题。为提高提纯速度和效果,本文使用ORB算法进行特征检测匹配。该ORB算法匹配效率高,但误匹配比较多。为解决这一问题,本文采用对极几何约束作为匹配点提纯的模型。针对深度变化、平面等多种场景,本文开展对极几何约束中的单应矩阵、基础矩阵和本质矩阵实验对比分析。实验结果表明:在深度变化场景中,本质矩阵和基础矩阵剔除的正确匹配较少,本质矩阵比基础矩阵能更好的剔除错误匹配,提纯效果最好。(2)针对三维点云的稀疏重建,本文构建了共享相机内参数的光束法平差方法,避免重建过程中同一相机内参数被优化为多个不同数值的问题。三维点云重建时,需要多次利用光束法平差算法进行优化。光束法平差运算较为复杂,鉴于每个视频序列的相机内参数是相同的,但通用的光束法平差方法会把每帧影像对应的相机看作独立的参数,进而产生不必要的计算,引入不必要的误差。为更好地进行重建和优化,本文构建了共享相机内参数的光束法平差,该方法通过相机传统标定或自标定来获得可靠的相机内参数。理论推导结果表明:本文构建的共享相机内参数的光束法平差方法,具备稀疏性,可以通过数学的方法快速求解。本文通过多视频序列运动恢复结构的方法,重建目标场景。(3)在三维点云重建过程中,为解决地物顶部视野盲区重建点少的问题,本文借助多视频序列数据来减少视野盲区,进而提升重建效果。从地面和空中获得的数据,分别蕴含地物侧面和顶部的丰富信息。利用多个视频序列数据,解决了地物重建顶部视野盲区的孔洞问题。为了得到更密集的点云数据,本文使用CMVS/PMVS方法对地物进行密集重建,得到了数量密集、表面较为均匀的高质量点云。

伍明[4](2020)在《单目结构光系统中标定方法研究》文中研究表明随着测量技术和计算机的发展,三维测量逐渐成为计算机视觉的一个重要研究领域。通过三维测量技术能够实现文物保护、人脸检测、工业检测以及智能制造。结构光测量因与被测目标不直接接触,具有精度高、速度快等优点,成为了目前主流的三维测量方法。本文针对现有的结构光系统标定精度不高的问题,以结构简洁、紧凑的单目结构光系统为基础,对影响测量精度的棋盘格标定板图像角点的提取方法、相机以及系统的标定方法进行了研究。首先,在深入调研了结构光系统中相机标定和系统标定方法的基础上,根据各坐标系间的关系及相机标定的原理,分析了相机的数字成像模型和畸变模型。将投影仪成像模型视为逆向的相机成像模型,建立了相机与投影仪相结合的系统测量模型,为相机和投影仪以及系统的标定奠定了理论基础。接着,将相机获取的棋盘格标定板图像角点的二维像素坐标与世界坐标系下的三维坐标联系在一起,重点研究了棋盘格标定板图像角点的提取方法。详细分析了Bouguet亚像素级角点提取算法的原理和提取流程,针对其在较差的光照条件和较大的镜头大畸变下存在的不足,提出了基于角点灰度分布特征的棋盘格角点提取算法。通过棋盘格标定板图像的对比实验,分析了所提算法在鲁棒性和精度上的优势。最后,研究分析了单目结构光系统中的标定算法。分别对相机标定、投影仪标定和系统标定进行了研究。在相机标定方面,针对张正友标定法的不足提出了基于畸变中心的线性标定法;在投影仪标定方面,针对单应性矩阵建立相机像素坐标与投影仪像素坐标映射关系的过程中产生的误差,采用二元二次多项式进行补偿。最后搭建相机和投影仪组成的测量系统实验平台,通过编写相机图像采集软件获取数据,实现了系统中相机、投影仪以及系统的标定实验。将重投影误差作为精度评估标准验证了标定方法的有效性。通过本文的研究,实现了单目结构光系统的有效标定,提高了相机、投影仪的标定精度,这对结构光测量的精度提升十分有益。

何宇喆[5](2020)在《基于点、线特征的视觉惯性里程计》文中认为视觉惯性里程计(VIO)被广泛应用于无人机、无人驾驶、VR/AR等领域中,用于解决移动端在未知环境中实时定位的问题,具有重要的研究价值。为了提升位姿估计的准确性和鲁棒性,本文提出了基于点、线特征的采用紧耦合优化方法的视觉惯性里程计。线特征广泛存在于人造环境中,在VIO中添加对环境中线特征的观测,在纹理缺失的环境中线特征可以为VIO提供足够多的帧间视觉信息约束。本文的主要研究内容和研究方法包括:1.在点特征跟踪模块中通过最小化帧间图像灰度误差的方法估计帧间的单应变换矩阵和帧间的仿射亮度变化参数,然后用单应矩阵预测特征点在当前图像帧的位置,最后用KLT光流法跟踪特征点准确位置,本文的这种跟踪方法可以得到更高的跟踪成功率。在线征跟踪中本文采用先跟踪直线采样点的方法,再对直线进行筛选。2.本文中采用了一种新的IMU预积分方法,对IMU的预积分状态先用中值积分方法积分再推导出离散形式的误差状态方程,通过误差状态方程求得IMU预积分的均值和误差状态的协方差,从本文的最终位姿估计结果中证实了这个预积分方法的可靠性。3.在VIO的滑动窗口优化器中,本文采用非线性优化的方法最小化视觉点特征观测残差、视觉线特征观测残差、IMU预积分观测残差和先验信息残差来估计系统的状态。为了维持滑动窗口关键帧数量恒定,本文给出了被边缘化的关键帧的选择策略和与被边缘化关键帧相关的路标点、线的选择方法。4.在VIO的回环检测与优化模块中,本文采用DBo W2检测闭环关键帧,给出了当前关键帧和闭环关键帧局部地图关键帧的图像间特征点的匹配方法,在当前关键帧和闭环关键帧局部地图间求取关联位姿,通过位姿图优化的方法减少位姿的漂移。

郑亚兴[6](2020)在《GNSS受限条件下的无人机视觉导航技术研究》文中认为目前,无人机多采用GNSS和惯性信息融合的导航系统,然而,很多应用场景下GNSS的可靠性会受到限制,因此研究GNSS受限条件下的无人机导航技术具有重要的应用价值。在无人机负载有限的前提下,单目视觉和惯性信息融合是GNSS受限条件下无人机导航定位的良好替代方案。本文展开了无人机视觉惯性融合技术研究,通过单目视觉和惯性信息融合解决无人机导航中位姿估计这一关键问题。本文首先介绍了无人机视觉导航技术中的基础理论,分析了GNSS受限条件下无人机视觉导航的关键技术,研究了无人机视觉位姿估计技术。针对视觉位姿估计技术中的尺度不确定性等问题,进一步研究了无人机视觉惯性融合技术,最后分别在仿真环境中和数据集上进行了无人机位姿估计的实验验证和分析,证明了本文的无人机视觉惯性融合位姿估计算法具有良好的精度性和稳定性。本文主要完成了以下几个方面的工作:1.首先针对GNSS受限条件下的无人机位姿估计问题建立数学模型,通过数学模型分析无人机位姿估计需要解决的关键问题,然后针对无人机位姿估计中的关键技术进行分析,接着研究了相机成像模型和坐标转换关系,介绍了描述无人机运动的数学描述方法,最后对求解非线性优化问题的一般步骤进行分析。2.其次研究了特征点法视觉位姿估计技术。为了满足无人机位姿估计的实时性要求,本文采用了ORB特征点,并使用了基于四叉树算法的特征点筛选策略。初始的无人机运动估计采用了并行计算基础矩阵和单应性矩阵并根据经验公式选取最优的策略。初始化完成之后,采用光束平差法进行无人机运动估计。为了建立用于无人机运动估计的稀疏地图,采用了三角测量技术计算空间点坐标,并使用关键帧技术维护局部地图。3.然后针对单目视觉尺度不确定性问题,在特征点法视觉位姿估计的基础上,进行了无人机视觉惯性融合位姿估计技术研究。分析了IMU测量模型,采用IMU预积分技术处理IMU数据。初始化采用视觉惯性松耦合策略,计算相机和IMU的相对位姿,校准陀螺仪的零偏,完成重力方向,速度和尺度因子的初始化。接着基于滑动窗口技术进行视觉惯性紧耦合的后端优化,分析了后端优化的求解步骤,研究了视觉误差和IMU测量误差的目标函数及其雅可比矩阵,并采用舒尔补法的边缘化策略使得维持恒定计算复杂度的同时保证系统的计算精度。4.最后进行了无人机位姿估计算法的实验方案设计和精度分析。分别在仿真环境和Eu Ro C数据集上进行了位姿估计的实验,搭建了无人机仿真场景,进行无人机动力学仿真和传感器仿真。采用绝对位姿误差(APE)来评价位姿估计算法的定位精度,并使用均方根误差等统计学参数对绝对位姿误差进行评价。通过实验证明了本文的视觉惯性融合位姿估计算法具有良好的精度,并通过和开源视觉惯性融合方案ROVIO进行对比实验,证明了本文视觉惯性融合算法在精度和稳定性方面的先进性。

王驰凯[7](2020)在《桌面型贴片机的关键技术研究》文中研究说明针对目前电子行业中许多中小型企业以及个人或高校在初期产品研发过程中对于电路板进行小批量贴片的需求,以及市场上缺少工业化实用性设备的问题,设计了一种小型化低成本的桌面型贴片机。并且由于桌面型贴片机的关键点在于贴片机的视觉系统以及整机的紧凑化设计,所以文章针对这两点展开了研究,并且重点在算法层面研究了贴片机的视觉系统。围绕桌面型贴片机完成了以下工作:(1).设计了一种紧凑型的桌面型贴片机。完成了包括贴片机的运动系统部分、贴装头部分、PCB板的夹持部分以及贴片机底座部分的设计。为贴片机的视觉系统选择了合适的光源、镜头和工业相机。(2).提出并完成了一种应用于桌面型贴片机上视相机的专用型标定方案。考虑到在实际情况下,不适合放置外界标定物,所以利用机器的自身特征来实现相机的标定。(3).提出并完成了基于芯片几何外形特征的芯片校准方案。通过拟合芯片几何外形的最小外接矩形来提取芯片的偏转角度和形心坐标以实现芯片的校准。(4).自主实现了图像处理的相关算法,保证了图像处理的可靠性和日后维护扩展的方便性。完成了包括图像的滤波处理、二值化处理、边缘检测处理以及在芯片校准环节用到轮廓提取、凸包检测以及最小外接矩形的拟合等工作。(5).研究了利用L-M迭代算法和RANSAC算法优化单应性矩阵的方案,以提高标定结果的精度。通过以上研究,解决了桌面型贴片机视觉系统的关键点,为后续桌面型贴片机的工业化成熟化奠定了基础。

韩双全[8](2020)在《室内动态场景同步定位与语义建图的研究》文中研究指明随着计算机视觉、人工智能和5G等新基础技术的快速发展,同步定位与地图构建(Simultaneous Localization and Mapping,SLAM)作为无人驾驶、移动机器人等人工智能应用领域关键性技术成为新的研究热点。目前对于SLAM的研究大多基于静态场景的假设,而室内环境下动态物体不可避免存在,基于静态场景的假设极大限制了SLAM的发展研究和SLAM系统在现实生活中的应用。而且,没有语义信息的地图的SLAM无法满足无人驾驶、移动机器人等对环境的感知。基于此,本文在SLAM国内外发展现状的调研和深入分析现有的技术框架的基础上,将语义分割网络加入到视觉SLAM系统中,并提出了一种新的特征点的筛选方法,形成了一种新的动态场景下的视觉SLAM系统。本文从语义和动态场景对SLAM进行研究,具体研究内容概括为以下两部分:(1)将PSPNet语义分割网络加入到SLAM中,实现同步定位与语义建图,即语义SLAM。语义分割网络将图像与语义进行关联,与SLAM系统结合生成含有环境信息的语义地图,为移动机器人等移动载体赋予高层次的感知能力,供移动载体进行认知与任务推理,提高机器人服务能力和人机交互的智能性。实验证明,改进的方法能够生成带有语义信息的语义点云地图和语义八叉树地图,体现论文提出的系统的可行性。(2)提出了一种光流和语义分割筛选动态点的方法。针对动态场景中的动态物体影响相机位姿估计、造成轨迹误差偏大,甚至系统崩溃的问题,提出了一种基于光流和语义分割对特征点二次筛选的方法。结果表明,二次筛选能够有效的降低动态场景下的轨迹误差和漂移,提高SLAM系统在动态场景运行的稳定性。经过公开数据集的实验,结果表明本文提出的SLAM系统可以最大程度的正确估计相机位姿、减小轨迹误差。同时,在真实采集的数据集上进行实验,验证了本文系统在实际场景中的可行性。

孙放[9](2019)在《基于单目视觉SLAM的舰面调运关键技术研究》文中研究说明舰面调运工作是保障舰船日常训练和作战的基础性工作,随着飞机种类和数量增加,甲板面积增大,传统的人工调运方法费时费力,易受主观性影响,当甲板较为繁忙时容易出现事故。视觉定位方法是在计算机水平不断发展过程中被研究者们日益推崇的新方法,与传统定位方法相比具有高度自主,不易干扰,廉价同时能够保证较高精度等优点。这些特点使其更适应舰面调运工作。本文提出了基于单目视觉同步定位与地图构建(SLAM)算法来辅助舰面调运任务。视觉SLAM算法的前端通常也被称为视觉里程计(Visual Odometry),它根据相邻图像信息估计出相机运动。基于特征点法的SLAM算法在初始化,跟踪过程中对前后两帧之间位姿估计都有较高的要求。在初始化过程中通常使用5点法分解本质矩阵,8点法分解单应矩阵的方法,本文在现有算法基础上结合工程应用实际:调运工作在甲板面可视为平面运动且相机安装角不变等约束,将传统视觉SLAM需要解决的6自由度问题通过约束降低为3自由度,改进了分解单应矩阵的方法,使系统能获得更多的匹配内点,提高初始化算法在平面场景下的鲁棒性。帧间相对位姿计算的基础是匹配成功的特征点,而特征点的匹配通常经过描述子以及RANSAC得到最终内点。其中RANSAC算法的复杂性和带入计算的匹配点数量成指数关系增长,基于提高帧间位姿计算准确性和减少RANSAC剔除离群值计算复杂性的出发点,本文提出了当相机前视且运动平面与重力方向垂直时,可以利用其他方法校正运动过程中的垂直方向,使旋转矩阵仅剩绕Y轴的旋转角;同时分开计算特征点中的远近点,利用远点对旋转敏感,近点对平移量敏感的特性,仅用1.5个匹配点就可估计帧间位姿。在开源ORB-SLAM中替换算法后,KITTI多个数据集上均方根误差好于原算法,证明了算法的可行性和鲁棒性。传统的点特征单目视觉SLAM算法仅利用特征点的图像坐标,且在大角度仿射畸变影响下匹配点数量会明显下降。ASIFT特征点基于SIFT增加了特征点局部仿射变换,不仅克服大角度倾角情况,同时为特征匹配提供了仿射关系。在平面场景或已知垂直方向下,可以降低分解单应或本质矩阵的内点数量,减少RANSAC迭代计算复杂度,通过真实数据集验证的结果表明了算法的可行性,并在ORB-SLAM框架中将特征和帧间位姿估计替换形成了ASIFT-SLAM,算法在KITTI数据集上表现证明在精度上优于ORB-SLAM。

陈琳[10](2019)在《基于区域的复杂场景平面姿态跟踪算法研究》文中提出视觉平面姿态跟踪旨在时序上连续估计目标平面在空间中的姿态,是许多计算机视觉高层应用的基础核心。近些年,随着高速摄像机的发展和硬件计算能力的提升,基于区域的姿态跟踪算法渐渐成为相机姿态估计以及视觉SLAM中的主流工具。然而,大多数现有系统仍然需要在特定环境与场景下才能发挥良好性能,复杂环境下准确、鲁棒、高效的平面姿态跟踪依旧充满挑战。一方面,现实生活中复杂多变的外界干扰,如光照变化等,严重制约了这类算法的有效应用;另一方面,物体自身的剧烈姿态变化,如大尺度缩放、大角度旋转和严重透视失真等极大提升了跟踪难度。在上述研究背景下,本文对基于区域的复杂场景平面姿态跟踪进行了深入研究,主要研究工作包括:针对基于区域的平面姿态跟踪算法对光照变化敏感的问题,提出了一种基于描述子恒定假设的平面姿态跟踪算法,该算法提出使用对光照具有不变性的梯度方向描述子代替图像亮度值,并基于描述子恒定假设提出了适用于多维特征的多通道高效二阶最小化算法。实验结果表明,该算法在复杂光照数据集上的跟踪性能比同类先进算法提升了约24.5%。此外,其在平移、尺度缩放和透视失真等常见跟踪场景下的性能也达到了同类先进算法的水平。针对基于区域的平面姿态跟踪算法无法捕捉目标剧烈姿态变化的问题,提出了一种基于多分辨率特征金字塔的平面姿态跟踪算法。该算法使用稠密采样的梯度方向特征图构建金字塔层,并在此多分辨率梯度方向金字塔的基础上实现由粗到精的分层运动估计,以获得高精度跟踪结果。此外,为了提升运算效率,该算法使用了更为高效的图像预处理以及参数搜索策略。实验结果表明,该算法不仅显着提升了对目标剧烈姿态变化的处理能力,并且在复杂光照数据集上达到了约91%的成功率。为了进一步提升基于区域的平面姿态跟踪算法在各类复杂场景下的鲁棒性,提出了一种基于卷积神经网络的平面姿态跟踪算法。不同于手工设计的特征提取器,该算法提出了一种基于卷积神经网络的特征提取器,并提出了高效二阶最小化层实现网络模型端到端的学习,以获得对各类目标外观变化更加鲁棒的特征表达。为了解决训练样本不足的问题,该算法使用人工合成样本进行模型训练,并通过样本增强技术提升模型对真实数据的泛化能力。该算法使用角点距离作为网络输出损失函数,并在训练时对高效二阶最小化层采用动态迭代策略。为了增强算法对复杂运动的鲁棒性并有效简化模型训练难度,该算法在训练过程中使用单一网络,并在跟踪阶段通过级联一系列特征提取网络获得多分辨率特征金字塔,以实现由粗到精的分层姿态估计。实验结果表明,与同类先进算法相比,该算法在极端光照变化、严重透视失真和剧烈运动模糊等各类复杂场景下的鲁棒性均有显着提升。

二、平面测量问题中单应矩阵的算法研究(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、平面测量问题中单应矩阵的算法研究(论文提纲范文)

(1)面向双目立体视觉车辆测速系统的匹配算法优化研究(论文提纲范文)

摘要
Abstract
1. 绪论
    1.1 研究背景及意义
    1.2 国内外研究现状
    1.3 本文主要研究内容及章节安排
2. 相关理论
    2.1 基于双目立体视觉的车辆测速系统
        2.1.1 车辆特征检测
        2.1.2 图像匹配
        2.1.3 双目立体视觉系统标定
        2.1.4 双目立体视觉系统测距及测速原理
    2.2 图像匹配算法理论
        2.2.1 图像匹配简介
        2.2.2 图像特征点检测算法
        2.2.3 误匹配剔除算法
        2.2.3.1 基于参数模型的方法
        2.2.3.2 基于非参数模型的方法
        2.2.3.3 基于学习的方法
    2.3 本章小结
3. 基于局部邻域一致性约束的车辆车牌特征的匹配算法优化
    3.1 基于特征点位置约束的匹配算法优化
    3.2 基于车牌制式约束的匹配算法优化
    3.3 基于局部邻域一致性约束的匹配算法优化
    3.4 实验结果仿真与分析
    3.5 本章小结
4. 基于相机位姿估计的车辆多个特征测速的匹配算法优化
    4.1 基于车牌匹配结果的相机位姿估计
    4.2 基于相机位姿估计的匹配算法优化
    4.3 实验结果仿真与分析
    4.4 本章小结
5. 基于双目立体视频时空相关性的匹配算法优化
    5.1 双目立体视频的时空相关性
    5.2 基于时空相关性的匹配算法优化
    5.3 实验结果仿真与分析
    5.4 本章小结
6. 总结与展望
    6.1 总结
    6.2 展望
参考文献
附录
致谢

(2)基于多重二维约束和三维优化的平面目标跟踪算法(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 选题背景及意义
    1.2 平面目标跟踪国内外研究现状
        1.2.1 基于关键点的平面目标跟踪算法
        1.2.2 基于模板的平面目标跟踪算法
        1.2.3 基于图的平面目标跟踪算法
    1.3 本文主要工作
    1.4 内容安排
第2章 平面目标跟踪相关技术
    2.1 光流跟踪
        2.1.1 Horn-Schunk光流
        2.1.2 Lucas-Kanade光流
        2.1.3 算法缺陷与改进
    2.2 随机抽样一致性算法
    2.3 单应性矩阵
    2.4 图像消失点
        2.4.1 消失点概念
        2.4.2 消失点计算
    2.5 相机模型与相机标定
    2.6 本章小结
第3章 基于多重二维约束和三维优化的平面目标跟踪算法
    3.1 算法概述
        3.1.1 算法前提
        3.1.2 算法流程
    3.2 初始跟踪与线段集提取
        3.2.1 光流跟踪
        3.2.2 凸包计算
        3.2.3 线段检测
    3.3 基于多重二维约束的平面目标跟踪
        3.3.1 线段几何属性约束
        3.3.2 线段间重合度约束
        3.3.3 边缘线段特征约束
        3.3.4 最优候选线段筛选
        3.3.5 单应性矩阵矫正
        3.3.6 平面边缘拟合
    3.4 基于相机标定的平面跟踪三维优化
        3.4.1 消失点相机标定
        3.4.2 无限消失点处理
        3.4.3 相机外参数优化
        3.4.4 平面目标重投影
    3.5 本章小结
第4章 实验与分析
    4.1 算法准确性分析
        4.1.1 实验结果误差分析
        4.1.2 多种算法效果对比
        4.1.3 实验数据量化对比
    4.2 算法鲁棒性分析
        4.2.1 光照强度变化
        4.2.2 视点移速较快
        4.2.3 目标信息缺失
    4.3 算法效率分析
    4.4 本章小结
第5章 总结与展望
    5.1 总结
    5.2 展望
参考文献
攻读学位期间取得的研究成果
致谢

(3)基于多视频序列的大规模运动恢复结构研究(论文提纲范文)

摘要
Abstract
第一章 绪论
    1.1 论文的研究背景和意义
    1.2 国内外研究现状及发展动态分析
    1.3 本文研究内容、技术路线和组织结构
        1.3.1 研究内容
        1.3.2 技术路线
        1.3.3 组织结构
第二章 相机模型与对极几何
    2.1 引言
    2.2 相机模型
        2.2.1 参考坐标系统
        2.2.2 针孔相机模型
    2.3 对极几何
        2.3.1 基础矩阵与本质矩阵
        2.3.2 单应矩阵
    2.4 相机标定
    2.5 本章小结
第三章 基于本质矩阵的特征匹配
    3.1 特征检测与初匹配
        3.1.1 SIFT
        3.1.2 SURF
        3.1.3 ORB
    3.2 估计本质矩阵
    3.3 实验结果与分析
    3.4 本章小结
第四章 多视频序列大场景运动恢复结构
    4.1 相机初始化
        4.1.1 选取合适的影像对
        4.1.2 分解本质矩阵恢复位姿
        4.1.3 三角测量重建三维点
    4.2 光束法平差
        4.2.1 梯度下降法
        4.2.2 牛顿法
        4.2.3 Levenberg-Marquardt法
    4.3 稀疏性
    4.4 PnP估计相机的姿态
    4.5 实验结果与分析
    4.6 本章小结
第五章 多视频序列稠密重建
    5.1 视图聚类MVS(CMVS)
        5.1.1 聚类条件
        5.1.2 聚簇算法实现
    5.2 基于面片模型的密集匹配(PMVS)
        5.2.1 面片模型
        5.2.2 面片模型约束条件
        5.2.3 光度一致性函数
        5.2.4 算法流程
    5.3 实验结果与分析
    5.4 本章小结
第六章 总结与展望
    6.1 总结
    6.2 展望
参考文献
致谢
附录 A

(4)单目结构光系统中标定方法研究(论文提纲范文)

摘要
abstract
第1章 绪论
    1.1 研究背景与意义
    1.2 三维测量概述
    1.3 结构光国内外研究及仪器发展现状
        1.3.1 国内外研究现状
        1.3.2 仪器发展现状
    1.4 论文研究内容及结构
第2章 单目结构光系统成像模型及测量原理
    2.1 坐标系
    2.2 成像模型
        2.2.1 CCD相机针孔模型
        2.2.2 畸变模型
    2.3 测量原理
    2.4 小结
第3章 图像角点提取方法研究
    3.1 传统棋盘格角点提取算法研究
        3.1.1 Bouguet算法角点提取算法
    3.2 基于角点灰度分布特征的角点提取算法
        3.2.1 棋盘格角点灰度分布特征
        3.2.2 获取候选角点
        3.2.3 获选角点精细化
        3.2.4 去除伪角点
        3.2.5 邻近点合并
    3.3 角点提取实验
        3.3.1 鲁棒性实验
        3.3.2 精度对比实验
    3.4 小结与讨论
第4章 系统中标定方法研究
    4.1 相机标定法
        4.1.1 张正友标定法
        4.1.2 基于畸变中心的线性标定法
    4.2 相机标定的仿真实验
    4.3 投影仪标定
        4.3.1 单应性矩阵标定法
    4.4 结构光系统外参数
    4.5 小结
第5章 单目结构光系统中标定验证实验
    5.1 搭建实验平台
    5.2 采集实验数据
    5.3 实验结果与分析
        5.3.1 相机参数标定结果分析
        5.3.2 投影仪标定结果分析
        5.3.3 系统标定结果
        5.3.4 平面测量
    5.4 小结与讨论
第6章 总结与展望
    6.1 本文的主要研究内容
    6.2 后续工作的展望
参考文献
致谢
作者简历及攻读学位期间发表的学术论文与研究成果

(5)基于点、线特征的视觉惯性里程计(论文提纲范文)

摘要
ABSTRACT
第1章 绪论
    1.1 课题背景及研究的目的和意义
    1.2 国内外研究现状
        1.2.1 国内外在视觉SLAM研究现状
        1.2.2 国内外在VIO研究现状
    1.3 本文的研究内容
第2章 图像视觉特征的跟踪
    2.1 引言
    2.2 图像特征点的提取和跟踪
        2.2.1 图像特征点的提取
        2.2.2 图像特征点的跟踪
        2.2.3 图像特征点跟踪实验
    2.3 图像线特征的提取和跟踪
    2.4 本章小结
第3章 IMU预积分
    3.1 引言
    3.2 IMU测量模型
    3.3 IMU运动学方程和数值积分
        3.3.1 IMU运动学方程
        3.3.2 IMU数值积分
    3.4 预积分误差状态方程
    3.5 本章小结
第4章 单目视觉惯性里程计初始化
    4.1 引言
    4.2 单目视觉初始化
    4.3 IMU初始化
        4.3.1 陀螺仪偏移初始化
        4.3.2 速度、重力和尺度初始化
        4.3.3 重力调优
        4.3.4 加速度偏移初始化
    4.4 本章小结
第5章 视觉惯性里程计的后端优化
    5.1 引言
    5.2 视觉点特征的参数化及观测模型
        5.2.1 视觉点特征的参数化
        5.2.2 视觉点特征的观测模型
    5.3 视觉线特征的参数化及观测模型
        5.3.1 直线的普吕克坐标表示
        5.3.2 直线的正交表示
        5.3.3 视觉线特征的观测模型
    5.4 IMU观测模型
    5.5 视觉、惯性紧耦合优化
    5.6 滑动窗口中的边缘化
        5.6.1 边缘化计算方法
        5.6.2 滑动窗口关键帧边缘化
    5.7 回环检测与位姿图优化
        5.7.1 闭环关键帧检测
        5.7.2 关联位姿计算
        5.7.3 位姿图优化
    5.8 本章小结
第6章 视觉惯性里程计实验
    6.1 引言
    6.2 轨迹精度评估方法
    6.3 在EuRoC MAV数据集的实验
        6.3.1 EuRoC MAV数据集简介
        6.3.2 在EuRoC MAV数据集实验结果评估
    6.4 在TUM Visual-Inertial数据集的实验
        6.4.1 TUM Visual-Inertial数据集简介
        6.4.2 在TUM Visual-Inertial数据集实验结果评估
    6.5 实验结果分析
    6.6 本章小结
结论
参考文献
致谢

(6)GNSS受限条件下的无人机视觉导航技术研究(论文提纲范文)

摘要
ABSTRACT
符号对照表
缩略语对照表
第一章 绪论
    1.1 课题背景与研究意义
    1.2 国内外研究现状
        1.2.1 视觉位姿估计技术研究现状
        1.2.2 视觉惯性融合技术研究现状
    1.3 本文研究内容和工作安排
第二章 无人机位姿估计技术分析和基础理论
    2.1 无人机位姿估计问题建模
    2.2 无人机位姿估计关键技术分析
    2.3 相机成像模型和坐标转换关系
    2.4 无人机运动的数学描述
        2.4.1 旋转矩阵和平移向量
        2.4.2 旋转向量
        2.4.3 四元数
        2.4.4 李群和李代数
    2.5 非线性优化方法
    2.6 本章小结
第三章 基于单目视觉的无人机位姿估计技术
    3.1 无人机视觉位姿估计技术整体框架
    3.2 特征提取和特征匹配
        3.2.1 特征点需求分析
        3.2.2 基于四叉树模型的ORB特征点提取
        3.2.3 特征点快速匹配策略
        3.2.4 特征提取和匹配实验验证
    3.3 基于特征点的位姿估计方法
        3.3.1 基于动态模型的无人机初始位姿解算
        3.3.2 基于光束平差法的Pn P问题求解
    3.4 基于特征点的稀疏建图
        3.4.1 三角测量技术
        3.4.2 关键帧技术和局部地图管理
    3.5 无人机视觉位姿估计实验验证与分析
    3.6 本章小结
第四章 基于视觉惯性融合的无人机位姿估计技术
    4.1 无人机视觉惯性融合系统框架
    4.2 IMU测量模型
    4.3 IMU预积分技术
    4.4 基于松耦合的视觉惯性初始化
        4.4.1 相机-IMU相对位姿解算
        4.4.2 陀螺仪零偏校正
        4.4.3 初始化重力,速度和尺度因子
    4.5 基于紧耦合的后端优化
        4.5.1 基于滑动窗口的紧耦合框架
        4.5.2 视觉误差项分析
        4.5.3 IMU误差项分析
        4.5.4 基于舒尔补的边缘化策略
    4.6 无人机视觉惯性融合位姿估计实验验证与分析
    4.7 本章小结
第五章 无人机位姿估计实验方案设计与精度分析
    5.1 总体设计方案
    5.2 仿真环境设计
        5.2.1 仿真场景搭建
        5.2.2 无人机动力学仿真
        5.2.3 仿真环境中的相机和IMU参数
    5.3 EuRoC数据集
    5.4 可视化设计
    5.5 实验结果与分析
        5.5.1 位姿估计精度评价指标
        5.5.2 仿真环境下的无人机位姿估计精度分析
        5.5.3 EuRoC数据集中无人机位姿估计精度分析
        5.5.4 无人机视觉惯性融合位姿估计对比实验
    5.6 本章小结
第六章 总结与展望
    6.1 研究总结
    6.2 研究展望
参考文献
致谢
作者简介

(7)桌面型贴片机的关键技术研究(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 研究背景及意义
    1.2 国内外研究现状
        1.2.1 国外研究现状
        1.2.2 国内研究现状
    1.3 基础理论综述
        1.3.1 相机标定理论
        1.3.2 数字图像处理
    1.4 论文总体安排
第二章 贴片机平台及其视觉系统方案设计
    2.1 贴片机总体结构设计
        2.1.1 结构方案确定
        2.1.2 XY运动模组
        2.1.3 贴装头
        2.1.4 PCB板夹持装置
        2.1.5 贴片机底座
    2.2 贴片机视觉系统选型
    2.3 本章小结
第三章 上视相机的标定
    3.1 相机标定
        3.1.1 基于二维标定物的传统标定方法
        3.1.2 贴片机上视相机的标定方案
    3.2 特征点提取
        3.2.1 滤波处理
        3.2.2 边缘检测
        3.2.3 霍夫圆检测
    3.3 单应性矩阵估计
        3.3.1 方程的建立
        3.3.2 基于非齐次线性方程组的单应性矩阵估计
        3.3.3 基于齐次线性方程组的单应性矩阵估计
    3.4 本章小结
第四章 单应性矩阵的优化
    4.1 对直接估计法的检验
    4.2 代价函数最小化
        4.2.1 代价函数的建立
        4.2.2 基于L-M迭代法最小化代价函数
        4.2.3 迭代最小化估计单应性矩阵
    4.3 鲁棒估计
        4.3.1 RANSAC算法
        4.3.2 实验结果
    4.4 本章小结
第五章 元器件校准
    5.1 元器件校准流程
    5.2 轮廓提取
        5.2.1 预处理
        5.2.2 边缘追踪算法
    5.3 凸包检测
    5.4 最小外接矩形拟合
        5.4.1 多边形的最小外接矩形
        5.4.2 旋转卡壳法
    5.5 本章小结
结论
参考文献
攻读硕士学位期间取得的研究成果
致谢

(8)室内动态场景同步定位与语义建图的研究(论文提纲范文)

摘要
abstract
第1章 绪论
    1.1 研究背景及意义
    1.2 国内外研究现状
        1.2.1 传统SLAM研究现状
        1.2.2 深度学习与SLAM融合研究现状
        1.2.3 本文研究内容及论文结构
第2章 RGB-D相机标定和数据采集
    2.1 RGB-D相机
        2.1.1 RGB-D相机简介
        2.1.2 RGB-D相机测距基本原理
    2.2 相机针孔成像模型
        2.2.1 相机相关坐标系
        2.2.2 相机内外参矩阵
    2.3 相机标定
        2.3.1 相机标定中的单应矩阵
        2.3.2 求取内参的约束条件
        2.3.3 求解内参数
    2.4 Kinect2.0 的标定和图像采集
        2.4.1 Kinect2.0 的标定
        2.4.2 图像采集与点云生成
    2.5 本章小结
第3章 动态场景同步定位与语义建图
    3.1 SLAM的数学描述
    3.2 经典视觉SLAM框架
        3.2.1 信息获取
        3.2.2 视觉里程计
        3.2.3 优化
        3.2.4 回环检测
        3.2.5 建图
    3.3 PSPNet-SLAM系统
        3.3.1 系统整体框架
        3.3.2 语义分割网络
        3.3.3 LK光流金字塔筛选动态点
        3.3.4 语义点云地图和语义八叉树地图
    3.4 本章小结
第4章 动态点筛选
    4.1 单应矩阵
        4.1.1 单应矩阵基本原理
        4.1.2 PROSAC求解单应矩阵
    4.2 光流法筛选方法
        4.2.1 光流法基本原理
        4.2.2 光流法的前提假设
        4.2.3 Farneback光流法
        4.2.4 光流法用于动态点筛选
    4.3 语义分割筛选方法
    4.4 融合的筛选方法
        4.4.1 基于动态点筛选的SLAM系统框架
        4.4.2 动态点筛选
    4.5 本章小结
第5章 实验过程及分析
    5.1 数据集
    5.2 动态场景同步定位与语义建图实验
        5.2.1 定量实验结果
        5.2.2 定性实验结果
        5.2.3 语义点云图和语义八叉树地图
    5.3 动态点筛选实验
        5.3.1 定量结果
        5.3.2 定性结果
    5.4 真实场景实验
        5.4.1 静态场景实验
        5.4.2 动态场景实验
    5.5 本章小结
结论
参考文献
攻读硕士学位期间发表的论文和取得的科研成果
致谢

(9)基于单目视觉SLAM的舰面调运关键技术研究(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 研究背景及意义
    1.2 研究现状和研究进展
        1.2.1 单目视觉SLAM研究现状
        1.2.2 单目视觉SLAM研究进展
    1.3 本文的研究内容及结构安排
第二章 舰面视觉调运系统方案
    2.1 定位方法对比分析
    2.2 单目视觉SLAM中的关键技术
    2.3 舰面单目视觉SLAM调运系统
        2.3.1 坐标系定义
        2.3.2 单目视觉SLAM调运
    2.4 本章小结
第三章 基于单应约束的单目视觉SLAM初始化算法
    3.1 引言
    3.2 单目视觉SLAM初始化算法
        3.2.1 平面运动假设
        3.2.2 单应矩阵求解
        3.2.3 相机倾斜估计
        3.2.4 帧间位姿估计
    3.3 实验
        3.3.1 相机标定
        3.3.2 数据集实验
        3.3.3 舰面场景模拟实验
    3.4 本章小结
第四章 基于单应约束的单目视觉SLAM帧间位姿估计算法
    4.1 引言
    4.2 帧间位姿估计算法
        4.2.1 校正后匹配点对的单应关系
        4.2.2 旋转角估计算法
        4.2.3 平移向量线性求解算法
    4.3 实验
    4.4 本章小结
第五章 基于ASIFT特征的单目视觉SLAM帧间位姿估计算法
    5.1 引言
    5.2 ASIFT特征介绍
        5.2.1 仿射投影模型
        5.2.2 ASIFT特征点提取算法
    5.3 平面运动下ASIFT特征的帧间位姿估计算法
        5.3.1 点对的仿射和单应
        5.3.2 帧间位姿估计
    5.4 已知垂直方向ASIFT特征的帧间位姿估计算法
        5.4.1 垂直方向校正
        5.4.2 帧间位姿估计
    5.5 实验
        5.5.1 大倾角下特征匹配实验
        5.5.2 帧间位姿估计实验
        5.5.3 ASIFT-SLAM实验
    5.6 本章小结
结束语
    6.1 论文工作总结
    6.2 下一步研究展望
致谢
参考文献
作者在学期间取得的学术成果

(10)基于区域的复杂场景平面姿态跟踪算法研究(论文提纲范文)

致谢
摘要
Abstract
1 绪论
    1.1 研究背景及意义
    1.2 国内外研究现状
        1.2.1 基于关键点的平面姿态跟踪
        1.2.2 基于区域的平面姿态跟踪
        1.2.3 现有技术对比及讨论
    1.3 相关技术概述
        1.3.1 同一平面双帧图像间的几何关系
        1.3.2 几何模型
        1.3.3 跟踪数据集
        1.3.4 平面姿态跟踪性能评价指标
    1.4 研究内容与论文组织结构
        1.4.1 主要研究内容
        1.4.2 论文组织结构
2 基于描述子恒定假设的平面姿态跟踪算法研究
    2.1 相关技术
        2.1.1 基于描述子的稠密几何估计
        2.1.2 基于ESM的平面姿态跟踪
        2.1.3 单应矩阵的李代数参数化
    2.2 基于描述子恒定假设的平面姿态跟踪算法
        2.2.1 梯度方向描述子
        2.2.2 多通道ESM
        2.2.3 基于梯度方向和多通道ESM的平面姿态跟踪算法
    2.3 实验与结果分析
        2.3.1 实验设置
        2.3.2 收敛性及时间分析
        2.3.3 降噪算法有效性分析
        2.3.4 复杂光照环境下的实验结果
        2.3.5 一般环境下的实验结果
    2.4 本章小结
3 基于多分辨率特征金字塔的平面姿态跟踪算法研究
    3.1 相关技术
        3.1.1 图像金字塔
        3.1.2 基于分层模型的运动估计
    3.2 基于多分辨率特征金字塔的平面姿态跟踪算法
        3.2.1 梯度方向金字塔的提取
        3.2.2 基于梯度方向金字塔和多通道ESM的平面姿态跟踪算法设计
    3.3 实验与结果分析
        3.3.1 实验设置
        3.3.2 收敛性及时间分析
        3.3.3 关键参数分析
        3.3.4 TMT数据集实验结果
        3.3.5 POT数据集实验结果
        3.3.6 POIC数据集实验结果
    3.4 本章小结
4 基于卷积神经网络的平面姿态跟踪算法研究
    4.1 相关技术及工作
        4.1.1 基于卷积神经网络的几何估计
        4.1.2 基于孪生网络的视觉跟踪
    4.2 基于卷积神经网络的平面姿态跟踪
        4.2.1 基于孪生网络和ESM层的特征提取网络
        4.2.2 基于人工合成样本和角点距离损失的模型训练
        4.2.3 Siamese-ESM平面姿态跟踪算法
    4.3 实验与结果分析
        4.3.1 实验设置
        4.3.2 POT数据集实验结果
        4.3.3 POIC数据集实验结果
    4.4 本章小结
5 总结与展望
    5.1 总结
    5.2 展望
参考文献
攻读博士学位期间的主要研究成果

四、平面测量问题中单应矩阵的算法研究(论文参考文献)

  • [1]面向双目立体视觉车辆测速系统的匹配算法优化研究[D]. 李庆园. 中原工学院, 2021
  • [2]基于多重二维约束和三维优化的平面目标跟踪算法[D]. 刘婉君. 四川大学, 2021(02)
  • [3]基于多视频序列的大规模运动恢复结构研究[D]. 葛义攀. 贵州大学, 2020(01)
  • [4]单目结构光系统中标定方法研究[D]. 伍明. 中国科学院大学(中国科学院光电技术研究所), 2020(08)
  • [5]基于点、线特征的视觉惯性里程计[D]. 何宇喆. 哈尔滨工业大学, 2020(01)
  • [6]GNSS受限条件下的无人机视觉导航技术研究[D]. 郑亚兴. 西安电子科技大学, 2020(05)
  • [7]桌面型贴片机的关键技术研究[D]. 王驰凯. 长安大学, 2020(06)
  • [8]室内动态场景同步定位与语义建图的研究[D]. 韩双全. 哈尔滨工程大学, 2020(05)
  • [9]基于单目视觉SLAM的舰面调运关键技术研究[D]. 孙放. 国防科技大学, 2019(02)
  • [10]基于区域的复杂场景平面姿态跟踪算法研究[D]. 陈琳. 浙江大学, 2019(01)

标签:;  ;  ;  ;  ;  

平面测量问题中的单应矩阵算法研究
下载Doc文档

猜你喜欢