摘要
为实现低成本高精度的室内定位,在综合考虑定位需求和计算复杂性的基础上,设计了一种基于简易视觉标签的室内高精度定位技术。采用简单的颜色和形状特征检测视觉标签,从而降低检测复杂度,减少数据存储需求,针对简易标签特征不唯一问题,设计了基于相机视场和标签方位角的快速查询匹配方法。通过分析标签分布特性与定位误差关系,设计加权最小二乘位姿估计算法,建立迭代求解和最优估计的协同策略,实现了算法复杂度和定位精度的良好平衡。仿真和实验结果表明:所提定位方法能够有效处理超定方程组奇异问题,抑制不良标签组的负面影响,与超宽带技术相比,定位误差降低超过62%。
随着人工智能等技术的飞速发展,智能移动平台在医疗、仓储物流、工业生产等领域的应用需求日益增加。精确的室内定位作为其关键技术之一,是实现导航、决策等自主行为的基
根据室内定位使用的信号类型不同,主要包括基于无线信号和视觉信息两类定位技术。室内定位主要通过无线测距、测角或位置指纹等方式实现定位。常用的无线信号包括WIFI、蓝牙、UWB(ultra wide band)等,在室内受多径效应、非视距传播等影响,信号基站的部署成本相对高昂。基于视觉的定位技术主要包括SLAM(simultaneous localization and mapping)和标签定位。前者通过对环境特征的提取与匹配能够在未知环境下进行建图和定位,但算法复杂度高、环境适应性弱、实时性差、应用难度大。视觉标签定位技术预先存储标签特征及坐标信息,应用时通过标签检测和匹配实现绝对定位,算法复杂度低。其中,选择视觉标签和定位算法是实现低成本高精度室内定位的关键。
在视觉标签选择方面,Guan
采用自然标签无需改造室内环境,但桌子、墙角等自然标签的特征通常较为类似,为正确区分不同标签的坐标带来了困难。为此,有学者提出人工标签,通过编码方法将标签ID、坐标等信息嵌入到标签中,以保证标签的唯一
定位算法常采用图像匹配或几何约束法。徐
针对视觉标签室内定位存在的问题,文中面向智能移动平台提出一种基于简易视觉标签的室内高精度定位方法。针对简易标签纹理特征不唯一问题,设计了基于相机FOV(field of view)和方位角的快速查询匹配方法。在分析标签分布特性与定位误差关系基础上,提出加权最小二乘位姿估计算法,建立迭代求解和最优估计的协同策略,实现了算法复杂度和定位精度的良好平衡。通过实验对所提方法的性能进行验证和分析,与UWB相比定位误差得到了大幅降低。文中的主要贡献为:1) 针对简单视觉标签的非唯一性,提出一种快速查询匹配策略;2)制定加权最小二乘和迭代求解的协调策略,在共圆奇异和一般工况下均能实现位姿的精确估计;3)设计基于简易视觉标签的室内定位系统,该系统具有高实时性、高精度、易部署和抗干扰强等优点;4)通过仿真和实验对比验证了所提定位系统的性能。
视觉标签的选择和定位算法是实现高精度室内定位的关键。
考虑如下因素,采用

图1 简易视觉标签
Fig. 1 Simple visual tags
通过色彩和形状特征进行标签识别,根据标签圆心进行方位角检测,从而提高抗干扰能力,降低视觉处理算法的复杂度。但是,标签简单特征使其不具有唯一性,导致无法根据其特征直接获取坐标实现定位。
针对简易视觉标签的非唯一性问题,结合几何约束定位精度高、算法复杂度低等优点,设计

图2 高精度定位算法
Fig. 2 High-accuracy location algorithm
考虑室内平面运动,标签位置检测采用
![]() | (1) |
式中:为相机焦距;为可观测的标签编号构成的集合。

图3 视觉测角原理
Fig. 3 Fundamental of visual measurement of angle
在标签特征唯一且坐标已知的情况下,当观测到的标签数量不少于3个时,可根据式(1)实现定位,冗余观测有利于提高定位精度和鲁棒
设计的标签搜索匹配策略如

图4 标签搜索匹配策略
Fig. 4 Tag’s searching strategy
1)相机仅能观测到其FOV内的标签,因此根据当前位姿信息筛选标签数据库中可能观测到的标签(即候选标签),可避免遍历数据库,提高匹配效率和可靠度;
2)当候选标签与相机观测标签一致时,两者的方位角一致,因此可利用该特性进行标签匹配。
为快速确定候选标签,根据上一周期定位结果通过航位推算估计当前位

图5 相机FOV
Fig. 5 FOV model of camera
, | (2) |
式中,和分别为探测距离和半水平视场角。
为便于快速检索,将定位区域栅格化且每个栅格内仅有1个标签,根据栅格序号存储标签数据。结合相机FOV模型分2步确定候选标签。
步骤1:粗筛。根据A、B、C点坐标确定相机FOV覆盖的栅格。
步骤2:细筛。对相机FOV覆盖栅格内的标签根据向量两两点积是否同号判定其是否在FOV
理论上,当有效标签数量不少于3个时即可根据式(1)实现位姿解
考虑3个有效标签可实现位姿求解,由式(1)采用灵敏度理论可得误差传递特性:
。 ![]() | (4) |
式中,和分别表示标签的测角及其到相机的距离。当相机和标签共圆时(见
, |
。 | (5) |

图6 共圆工况示意图
Fig. 6 Schematic diagram of co-circular condition
由
步骤1:确定航向角搜索范围,并根据航向角精度要求进行离散化。
步骤2:针对离散化后的每个航向角根据
;
;
。 | (6) |
式中:和分别表示标签的位置坐标和视觉测角;为离散化后的航向角。
步骤3:针对每个离散化后的航向角,计算位置坐标方差。选择分散程度最小的一组位置坐标的均值作为最终位置,对应的航向角为最终航向角。
在非共圆工况下,每3个标签为一组即可实现位姿求解。最小二乘求解上述超定方程组具有实时性和抗噪性好的优
以航向角估计为例进行说明。针对任意一组标签,根据式(1)构成的几何约束方程组可
, | (7) |
, |
式中,和分别表示的正切值和像素坐标的方差。
采用加权最小二乘估计时,考虑加权系数为测量误差方差的倒数时,能够得到最大似然
;
;
;
;
。 | (8) |
式中,第组观测结果由标签得到。类似航向角的估计过程,根据几何约束方程组可以建立位置的加权最小二乘估计算法。
在数值验证和分析所提算法有效性基础上,对实际定位精度与UWB进行了对比实验。
为验证所提协同求解策略和加权最小二乘估计的有效性,设计了

图7 仿真实验工况
Fig. 7 Simulation conditions
相机沿

图8 共圆工况定位结果
Fig. 8 Results under co-circular condition

图9 非共圆工况定位结果
Fig. 9 Results under non-circular condition
为进一步验证定位精度,考虑如下原因在

图10 室内定位场景
Fig. 10 Indoor location scenario
1)类似ORB-SLAM(oriented fast and rotated brief simutaneous lacalization and mappling)的定位方法计算资源消耗较大;
2)在特征信息大幅遮挡或光照剧烈变化环境下,使用复杂纹理信息的视觉定位算法难以正常工作;
3)基于无线信号位置指纹的定位算法平均误差高达几米;
4)相对而言,UWB具有良好的实时性、较高的定位精度和较好的抗环境扰动能力。
测试时,定位算法运行于树莓派4开发板,处理速度为30帧/秒。沿设定轨迹移动的定位结果如

图11 对比实测结果
Fig. 11 Comparative test results
平均误差 | 纵向位置/cm | 横向位置/cm | 航向角/(°) |
---|---|---|---|
UWB | 36.1 | 32.4 | |
文中算法 | 12.3 | 9.8 | 0.88 |
由于移动过程中无法精确控制定位节点沿设定轨迹运动,

图12 静态实测结果
Fig. 12 Static test results
为实现低成本高精度的室内定位,文中设计了一种基于简易视觉标签的室内定位方法。仿真和实验结果表明:
1)基于相机FOV和方位角的标签匹配关联策略能够快速筛选标签数据库,实现非唯一性标签坐标的准确查询。
2)基于误差传递方程条件数的位姿求解算法切换策略能够及时准确检测标签共圆工况,并切换至合理的位姿求解算法。
3)设计的加权最小二乘位姿估计算法能够有效抑制不良标签组的负面影响。与UWB相比,文中所设计算法能够显著降低定位误差。
参考文献
Vladareanu L, Vlădareanu V, Pop N, et al. Robot extenics control developed by versatile, intelligent and portable robot vipro platform applied on firefighting robots[J]. International Journal of Online and Biomedical Engineering (IJOE), 2020, 16(8): 99-107. [百度学术]
Ding J Y, Wang Y, Fu S Z, et al. Multiview features fusion and AdaBoost based indoor localization on WiFi platform[J]. IEEE Sensors Journal, 2022, 22(16): 16607-16616. [百度学术]
Guan K, Ma L, Tan X, et al. Vision-based indoor localization approach based on SURF and landmark[C]// 2016 International Wireless Communications and Mobile Computing Conference (IWCMC). IEEE, 2016: 655-659. [百度学术]
Hong W, Xia H, An X C, et al. Natural landmarks based localization algorithm for indoor robot with binocular vision[C]// Chinese Control and Decision Conference (CCDC). IEEE, 2017: 3313-3318. [百度学术]
张梦珠, 黄劲松. 基于语义特征的视觉定位研究[J]. 测绘地理信息, 2022, 47(4): 33-37. [百度学术]
Zhang M Z, Huang J S. Research on visual location based on semantic characteristics[J]. Journal of Geomatics, 2022, 47(4): 33-37.(in Chinese) [百度学术]
Kayhani N, Zhao W D, McCabe B, et al. Tag-based visual-inertial localization of unmanned aerial vehicles in indoor construction environments using an on-manifold extended Kalman filter[J]. Automation in Construction, 2022, 135: 104112. [百度学术]
李照, 舒志兵. 一种改进二维码视觉精定位AGV技术研究[J]. 控制工程, 2019, 26(6): 1049-1054. [百度学术]
Li Z, Shu Z B. Research on AGV vision precision positioning technology by an improved two-dimensional code[J]. Control Engineering of China, 2019, 26(6): 1049-1054.(in Chinese) [百度学术]
徐聪. 基于计算机视觉的室内定位关键技术研究[D]. 成都: 电子科技大学, 2019. [百度学术]
Xu C. Research on key technologies of indoor positioning based on computer vision[D].Chengdu: University of Electronic Science and Technology of China, 2019. (in Chinese) [百度学术]
Li M F, Zhao L C, Tan D, et al. BLE fingerprint indoor localization algorithm based on eight-neighborhood template matching[J]. Sensors, 2019, 19(22): 4859. [百度学术]
Shao F, Lin W S, Gu S B, et al. Perceptual full-reference quality assessment of stereoscopic images by considering binocular visual characteristics[J]. IEEE Transactions on Image Processing, 2013, 22(5): 1940-1953. [百度学术]
韩锟, 章京涛, 杨穷千. 基于果蝇算法优化的移动机器人RBPF-SLAM研究[J]. 铁道科学与工程学报, 2022, 19(1): 265-272. [百度学术]
Han K, Zhang J T, Yang Q Q. Research on RBPF-SLAM for mobile robot based on fruit fly optimization algorithm[J]. Journal of Railway Science and Engineering, 2022, 19(1): 265-272.(in Chinese) [百度学术]
Gao F, Ma J. Indoor location technology with high accuracy using simple visual tags[J]. Sensors, 2023, 23(3): 1597. [百度学术]
Lee J K, Wang Y M, Lu C S, et al. The enhancement of graphic QR code recognition using convolutional neural networks[C]// International Conference on Innovation, Communication and Engineering (ICICE). IEEE, 2019: 94-97. [百度学术]
王付有, 高成发, 王剑超. 航向角约束的手机RTK航位推算融合定位模型[J]. 测绘科学, 2022, 47(7): 143-148. [百度学术]
Wang F Y, Gao C F, Wang J C. Mobile RTK/DR fusion positioning model based on heading angle variation constraint[J]. Science of Surveying and Mapping, 2022, 47(7): 143-148.(in Chinese) [百度学术]
Park D, Lee S J, Kwon J, et al. Localization of mobile robot based on artificial landmark[J]. The Journal of Korean Institute of Communications and Information Sciences, 2020, 45(12): 2150-2153. [百度学术]