网刊加载中。。。

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读

基于简易视觉标签的高精度室内定位技术  PDF

  • 熊禹 1
  • 高锋 2
  • 马杰 2
1. 东风柳州汽车有限公司 乘用车技术中心,广西 柳州 515005; 2. 重庆大学 机械与运载工程学院,重庆 400044

中图分类号: TH7

最近更新:2025-02-18

DOI:10.11835/j.issn.1000-582X.2023.210

  • 全文
  • 图表
  • 参考文献
  • 作者
  • 出版信息
EN
目录contents

摘要

为实现低成本高精度的室内定位,在综合考虑定位需求和计算复杂性的基础上,设计了一种基于简易视觉标签的室内高精度定位技术。采用简单的颜色和形状特征检测视觉标签,从而降低检测复杂度,减少数据存储需求,针对简易标签特征不唯一问题,设计了基于相机视场和标签方位角的快速查询匹配方法。通过分析标签分布特性与定位误差关系,设计加权最小二乘位姿估计算法,建立迭代求解和最优估计的协同策略,实现了算法复杂度和定位精度的良好平衡。仿真和实验结果表明:所提定位方法能够有效处理超定方程组奇异问题,抑制不良标签组的负面影响,与超宽带技术相比,定位误差降低超过62%。

随着人工智能等技术的飞速发展,智能移动平台在医疗、仓储物流、工业生产等领域的应用需求日益增加。精确的室内定位作为其关键技术之一,是实现导航、决策等自主行为的基[

1]。与其他应用场景相比,室内定位对计算复杂度、部署便利性和抗干扰能力有更高要求。室外环境中,卫星能够提供准确全天候的定位、授时服务,且技术成熟稳定。但在室内环境,由于建筑物遮挡、传播干扰和多径效应等,卫星信号会严重衰减导致失[2]

根据室内定位使用的信号类型不同,主要包括基于无线信号和视觉信息两类定位技术。室内定位主要通过无线测距、测角或位置指纹等方式实现定位。常用的无线信号包括WIFI、蓝牙、UWB(ultra wide band)等,在室内受多径效应、非视距传播等影响,信号基站的部署成本相对高昂。基于视觉的定位技术主要包括SLAM(simultaneous localization and mapping)和标签定位。前者通过对环境特征的提取与匹配能够在未知环境下进行建图和定位,但算法复杂度高、环境适应性弱、实时性差、应用难度大。视觉标签定位技术预先存储标签特征及坐标信息,应用时通过标签检测和匹配实现绝对定位,算法复杂度低。其中,选择视觉标签和定位算法是实现低成本高精度室内定位的关键。

在视觉标签选择方面,Guan[

3]以室内标志牌等特殊物体作为标签,离线提取SURF(speeded-up robust feature)特征点构成标签数据库。该方式无需改造环境,但特征点信息多,且易受光照等环境因素影响。为降低存储需求,Hong[4]利用相对较少的屋顶角点。张梦珠[5]则将语义分割与定位算法相结合以提高特征匹配速度,但语义分割会消耗大量计算资源。

采用自然标签无需改造室内环境,但桌子、墙角等自然标签的特征通常较为类似,为正确区分不同标签的坐标带来了困难。为此,有学者提出人工标签,通过编码方法将标签ID、坐标等信息嵌入到标签中,以保证标签的唯一[

6]。但标签复杂的编码信息导致其识别复杂度较高,耗时达到几百毫[7]。此外,复杂的编码纹理也更容易受到环境光照、污染物等影响。

定位算法常采用图像匹配或几何约束法。徐[

8]根据数据库中标签图像与实时采集的标签图像之间的多视图几何关系进行位姿估计。Li[9]采用模板匹配法,通过仿射变换实现定位。图像匹配过程主要依赖特征提取和匹配,导致算法复杂度高。与之相比,几何约束法根据标签和传感器间的几何关系实现定位,计算量小。Hong[4]采用双目相机对视觉标签进行测距,由距离公式获取位姿信息,精度可达厘米级。但双目相机存在视差,且左右图像匹配的计算资源消耗[10]。韩锟[11]同时测量多个标签的距离,由几何约束的超定方程组通过最小二乘法估计位姿,在计算复杂度和精度方面总体更具优势。但当标签冗余量不够或位置特殊导致约束方程组奇异时,定位误差会急剧增[12]

针对视觉标签室内定位存在的问题,文中面向智能移动平台提出一种基于简易视觉标签的室内高精度定位方法。针对简易标签纹理特征不唯一问题,设计了基于相机FOV(field of view)和方位角的快速查询匹配方法。在分析标签分布特性与定位误差关系基础上,提出加权最小二乘位姿估计算法,建立迭代求解和最优估计的协同策略,实现了算法复杂度和定位精度的良好平衡。通过实验对所提方法的性能进行验证和分析,与UWB相比定位误差得到了大幅降低。文中的主要贡献为:1) 针对简单视觉标签的非唯一性,提出一种快速查询匹配策略;2)制定加权最小二乘和迭代求解的协调策略,在共圆奇异和一般工况下均能实现位姿的精确估计;3)设计基于简易视觉标签的室内定位系统,该系统具有高实时性、高精度、易部署和抗干扰强等优点;4)通过仿真和实验对比验证了所提定位系统的性能。

1 高精度室内定位系统设计

视觉标签的选择和定位算法是实现高精度室内定位的关键。

1.1 视觉标签设计

考虑如下因素,采用图1所示的简易视觉标[

13]:1)自然纹理特征不受控,极易受环境干扰;2)编码标签具有唯一性,但识别更复杂,且精细的编码纹理也易受干扰;3)相机的色彩解析能力强,且RGB是基础颜色空间;4)圆形具有易检测、鲁棒性好和视角不变性等优点。

图1  简易视觉标签

Fig. 1  Simple visual tags

通过色彩和形状特征进行标签识别,根据标签圆心进行方位角检测,从而提高抗干扰能力,降低视觉处理算法的复杂度。但是,标签简单特征使其不具有唯一性,导致无法根据其特征直接获取坐标实现定位。

1.2 高精度定位算法

针对简易视觉标签的非唯一性问题,结合几何约束定位精度高、算法复杂度低等优点,设计图2所示的高精度定位算法。

图2  高精度定位算法

Fig. 2  High-accuracy location algorithm

考虑室内平面运动,标签位置检测采用图3所示的视觉测角方[

11]。相机光心x,y、航向角θ与标签Li的位置(xi,yi)[12]

tan θ+αi=yi-yxi-x αi=arctan ui-u0/f, iΩ (1)

式中:f为相机焦距;Ω为可观测的标签编号构成的集合。

图3  视觉测角原理

Fig. 3  Fundamental of visual measurement of angle

在标签特征唯一且坐标已知的情况下,当观测到的标签数量不少于3个时,可根据式(1)实现定位,冗余观测有利于提高定位精度和鲁棒[

11]。但文中采用的标签仅具有简单的色彩和形状特征,不具有唯一性。为此,在第2节提出基于相机FOV和方位角的快速查询匹配方法,在无需遍历标签数据库的前提下实现标签的快速准确匹配。然后,为根据观测到的标签位置实现高精度定位,在分析标签分布特性与定位误差关系基础上,提出加权最小二乘位姿估计算法,建立迭代求解和最优估计的协同策略,实现了算法复杂度和定位精度的良好平衡,具体参见第3节。

2 标签搜索匹配策略

设计的标签搜索匹配策略如图4所示,考虑的因素如下:

图4  标签搜索匹配策略

Fig. 4  Tag’s searching strategy

1)相机仅能观测到其FOV内的标签,因此根据当前位姿信息筛选标签数据库中可能观测到的标签(即候选标签),可避免遍历数据库,提高匹配效率和可靠度;

2)当候选标签与相机观测标签一致时,两者的方位角一致,因此可利用该特性进行标签匹配。

2.1 候选标签筛选

为快速确定候选标签,根据上一周期定位结果通过航位推算估计当前位姿[

14],结合图5所示的相机FOV模型计算可观测标签所在的空间范围,从标签数据库快速确定候选标签。

图5  相机FOV

Fig. 5  FOV model of camera

图5中,A点坐标通过航位推算得[

14]BC点的坐标xB,yBxC,yC由几何关系计算得到:

xByB=xAyA+hcos γcos ( θ+γ)sin ( θ+γ)  xCyC=xAyA+hcos γcos (θ-γ)sin (θ-γ) (2)

式中,hγ分别为探测距离和半水平视场角。

为便于快速检索,将定位区域栅格化且每个栅格内仅有1个标签,根据栅格序号存储标签数据。结合相机FOV模型分2步确定候选标签。

步骤1:粗筛。根据A、B、C点坐标确定相机FOV覆盖的栅格。

步骤2:细筛。对相机FOV覆盖栅格内的标签Li根据向量LiALiBLiC两两点积是否同号判定其是否在FOV[

15]。所有点积同号的标签构成候选标签集合Ωc。同时,根据航位推算的相机位姿由式(1)可得到候选标签的理论方位角βi, iΩc

2.2 基于方位角的标签匹配

考虑候选标签与相机观测标签一致时,两者方位角应一致。为此,设计如下的标签匹配策略。

步骤1:任选一观测到但未匹配的标签计算其方位角α与色彩特征相同的候选标签理论方位角的偏差

ei=α-βi, iΩc (3)

步骤2:令k=argmini ei,若最小的方位角偏差小于设定限值,则观测到的标签与候选标签Lk匹配;否则将该观测标签作为干扰剔除。

与采用所有特征数据进行总体优化匹配的方法相比,该策略可以有效避免因为遮挡等导致观测信息缺失引起的误差。通过上述过程,可以快速从标签数据库中获取相机观测到的有效标签及其坐标。

3 高精度位姿求解

理论上,当有效标签数量不少于3个时即可根据式(1)实现位姿解[

11],但实际应用时存在如下问题:1)标签与相机位姿、环境干扰等因素会引起像素误差,降低定位精度;2)根据式(1)构成的方程组进行位姿解算时存在矩阵逆运算,特定条件下奇异导致无法求解。为此,本节基于测角方程(1)分析误差传递特性,设计加权最小二乘位姿估计算法,建立迭代求解和最优估计的协同策略,实现高精度位姿求解。

3.1 误差传递特性分析

考虑3个有效标签可实现位姿求解,由式(1)采用灵敏度理论可得误差传递特性:

dαidαjdαk=Gdxdydθ,  G=sin (αi+θ)ri-cos (αi+θ)ri-1sin (αj+θ)rj-cos (αj+θ)rj-1sin (αk+θ)rk-cos (αk+θ)rk-1  (4)

式中,αiri分别表示标签Li的测角及其到相机的距离。当相机和标签Li共圆时(见图6),由托勒密定理和正弦定理可知:

ridjk+rkdij=rjdik
dijsin (αi-αj)=djksin (αj-αk)=diksin (αi-αk) (5)

图6  共圆工况示意图

Fig. 6  Schematic diagram of co-circular condition

式(5)可知G=0,定位方程组病态,即微小的测角误差都会导致位姿求解产生巨大偏差。为此,设计如下的迭代求解和最优估计的协同策略:当G的条件数小于设定阈值时,采用最小二乘估计求解位姿,具体参见3.2节;否则,采用如下的迭代搜索算法。

步骤1:确定航向角搜索范围,并根据航向角精度要求进行离散化。

步骤2:针对离散化后的每个航向角根据式(6)计算任意2个标签确定的位置x,y[

11]

x=titθ-1tjtθ-1yi-yj+tjtθ-1tθ+tixi-titθ-1tθ+tjxj(tθ2+1)(tj-ti)

y=tθ+titθ+tjxi-xj+titθ-1tθ+tjyi-tjtθ-1tθ+tiyj(tθ2+1)(ti-tj)

ti=tanαi,  tj=tanαj,  tθ=tanθ (6)

式中:xi,yiαi分别表示标签Li的位置坐标和视觉测角;θ为离散化后的航向角。

步骤3:针对每个离散化后的航向角,计算位置坐标方差。选择分散程度最小的一组位置坐标的均值作为最终位置,对应的航向角为最终航向角。

3.2 加权最小二乘位姿估计

在非共圆工况下,每3个标签为一组即可实现位姿求解。最小二乘求解上述超定方程组具有实时性和抗噪性好的优[

16]。但是,受环境和分辨率等影响,不同分布的标签组估计误差不同。为进一步提高位姿估计精度,基于测角方程(1)根据误差传递过程设计求解质量评价指标,形成加权最小二乘位姿估计算法。

以航向角θ估计为例进行说明。针对任意一组标签LiLjLk,根据式(1)构成的几何约束方程组可[

11]

σtθ2=tθtitθtjtθtktθtitθtjtθtkTf2σu2 (7)
tθ=tk-ti-yj+tjxk+yi-tixi-tj-ti(-yk+tkxk+yi-tixi)tk-ti-xj-tjyj+xi+tiyi-tj-ti(-xk+tkyk+xi-tiyi)

式中,σtθ2σu2分别表示θ的正切值和像素坐标u的方差。式(2)反应了标签圆心在图像上的观测误差与航向角误差之间的关系。

采用加权最小二乘估计时,考虑加权系数为测量误差方差的倒数时,能够得到最大似然[

16]。因此根据式(7)所示的误差关系设计如下的航向角加权最小二乘估计算法:

θ=atan tθ,  tθ=(ATWA)-1ATWB

A=a1a2T,  B=b1b2T,  W=diag1/ω1,1/ω2,

an=tk-tixi-xj+ti-tjyiyjT-tj-tixi-xk+ti-tkyiykT

bn=tk-tiyi-yj+-titjxixjT-tj-ti(yi-yk+-titkxixkT

ωn=tθtitθtjtθtktθtitθtjtθtkT (8)

式中,第n组观测结果由标签LiLjLk得到。类似航向角的估计过程,根据几何约束方程组可以建立位置x,y的加权最小二乘估计算法。

4 实验验证与分析

在数值验证和分析所提算法有效性基础上,对实际定位精度与UWB进行了对比实验。

4.1 仿真验证和分析

为验证所提协同求解策略和加权最小二乘估计的有效性,设计了图7所示的定位场景。共圆工况所有标签处于同一圆上,用于验证协同策略的有效性。非共圆工况中标签4与其他标签不共圆,相机沿圆周运动,用于验证设计的加权系数能够抑制不良标签组的影响。

图7  仿真实验工况

Fig. 7  Simulation conditions

相机沿图7(a)中箭头方向匀速由圆外移动到圆内过程中的主要定位结果如图8所示。在1.3~1.9 s间相机与标签处于共圆状态,此时根据式(1)建立的超定方程组奇异,导致最小二乘估计误差快速放大。而文中提出的协同策略能够正确判定超定方程组奇异性,并及时切换至迭代搜索算法,仍能够以较高的精度完成定位。

图8  共圆工况定位结果

Fig. 8  Results under co-circular condition

图7(b)所示工况中,每3个标签为一组,共计4种组合。其中,标签1、2、3(组合2)与相机始终处于共圆状态,该标签组合的求解精度最差。从图9(a)可以看出,组合2对定位结果的贡献度接近于0。说明3.1节设计的求解质量评价指标能够反应不同标签组合的位姿求解结果的可信度。相应地,基于该指标的加权最小二乘位姿估计算法(8)能够有效抑制不良标签组的负面影响。从图9(b)~(d)可以看出,与非加权算法相比,所提估计算法的航向角和纵横向位置的最大估计误差分别降低了89.47%、51.61%和88.78%。

图9  非共圆工况定位结果

Fig. 9  Results under non-circular condition

4.2 定位精度实验验证

为进一步验证定位精度,考虑如下原因在图10所示的室内场景下与UWB进行对比测试:

图10  室内定位场景

Fig. 10  Indoor location scenario

1)类似ORB-SLAM(oriented fast and rotated brief simutaneous lacalization and mappling)的定位方法计算资源消耗较大;

2)在特征信息大幅遮挡或光照剧烈变化环境下,使用复杂纹理信息的视觉定位算法难以正常工作;

3)基于无线信号位置指纹的定位算法平均误差高达几米;

4)相对而言,UWB具有良好的实时性、较高的定位精度和较好的抗环境扰动能力。

测试时,定位算法运行于树莓派4开发板,处理速度为30帧/秒。沿设定轨迹移动的定位结果如图11所示。

图11  对比实测结果

Fig. 11  Comparative test results

图11测试结果的平均误差如表1所示。与UWB相比,文中算法纵向和横向位置的平均误差降低了65.93%和69.75%。

表1  定位误差
Table 1  Location error
平均误差纵向位置/cm横向位置/cm航向角/(°)
UWB 36.1 32.4
文中算法 12.3 9.8 0.88

由于移动过程中无法精确控制定位节点沿设定轨迹运动,表1统计的定位精度低于实际性能。为此,在定位区域内选择图12所示的10个测量点,静态测试定位结果以保证准确性。总体来说,UWB的平均误差为14.5 cm,在(1.61 cm, -0.50 cm)位置的误差高达49 cm。相对而言,文中算法的平均误差为5.5 cm,最大误差仅为9 cm,定位精度得到显著提高。

图12  静态实测结果

Fig. 12  Static test results

5 结 论

为实现低成本高精度的室内定位,文中设计了一种基于简易视觉标签的室内定位方法。仿真和实验结果表明:

1)基于相机FOV和方位角的标签匹配关联策略能够快速筛选标签数据库,实现非唯一性标签坐标的准确查询。

2)基于误差传递方程条件数的位姿求解算法切换策略能够及时准确检测标签共圆工况,并切换至合理的位姿求解算法。

3)设计的加权最小二乘位姿估计算法能够有效抑制不良标签组的负面影响。与UWB相比,文中所设计算法能够显著降低定位误差。

参考文献

1

Vladareanu L, Vlădareanu V, Pop N, et al. Robot extenics control developed by versatile, intelligent and portable robot vipro platform applied on firefighting robots[J]. International Journal of Online and Biomedical Engineering (IJOE), 2020, 16(8): 99-107. [百度学术] 

2

Ding J Y, Wang Y, Fu S Z, et al. Multiview features fusion and AdaBoost based indoor localization on WiFi platform[J]. IEEE Sensors Journal, 2022, 22(16): 16607-16616. [百度学术] 

3

Guan K, Ma L, Tan X, et al. Vision-based indoor localization approach based on SURF and landmark[C]// 2016 International Wireless Communications and Mobile Computing Conference (IWCMC). IEEE, 2016: 655-659. [百度学术] 

4

Hong W, Xia H, An X C, et al. Natural landmarks based localization algorithm for indoor robot with binocular vision[C]// Chinese Control and Decision Conference (CCDC). IEEE, 2017: 3313-3318. [百度学术] 

5

张梦珠, 黄劲松. 基于语义特征的视觉定位研究[J]. 测绘地理信息, 2022, 47(4): 33-37. [百度学术] 

Zhang M Z, Huang J S. Research on visual location based on semantic characteristics[J]. Journal of Geomatics, 2022, 47(4): 33-37.(in Chinese) [百度学术] 

6

Kayhani N, Zhao W D, McCabe B, et al. Tag-based visual-inertial localization of unmanned aerial vehicles in indoor construction environments using an on-manifold extended Kalman filter[J]. Automation in Construction, 2022, 135: 104112. [百度学术] 

7

李照, 舒志兵. 一种改进二维码视觉精定位AGV技术研究[J]. 控制工程, 2019, 26(6): 1049-1054. [百度学术] 

Li Z, Shu Z B. Research on AGV vision precision positioning technology by an improved two-dimensional code[J]. Control Engineering of China, 2019, 26(6): 1049-1054.(in Chinese) [百度学术] 

8

徐聪. 基于计算机视觉的室内定位关键技术研究[D]. 成都: 电子科技大学, 2019. [百度学术] 

Xu C. Research on key technologies of indoor positioning based on computer vision[D].Chengdu: University of Electronic Science and Technology of China, 2019. (in Chinese) [百度学术] 

9

Li M F, Zhao L C, Tan D, et al. BLE fingerprint indoor localization algorithm based on eight-neighborhood template matching[J]. Sensors, 2019, 19(22): 4859. [百度学术] 

10

Shao F, Lin W S, Gu S B, et al. Perceptual full-reference quality assessment of stereoscopic images by considering binocular visual characteristics[J]. IEEE Transactions on Image Processing, 2013, 22(5): 1940-1953. [百度学术] 

11

韩锟, 章京涛, 杨穷千. 基于果蝇算法优化的移动机器人RBPF-SLAM研究[J]. 铁道科学与工程学报, 2022, 19(1): 265-272. [百度学术] 

Han K, Zhang J T, Yang Q Q. Research on RBPF-SLAM for mobile robot based on fruit fly optimization algorithm[J]. Journal of Railway Science and Engineering, 2022, 19(1): 265-272.(in Chinese) [百度学术] 

12

Gao F, Ma J. Indoor location technology with high accuracy using simple visual tags[J]. Sensors, 2023, 23(3): 1597. [百度学术] 

13

Lee J K, Wang Y M, Lu C S, et al. The enhancement of graphic QR code recognition using convolutional neural networks[C]// International Conference on Innovation, Communication and Engineering (ICICE). IEEE, 2019: 94-97. [百度学术] 

14

王付有, 高成发, 王剑超. 航向角约束的手机RTK航位推算融合定位模型[J]. 测绘科学, 2022, 47(7): 143-148. [百度学术] 

Wang F Y, Gao C F, Wang J C. Mobile RTK/DR fusion positioning model based on heading angle variation constraint[J]. Science of Surveying and Mapping, 2022, 47(7): 143-148.(in Chinese) [百度学术] 

15

Park D, Lee S J, Kwon J, et al. Localization of mobile robot based on artificial landmark[J]. The Journal of Korean Institute of Communications and Information Sciences, 2020, 45(12): 2150-2153. [百度学术] 

16

程琦, 胡杰, 王均晖, . 基于数据驱动的无人机加权最小二乘定位算法[J]. 指挥信息系统与技术, 2020, 11(6): 76-80. [百度学术] 

Cheng Q, Hu J, Wang J H, et al. Weighted least square positioning algorithm of UAV based on data drive[J]. Command Information System and Technology, 2020, 11(6): 76-80.(in Chinese) [百度学术]