摘要
随着建筑工程项目管理复杂程度的不断提升,越来越多自动化、智能化的施工进度方法受到传统管理领域的关注。然而受到成本高昂且使用复杂等限制,现有的主流方法难以适用于复杂的建筑施工进度管理场景。通过对比各类三维重建技术特点,搭建了基于深度学习三维重建技术的建筑施工进度协同管理自动化系统(DLR-P),利用高速摄像头采集施工现场实时图像信息,完成由二维信息到三维信息的重建,并结合BIM动态模型技术实现对建筑施工进度的自动化管控。以重庆市巴南区某项目施工现场为例对系统进行实证研究,并对系统运行过程中的各项数据进行验证分析。结果表明:DLR-P系统平均三维重建时间为61 s,满足基本进度管理需求,能够实现建筑施工进度自动化管理,有效提升建筑施工进度管理效率。相较于目前已有的管理方式,其在运行成本及使用便捷性方面均表现出较大优势。
建筑工程施工进度管理贯穿施工的全生命周期,是保证施工项目中人工、材料和机械设备有序运转的基
针对建筑施工进度自动化管理,已有学者结合各类技术进行了大量研究,然而已有研究难以满足复杂的建筑施工管理实践需求。已有研究主要集中在3个方面:基于BIM(Building Information Modeling)技术的管理方
因此,笔者提出基于深度学习三维重建技术的建筑施工进度协同管理系统,并对该系统的有效性及实用性进行了案例研究。
为实现具备实时性、便捷性及经济性的建筑施工进度自动化管理,基于智能建造领域已有的建筑施工进度自动化管理框架提出了基于深度学习三维重建技术的建筑施工进度协同管理系统框架,如

图1 基于深度学习三维重建技术的建筑施工进度协同管理系统框架(DLR-P)
Fig. 1 Framework of the collaborative management system for construction progress based on deep learning 3D reconstruction technology(DLR-P)
基于深度学习三维重建技术的建筑施工进度协同管理系统框架由以下4个部分组成管理闭环。
1)施工现场信息。建筑施工现场信息作为框架的基础数据,为管理闭环提供管理数据依据,系统采用高速摄像机传感器对建筑施工现场进度三维信息进行采集,随后再通过三维重建深度学习模型实现施工现场进度的数字化模型构建。
2)施工进度三维重建模型。以施工现场实时采集到的多视图图片、相机内参、相机外参及数据匹配信息为基础,通过特征提取、构造代价匹配、深度估计优化及点云模型融合等技术流程获得建筑施工现场的实际三维点云模型。
3)理想BIM施工进度模型。即建筑项目施工进行前由设计单位、施工单位及业主共同制定的预期BIM施工进度模型(既4D BIM模型),其中既包括施工过程中的三维信息,也包含施工过程中施工进度随时间进程展开的进度信息。这一部分信息在施工开始前已经制定完备,在施工进程中,通过该模型与2)中所获得的点云模型进行交叉对比,获得施工进度差异信息,进而生成相应的施工现场资源调整意见。
4)施工现场资源信息。建筑施工进程中,现场管理人员基于3)过程中生成的施工现场资源调整意见,组织现场人工、材料、机械等资源进行响应,以实现对于现场进度的调节目的,并在调节后动态调整理想BIM施工进度模型,以满足总体进度需求。
三维重建深度学习模型是系统的核心部分。DLR-P系统所使用的深度学习模型为Yaoyao
模型原理:MVSNet是一种监督学习的方法,以一个参考影像和多张原始影像为输入,从而得到参考影像深度图的一种端到端的深度学习框架。网络首先提取图像的深度特征,然后通过可微分投影变换构造3D的代价体,再通过正则化输出一个3D的概率体,再沿深度方向求取深度期望,获得参考影像的深度图。最终将不同空间位置的深度信息相融合,从而构造出物体的表面三维模型信息。
模型结构:如

图2 MVSNet模型结构示意
Fig. 2 Model structure of the MVSNe
模型训练:为使该模型适用于建筑施工现场场景,通过迁移学习方式对原始模型进行针对建筑施工各类场景重建的训练。模型训练过程中除采用包含图像数据、相机参数、匹配数据共计10 000余项数据在内的主流三维重建数据集DT
基于深度学习三维重建技术的建筑施工进度协同管理系统的主要运行步骤如下:
1)理想BIM模型搭建。在运行DLR-P系统前,应就工程项目任务目标、工程特点及项目环境等条件搭建施工项目的BIM模型。模型应包含项目的三维信息、预期进度信息、预期成本信息、人工需求信息、材料出入场信息、机械设备需求信息等。
2)协同系统搭建。系统搭建主要包括信息采集模块和后台处理模块两部分。信息采集模块指需根据不同项目要求,将相机传感器安置在施工现场所需位置,若干传感器组成阵列,对各类施工现场进度管控目标进行实时外观数据采集。后台处理模块包括由高性能计算机组构成的数据处理部分和由高清显示器组成的进度管理图形化部分。上述两个模块间由无线局域网络连接,实现通信。
3)系统运行。确保系统各部分搭建完成后,将系统各部分链接在同一局域网环境下,设置图像传感器抓取角度和抓取周期。随着施工进度发展,确保系统实时运行及传感器组能够抓取到不同适宜角度的目标图像。
施工现场采集到的图像数据由无线网络传入后台,首先利用Colmap软件进行稀疏重建计算相机位姿匹配信息等数据,随后通过MVSNet三维重建深度学习模型,生成对应场景的点云模型。系统后台将点云模型导入Revit软件,与BIM理想模型进行尺寸对比,根据施工进度点云模型与理想BIM模型进度计划对比计算,最终系统在图形化显示器中输出当前进度进展情况及相应的施工现场调控意见。
4)施工进度调整。根据DLR-P系统输出的调控意见,现场管理人员对施工现场各相关工序的人员安排、材料进出及机械设备使用等进行统一调配,优化施工进度管理。
5)模型调整。将现场进行的人员安排、材料进出及机械设备使用等主动调节信息输入到理想BIM模型中,根据工期、成本等项目要求,对后续项目施工工作进行调整优化,形成系统内信息的及时反馈闭环。
为便于研究与试验实施,选取外墙脚手架施工、外墙防护网施工、外墙涂料施工3项常见施工工序进行研究。具体案例试验流程如

图3 案例实验流程
Fig. 3 Case study process
系统布置:首先按照工程与其建设目标搭建理想BIM模型,随后将图像传感器布置在目标位置并搭建DLR-P系统处理后台及系统总控制台。
模型对比:将理想BIM模型转换为点云形式,并利用点云配准技术与系统生成的施工现场实际点云模型进行工序交叉比对。通过面积、体积等指标确定项目施工现场进度是否与预期进度相同,随后输出工序比对结果到总控制台进行处理。
施工计划调整:根据工序对比结果,以项目流水施工为原则对施工人员、施工材料以及施工机械进行重新配置,形成新的施工计划,并将计划信息传回系统总控制台。
现场资源响应:根据系统总控制台的调度意见,现场施工人员、材料和施工机械进行响应,实现建筑施工现场进度与理想进度的协同管理,并将调整后的理想BIM模型信息反馈至系统总控制台,形成管理闭环。
基于系统高速摄像头对建筑工程施工现场实时场景各角度图像数据的采集(如

(a) 外墙脚手架施工

(b) 外墙防护网施工

(c) 外墙涂料施工
图4 施工现场实时场景各角度图像数据
Fig. 4 Image of each angle in real-time scene of construction site

图5 DLR-P系统运行结果
Fig. 5 Operation results of DLR-P system
注: (a)外墙脚手架施工;(b)外墙防护网施工;(c)外墙涂料施工,其中最左侧图中红色位置表示传感器采集角度
进度对比。通过将转化为点云格式的理想BIM模型(含三维信息、施工进度及成本计划信息)与基于深度学习的三维重建技术自动识别的工程现场实际三维点云模型进行对比,得出施工现场进度相对各项计划的差异,如
施工工序 | 外墙脚手架施工 | 外墙防护网施工 | 外墙涂料施工 | |
---|---|---|---|---|
计划进度 | 4层 | 3层 | 4层 | |
实际进度 | 4层 | 4层 | 3层 | |
进度差异 | 0 | +1 | -1 | |
计划调整 | 0 | -1 | +1 | |
资源响应 | 人工 | 0 | 工人-2人 | +3 |
材料 | 0 | 0 | 涂料+10桶 | |
机械 | 0 | 0 | 0 |
注: 进度部分中“+”表示超前于预期进度,“-”表示滞后于预期进度。资源响应部分中“+”表示增加相应资源,“-”表示缩减相应资源。“0”表示按照当前计划进行,不做调整。此外,表中数据采集自同一项目不同施工单元,因此互相之间并无搭接关系。
运行速度。为实现建筑工程DLR-P系统的实时自动化管理,对各类场景的三维重建过程所消耗的时间进行记录,如
施工工序 | 输入图像数量 | 图像分辨率 | 平均运行速度/s |
---|---|---|---|
外墙脚手架施工 | 10 | 1 600×1 200 | 31 |
2 400×1 800 | 38 | ||
3 200×2 400 | 55 | ||
20 | 1 600×1 200 | 45 | |
2 400×1 800 | 68 | ||
3 200×2 400 | 75 | ||
30 | 1 600×1 200 | 69 | |
2 400×1 800 | 105 | ||
3 200×2 400 | 152 | ||
外墙防护网施工 | 10 | 1 600×1 200 | 25 |
2 400×1 800 | 31 | ||
3 200×2 400 | 43 | ||
20 | 1 600×1 200 | 40 | |
2 400×1 800 | 54 | ||
3 200×2 400 | 59 | ||
30 | 1 600×1 200 | 62 | |
2 400×1 800 | 92 | ||
3 200×2 400 | 101 | ||
外墙涂料施工 | 10 | 1 600×1 200 | 23 |
2 400×1 800 | 35 | ||
3 200×2 400 | 40 | ||
20 | 1 600×1 200 | 44 | |
2 400×1 800 | 59 | ||
3 200×2 400 | 58 | ||
30 | 1 600×1 200 | 53 | |
2 400×1 800 | 88 | ||
3 200×2 400 | 105 | ||
平均值 | 61 |
运行成本。如
项目工序 | 主要成本 | 规格 | 数量 | 市场单价/元 | 总计/元 |
---|---|---|---|---|---|
本文 | 高速摄像头 |
海康威视无线高清 800万像素 | 5 | 600 | 3 000 |
系统后台 | NVIDIA Tesla T4 16 GB GPU | 1 | 30 000 | 30 000 | |
33 000 | |||||
无人机 + BIM | 无人机 | 华祥RIEGL-VUX测绘无人机 | 2 | 200 000 | 200 000 |
系统后台 | UltraLAB-H370高速倾斜摄影工作站 | 1 | 50 000 | 50 000 | |
操作人员 | 1 | 10 000×12 | 120 000 | ||
370 000 | |||||
LiDAR + BIM | LiDAR设备 | 手持式LiDAR测绘工作站 | 1 | 650 000 | 650 000 |
系统后台 | 工作站 | 1 | 50 000 | 50 000 | |
操作人员 | 1 | 10 000×12 | 120 000 | ||
820 000 |
注: 表格中数据根据研究实践及主流设备规格进行推算,具体成本情况需针对不同场景具体判别。此外,表中涉及人工成本均按照项目工期12个月进行计算,设备规格仅考虑研究主要需求。
在对DLR-P系统的案例研究过程中,基于深度学习三维重建技术的建筑施工进度协同管理方式展现出三点显著优势。
1)自动高效。相较于传统建筑施工现场依赖人工巡场的施工进度管理方式,本文提出的管理方式极大地提升了管理效率,实现了全过程无人化运行,从而在降低现场管理人员劳动强度的同时,实现了更加客观的现场进度监控,摒除了人工管理过程中的各类影响因素。
2)成本经济。相较于目前已有的“无人机+BIM”和“LiDAR+BIM”的自动化管理方式,本文提出的管理方式极大地压缩了系统布置所需的成本,具有更高的推广价值和实用价值。此外,在低廉的系统自身成本控制的同时,该方法还能够从节约人工成本、降低施工进度因素导致的返工浪费及优化人员、材料、机械进场配置等角度提升建筑施工项目的经济效益。
3)应用便捷。建筑施工项目的进度管理是一项贯穿于项目施工全阶段的工作,具有长期性和动态性两个重要特征,因此,实现进度管理的自动化、智能化方式必须能够适用于在各类变化的施工场景中展开工作。相较于基于无人机或LiDAR设备的方式,以高速摄像头为数据采集方式的自动化进度管控系统更加便于使用。在项目进度管控过程中,无需训练无人机操作人员以及为避免碰撞而设置复杂的循行路线,也无需考虑现场特殊位置无法架设扫描仪器的限制,极大解放系统信息采集能力的同时,最大程度降低了进度管理工作对于各项施工工序的影响。
然而,在处理复杂多变的建筑施工现场环境场景过程中,基于深度学习三维重建技术的建筑施工进度协同管理方式也暴露出两处不足。
1)精度不足。提出的施工进度管理方式其技术基础是通过深度学习模型对自然光线条件下同一物体在不同视角中的视觉深度推测构建三维模型实现的。因此,相对于LiDAR等激光扫描设备,受光照条件等影响,该方法的数据基础具有较大的不确定性。在案例研究过程中,以该方法获得的点云模型能够实现对于较大尺寸场景的重建工作,但对于细节众多而复杂且特征区别对比不强的场景(如钢筋绑扎场景)重建效果较差,因而限制了其在更加复杂场景中的应用潜力。如

图6 基于DLR-P的不同尺度对象三维重建效果
Fig. 6 3D reconstruction results of different scale objects based on DLR-P
注: (d)、(e)、(f)、(g)为(c)独立柱钢筋绑扎重建数据集中的部分数据
2)重建速度较慢。建筑施工现场时刻处于动态变化过程中,为合理高效地对项目施工进度进行控制与优化,管理方式应具备快速重建的能力。然而,限制于算力条件等因素,在案例研究过程中,该方法平均重建用时61 s,未能符合实时重建效果的需求。在实际应用过程中,系统所实现的重建已能够满足基础施工进度管理需求,但面对规模更大、更加精细化、更加复杂化的施工进度管理任务时,重建速度仍需进一步提升。针对这一限制点,解决的路径主要有两个方向:其一,从硬件角度考虑,发展具有更加强大算力的方式;其二,优化重建模型,降低权重参数数量,以获得更好的轻量化模型。
基于深度学习框架建立了基于深度学习三维重建技术的建筑施工进度协同管理系统,且通过工程案例分析,验证了DLR-P系统的可行性,通过对比不同环境条件,得到以下主要结论:
1)基于深度学习的三维重建技术能够适用于建筑施工现场的实时进度管理工作,结合BIM技术能够实现对于建筑施工项目现场进度的自动化、智能化管理。相较基于LiDAR激光扫描技术或无人机倾斜摄影等技术实现的建筑施工进度自动化管理,该方法更加适合工程实际应用,具有更强的现场施工条件适用性,且能够与目前施工现场实践中已有的智能化传感器有效融合,具有较好的工程实践前景。
2)在建筑施工进度管理工作中,基于深度学习的三维重建技术体现出良好的经济性。相对目前主流研究中的无人机方法或激光雷达方法等,由于仅需高速摄像头作为传感器采集数据,在设备成本、操作人工成本及现场配合成本等方面具有显著优势。建筑施工进度的自动化、智能化管理贯穿施工全周期,该方法的经济性特征能够较好地满足施工管理单位成本敏感的特征。
3)虽然基于深度学习的三维重建技术在建筑施工进度管理工作中表现出良好的使用前景,但重建精度问题对其使用潜力造成了较大影响。尤其在对于精细尺寸场景的重建过程中,该方法表现出明显偏高的重建损失,且耗时较长。若无相应场景的技术改进,在建筑施工现场进度管理工作中则无法实现对于细致小尺寸场景的有效管理,同时也无法在该场景下扩展到其他管理实践领域中。
参考文献
张建平, 王洪钧. 建筑施工4
ZHANG J P, WANG H J. A 4
HAMZAH N, KHOIRY M A, ARSHAD I, et al. Cause of construction delay - theoretical framework [J]. Procedia Engineering, 2011, 20: 490-495. [百度学术]
ALSULIMAN J A. Causes of delay in Saudi public construction projects [J]. Alexandria Engineering Journal, 2019, 58(2): 801-808. [百度学术]
MOBBS G N. Speeding up construction [J]. The Quantity Surveyor, 1982, 38(1): 2-3. [百度学术]
AZIZ R F, ABDEL-HAKAM A A. Exploring delay causes of road construction projects in Egypt [J]. Alexandria Engineering Journal, 2016, 55(2): 1515-1539. [百度学术]
YAP J B H, GOAY P L, WOON Y B, et al. Revisiting critical delay factors for construction: Analysing projects in Malaysia [J]. Alexandria Engineering Journal, 2021, 60(1): 1717-1729. [百度学术]
LI X D, FEI Y F, RIZZUTO T E, et al. What are the occupational hazards of construction project managers: A data mining analysis in China [J]. Safety Science, 2021, 134: 105088. [百度学术]
加快推进新型建筑工业化 推动城乡建设绿色高质量发展——《关于加快新型建筑工业化发展的若干意见》解读[EB/OL]. http://www.mohurd.gov.cn/zxydt/202009/t20200907_247109.html. [百度学术]
张建平, 范喆, 王阳利, 等. 基于4D-BIM的施工资源动态管理与成本实时监控[J]. 施工技术, 2011, 40(4): 37-40. [百度学术]
ZHANG J P, FAN Z, WANG Y L, et al. Resource dynamic management and cost real-time monitoring in building construction based on 4D-BIM [J]. Construction Technology, 2011, 40(4): 37-40. (in Chinese) [百度学术]
CHEN J J, WU J, QU Y. Monitoring construction progress based on 4D BIM technology [J]. IOP Conference Series: Earth and Environmental Science, 2020, 455: 012034. [百度学术]
SHI W. Framework for integration of and RFID in steel construction [D]. Florida: The University of Florida, 2009. [百度学术]
SATTINENI A. A decision support framework for site safety monitoring using RFID and BIM [D]. Manchester: University of Salford, 2014 [百度学术]
BOSCHÉ F, GUILLEMET A, TURKAN Y, et al. Tracking the built status of MEP works: Assessing the value of a scan-vs.- system [J]. Journal of Computing in Civil Engineering, 2013, 28(4): 5014004.1-5014004.13. [百度学术]
KIM T H, WOO W, CHUNG K. 3D scanning data coordination and as-built- construction process optimization - utilization of point cloud data for structural analysis [J]. Architectural Research, 2019, 21: 111-116. [百度学术]
PARK J, CHEN J D, CHO Y K. Point cloud information modeling (PCIM): An innovative framework for as-is information modeling of construction sites [C]//Construction Research Congress 2020. Tempe, Arizona. Reston, VA: American Society of Civil Engineers, 2020. [百度学术]
刘莎莎. 点云数据与BIM集成的建筑物施工进度监测技术方法[D]. 成都: 西南交通大学, 2019. [百度学术]
LIU S S. Building construction progress monitoring method based on the integration of 3D point cloud and BIM [D]. Chengdu: Southwest Jiaotong University, 2019. (in Chinese) [百度学术]
PUČKO Z, ŠUMAN N, REBOLJ D. Automated continuous construction progress monitoring using multiple workplace real time 3D scans [J]. Advanced Engineering Informatics, 2018, 38: 27-40. [百度学术]
郑太雄, 黄帅, 李永福, 等. 基于视觉的三维重建关键技术研究综述[J]. 自动化学报, 2020, 46(4): 631-652. [百度学术]
ZHENG T X, HUANG S, LI Y F, et al. Key techniques for vision based 3D reconstruction: a review [J]. Acta Automatica Sinica, 2020, 46(4): 631-652. (in Chinese) [百度学术]
YANG L, CHENG J C P, WANG Q. Semi-automated generation of parametric BIM for steel structures based on terrestrial laser scanning data [J]. Automation in Construction, 2020, 112: 103037. [百度学术]
ZHOU K, LINDENBERGH R, GORTE B, et al. LiDAR-guided dense matching for detecting changes and updating of buildings in Airborne LiDAR data [J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2020, 162: 200-213. [百度学术]
PAN Y, HAN Y, WANG L, et al. 3D reconstruction of ground crops based on airborne LiDAR technology [J]. IFAC-PapersOnLine, 2019, 52(24): 35-40. [百度学术]
FREIMUTH H, KÖNIG M. Planning and executing construction inspections with unmanned aerial vehicles [J]. Automation in Construction, 2018, 96: 540-553. [百度学术]
GHEISARI M, ESMAEILI B. Applications and requirements of unmanned aerial systems (UASs) for construction safety [J]. Safety Science, 2019, 118: 230-240. [百度学术]
马彦彬, 李红蕊, 王林, 等. 机器学习方法在滑坡易发性评价中的应用(英文)[J]. 土木与环境工程学报(中英文), 2022, 44 (1):53-67. [百度学术]
MA Y B, LI H R, WANG L, Machine learning algorithms and techniques for landslide susceptibility investigation: Literature review [J]. Journal of Civil and Environmental Engineering, 2022, 44 (1):53-67.(in Chinese) [百度学术]
DUNG C V, ANH L D. Autonomous concrete crack detection using deep fully convolutional neural network [J]. Automation in Construction, 2019, 99: 52-58. [百度学术]
YAO Y, LUO Z X, LI S W, et al. MVSNet: Depth inference for unstructured multi-view stereo [C]//Computer Vision - ECCV 2018, 2018. [百度学术]
LUO K Y, GUAN T, JU L L, et al. P-MVSNet: Learning patch-wise matching confidence aggregation for multi-view stereo [C]//2019 IEEE/CVF International Conference on Computer Vision (ICCV). October 27 - November 2, 2019, Seoul, Korea (South). IEEE, 2019: 10451-10460. [百度学术]
GU X D, FAN Z W, ZHU S Y, et al. Cascade cost volume for high-resolution multi-view stereo and stereo matching [C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). June 13-19, 2020, Seattle, WA, USA. IEEE, 2020: 2492-2501. [百度学术]
WEILHARTER R, FRAUNDORFER F. HighRes-MVSNet: A fast multi-view stereo network for dense 3D reconstruction from high-resolution images [J]. IEEE Access, 2021, 9: 11306-11315. [百度学术]
YU Z H, GAO S H. Fast-MVSNet: Sparse-to-dense multi-view stereo with learned propagation and gauss-Newton refinement [C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). June 13-19, 2020, Seattle, WA, USA. IEEE, 2020: 1946-1955. [百度学术]
Technical University of Denmark. DTU Robot Image Data Sets [DB/OL]. (2014) [2021-06-20]. http://roboimagedata.compute.dtu.dk/?page_id=36 [百度学术]