

1. 清华大学 工程物理系,公共安全研究院,北京 100084;
2. 甘肃省消防救援总队,兰州 730000;
3. 灾害环境人员安全安徽省重点实验室,合肥 230601;
4. 清华大学合肥公共安全研究院,合肥 230601;
5. 北京市消防救援总队,北京 100035;
6. 中国人民解放军 96963部队,北京 100192
收稿日期:2021-06-08
基金项目:国家重点研发计划(2019YFC080026); 国家自然科学基金资助项目(71673163, 71971126);应急管理部消防救援局科研计划重点攻关项目(2019XFGG20)
作者简介:王冠宁(1994—), 男, 博士研究生
通讯作者:陈涛, 研究员, E-mail:chentao.a@tsinghua.edu.cn
摘要:利用视频分析技术开展火焰定位对火灾事故调查意义重大。为解决实际火灾中监控摄像头部分遮挡场景下起火部位难以确定的问题, 该文基于凸壳理论研究了此场景下火焰定位方法。利用油盘火模拟室内火灾现场, 布置彩色电荷耦合器件(CCD)摄像头使之被部分遮挡, 收集火灾现场监控视频进行分析。首先利用火灾现场监控摄像头收集火焰视频并进行预处理; 其次利用凸壳算法计算火焰中心的像素坐标; 最后基于单目视觉原理, 利用世界坐标系和成像平面坐标系的矩阵变换关系, 定量计算出起火部位与监控摄像头的相对位置。实验结果表明:针对监控摄像头部分遮挡场景建立的基于凸壳理论和单目视觉原理的火焰定位方法, 可以较好地实现起火部位的快速定位, 为火灾事故调查工作的顺利开展提供了有力的工具。
关键词:凸壳视频分析单目视觉火灾调查火焰定位
Fire locating method based on the convex hull algorithm using partially blocked surveillance cameras
WANG Guanning1,2,3, CHEN Tao1


1. Institute of Public Safety Research, Department of Engineering Physics, Tsinghua University, Beijing 100084, China;
2. Gansu Fire and Rescue Department, Lanzhou 730000, China;
3. Anhui Province Key Laboratory of Human Safety, Hefei 230601, China;
4. Hefei Institute for Public Safety Research, Tsinghua University, Hefei 230601, China;
5. Beijing Fire and Rescue Department, Beijing 100035, China;
6. Unit 96963, PLA, Beijing 100192, China
Abstract: Video analyses have become very useful in fire investigations. However, the cause of the fire cannot be easily determined when the surveillance cameras are partially blocked. This study analyzes fire locating methods based on the convex hull algorithm when the surveillance cameras are partially blocked. An oil pan pool fire is used to simulate an indoor fire. The charge-couple device (CCD) camera views are partially blocked with the fire scene videos then collected for analyses. The flame videos are collected and preprocessed before analyzing. Then, a convex hull algorithm is used to calculate the pixel coordinates of the flame center. Finally, the monocular vision principle is used to develop a matrix transformation between the world coordinate system and the imaging plane coordinate system to accurately determine the fire location. Tests show that the monocular visual positioning method based on the convex hull algorithm using partially blocked cameras can accurately locate the fire origin as a powerful tool for fire investigations.
Key words: convex hullvideo analysismonocular visionfire investigationfire locating
视频监控系统因其独特的时空记录优势被广泛应用于刑侦[1-3]、交通[4-6]等领域,成为震慑犯罪和事故调查的有力武器。基于图像分析技术和机器视觉的视频分析技术也日渐发展成熟,并在提升人民安全感、幸福感以及打击犯罪方面取得了长足进步[7-8]。由于火灾现场视频监控可用于还原火灾发生、发展、蔓延等全过程,记录现场建筑结构、物品摆放及现场人员等关键信息,实现了非破坏式的火灾时空信息记录与保存,对查清火灾原因意义重大[9]。中国消防救援部门也日益重视利用视频分析技术解决火灾现场中起火部位和起火点认定难题,持续开展“火灾调查+视频分析”方法的探索和实践,并在视频分析技术的辅助下顺利完成了天津港“8·12”特别重大火灾爆炸事故的调查工作[10]。
在火灾现场提取到的监控视频多为单目摄像头拍摄,且由于被建筑中物体不同程度遮挡,摄像头通常无法直接拍摄到火灾发生、发展和蔓延等全过程,只记录了火焰部分形貌的光影变化。前人已经探索了监控摄像头被完全遮挡场景下的火灾调查方法[11],但是针对监控摄像头被部分遮挡情形下火焰定位方法还鲜有报道。解决监控摄像头部分遮挡场景下火焰的定位难题是“火灾调查+视频分析”方法的重要组成成分,将有力地支撑火灾调查人员开展火灾技术调查工作,对查清火灾原因具有积极意义。
基于视频的定位方法主要有单目、双目和多目定位方法。单目方法主要用于无人驾驶[12]、农业及食品工业[13-14]、机器人[15]等领域。在火焰定位领域,前人主要利用双目视觉开展定位研究[16]。实际火灾现场中的摄像机多为单目摄像头,因其本身无法获得监控场景中的深度信息,导致仅依靠单目视觉原理无法开展火焰定位[11]。如何利用火灾现场提取到的单目摄像头视频进行火焰定位难题亟需攻克。
凸壳理论广泛应用于农产品自动采摘领域[17-18]。前人主要利用凸壳理论研究被部分遮挡的农产品定位检测算法,提高了采摘机器人的采摘精度和效率。本文受到凸壳理论的启发,研究了基于凸壳理论和单目视觉的监控摄像头部分遮挡场景下火焰定位算法。
本文利用油盘火模拟室内实体火灾,布置普通彩色电荷耦合器件(charge-coupled device,CCD)摄像头收集火灾现场监控视频,再通过张正友标定法确定摄像头的内部几何参数,利用凸壳算法实现火焰中心的定位,并结合火灾现场痕迹勘验,建立了基于凸壳理论的单目视觉定位方法。实验结果表明,本文建立的火焰定位方法可以较好地实现监控摄像头部分遮挡场景下火焰的快速准确定位。
1 实验和方法1.1 实验准备实验设备:智能无线监控彩色CCD摄像头1080P (HOSION泓讯科技有限公司);Canon 70D型数码照相机;云腾单反照相机三脚架;华为E5577全网通无线路由器(华为技术有限公司);Thinkpad S5笔记本计算机;36 cm×36 cm×10 cm油盘。
实验材料:92#汽油50 L。
视频采集系统:利用上述实验设备,建立由彩色CCD摄像头1台、计算机1台、无线路由器1台等组成的视频采集系统。
1.2 实验环境及现场布置本文根据ISO9705标准,设计了油盘火焰以模拟室内小尺寸火灾。利用监控摄像头采集火灾视频图像,并将采集到的视频图像传输到计算机。如图 1所示,在实验室中央处布置36 cm×36 cm×10 cm尺寸油盘,在盘中注入汽油,引燃后模拟室内火灾的初期阶段。在燃烧实验室布置1台普通彩色CCD监控摄像头CamA,置于实验室的正南方,监控摄像头的镜头中心高为162 cm。CamA置于三脚架上,它与油盘之间有一障碍物,使它因部分遮挡无法直接拍摄到油盘火焰全貌。
![]() |
图 1 实验现场布置情况 |
图选项 |
1.3 凸壳理论凸壳即目标的最小外接多边形,如果目标为圆形,则其外接多边形的边数无限大。凸壳原理如图 2所示。在监控摄像头部分遮挡条件下,从视频中只能观察到部分火焰轮廓。一般来说,对图像预处理之后,能够检测到部分圆弧形轮廓区域。根据凸壳理论,这部分区域所对应的凸壳的边数要相对较多,凸壳顶点比较密集,而遮挡区域对应的凸壳顶点相对稀疏。利用此性质,可对火灾发生初期的火焰目标轮廓进行凸壳圆拟合,并对圆心坐标进行定位。本文主要利用在凸壳理论中应用较为成熟的Graham法[19]进行火焰轮廓提取。
![]() |
图 2 凸壳原理 |
图选项 |
1.4 摄像头的标定为确定火焰的世界坐标与火焰视频图像的像素坐标的对应关系矩阵,需要对摄像头进行标定,求出几何参数。摄像头内部参数由cx、cy、ax、ay和γ共5个参数组成。其中:cx、cy是光学中心;ax、ay分别是u轴和v轴的尺度因子;γ是u轴和v轴的不垂直因子,一般取γ=0。本文利用张正友标定法[20]对本实验所用监控摄像头进行标定,根据标定步骤获得摄像头的内部参数矩阵见式(1)。
$\boldsymbol{K}=\left[\begin{array}{ccc}1348.059\ 6 & 0 & 945.209\ 3 \\0 & 1\ 348.929\ 8 & 584.841\ 6 \\0 & 0 & 1\end{array}\right] .$ | (1) |
世界坐标系中的点从摄像头坐标系投影到二维成像平面坐标系中有式(2)关系,
$Z_{\mathrm{C}}\left[\begin{array}{c}x \\y \\1\end{array}\right]=\left[\begin{array}{c}f & 0 & 0 \\0 & f & 0 \\0 & 0 & 1\end{array}\right]\left[\begin{array}{c}X_{\mathrm{C}} \\Y_{\mathrm{C}} \\Z_{\mathrm{C}}\end{array}\right].$ | (2) |
在成像平面上,根据式(3)的转换关系将平面图像转换为像素图像,
$\left[\begin{array}{l}u \\v \\1\end{array}\right]=\left[\begin{array}{ccc}1 / d_{x} & 0 & u_{o} \\0 & 1 / d_{y} & v_{o} \\0 & 0 & 1\end{array}\right]\left[\begin{array}{l}x \\y \\1\end{array}\right].$ | (3) |
$Z\left[\begin{array}{c}u \\v \\1\end{array}\right]=\left[\begin{array}{c}f / d_{x} & 0 & u_{o} \\0 & f / d_{y} & v_{o} \\0 & 0 & 1\end{array}\right]\left[\begin{array}{c}X \\Y \\Z\end{array}\right].$ | (4) |
1.6 技术路线传统火灾调查中,在监控摄像头部分遮挡场景下确定起火部位和起火点,主要依靠现场勘验并结合痕迹分析和询问实现,效率较低。本文提出的基于凸壳理论的单目视觉定位方法,首先通过现场勘验,收集现场监控视频,结合视频内容对火灾现场进行二维平面还原重建;其次对火灾现场的监控摄像头进行标定,计算出监控摄像头的内部参数;最后采用图像处理技术对现场视频进行预处理后,利用凸壳理论计算火焰的像素坐标中心,再基于单目视觉原理结合火灾现场二维平面图,最终确定起火部位和起火点。具体技术路线见图 3。
![]() |
图 3 基于凸壳理论的单目视觉火焰定位方法技术路线 |
图选项 |
2 结果与分析在监控摄像头部分遮挡情景中,摄像头无法直接采集火灾发生、发展的相关时空演变信息,仅能采集到部分火焰形貌的跳跃变化,如何利用部分火焰信息确定起火部位和起火点是火灾调查人员亟需解决的重要问题。本文所提出的方法根据摄像头CamA所采集的视频信息,结合现场勘验对火灾现场进行二维重建还原;基于凸壳理论,确定火焰中心的像素坐标;结合单目视觉定位原理,结合火灾现场二维平面图,对火焰位置进行精确定位。
2.1 基于Hough变换的火焰轮廓拟合与定位首先对监控摄像头部分遮挡条件下火焰的视频图像进行预处理,对能观察到的火焰区域进行提取,可以发现在视频画面中,只能观察到火焰部分形貌特征。由于在监控画面中,火焰前景区域像素值梯度较为明显,火焰可与周围日光及其他干扰光源较好地区分。在监控视频画面中,火焰周围光强梯度衰减使得火焰可以近似看作圆形。Hough圆检测法应用较为广泛,主要包括:已知半径圆的检测算法、未知半径圆的检测方法和椭圆的检测算法。本文首先利用未知半径圆的Hough圆检测算法对火焰轮廓进行填充,通过拟合确定火焰中心,即圆心的像素坐标。
基本的Hough变换所采用的圆的一般方程为
$(x-a)^{2}+(y-b)^{2}=r_{1}^{2} .$ |
![]() |
图 4 Hough圆检测算法火焰中心定位结果 |
图选项 |
2.2 基于凸壳理论的火焰轮廓拟合与定位在监控摄像头部分遮挡条件下,将监控视频画面中的火焰视作圆形,这样可以使运算量大大降低。对于三维空间,在火灾发生初期,火焰及其发出的亮光形成的光强梯度空间则可以看作一个球形模型,在监控摄像头视野中,光强梯度空间则为圆形,可以根据圆形几何原理,对目标参数进行估计。
对于火焰边缘的不在同一直线上的3点A、B和C(3点的像素坐标已知),这3点到圆心O2的距离相等,
${AO}_{2}={CO}_{2}={BO}_{2}.$ | (5) |
$\left\{\begin{array}{l}\left(c-x_{1}\right)^{2}+\left(d-y_{1}\right)^{2}=\left(c-x_{2}\right)^{2}+\left(d-y_{2}\right)^{2}, \\\left(c-x_{2}\right)^{2}+\left(d-y_{2}\right)^{2}=\left(c-x_{3}\right)^{2}+\left(d-y_{3}\right)^{2} .\end{array}\right.$ | (6) |
$\left\{\begin{array}{l}c=\frac{\left(y_{2}-y_{1}\right) \cdot\left(x_{3}^{2}+y_{3}{}^{2}-x_{2}^{2}-y_{2}^{2}\right)-\left(y_{3}-y_{2}\right) \cdot\left(x_{2}^{2}+y_{2}{}^{2}-x_{1}^{2}-y_{1}^{2}\right)}{2\left[\left(x_{3}-x_{2}\right) \cdot\left(y_{2}-y_{1}\right)-\left(x_{2}-x_{1}\right) \cdot\left(y_{3}-y_{2}\right)\right]} ,\\d=\frac{\left(x_{2}-x_{1}\right) \cdot\left(x_{3}^{2}+y_{3}{}^{2}-x_{2}^{2}-y_{2}^{2}\right)-\left(x_{3}-x_{2}\right) \cdot\left(x_{2}^{2}+y_{2}{}^{2}-x_{1}^{2}-y_{1}^{2}\right)}{2\left[\left(y_{3}-y_{2}\right) \cdot\left(x_{2}-x_{1}\right)-\left(x_{3}-x_{2}\right) \cdot\left(y_{2}-y_{1}\right)\right]}.\end{array}\right.$ | (7) |
$r_{2}=\sqrt{\left(c-x_{1}\right)^{2}+\left(d-y_{1}\right)^{2}} .$ | (8) |
![]() |
图 5 凸壳算法火焰中心定位结果 |
图选项 |
2.3 基于Hough变换与基于凸壳理论的火焰定位结果对比分析上述2种监控摄像头部分遮挡条件下火焰定位方法都可用于火灾发生初期的火焰定位。为了对比其定位精度从而选择高效准确的定位方法,对基于Hough方法的火焰定位和基于凸壳理论的定位方法进行定位精度对比分析,计算2种方法的定位误差。
定义火焰定位误差如式(9)[21]所示,
$\xi=\frac{\left|A_{i}-A\right|}{A} \times 100 \%.$ | (9) |
如表 1所示,利用凸壳法进行火焰定位的误差较小,平均误差为13%,而Hough算法的平均定位误差为22%,远高于凸壳法。因此,选择凸壳法对火焰进行定位。
表 1 Hough算法和凸壳法定位误差对比
火焰类型 | 目标序号 | 目标火焰区域面积/像素 | 提取拟合圆面积/像素 | 定位误差/% | |||
Hough算法 | 凸壳法 | Hough算法 | 凸壳法 | ||||
油盘火焰 | 1 | 16 377 | 13 135 | 17 425 | 20 | 6 | |
2 | 15 754 | 11 369 | 14 762 | 28 | 6 | ||
3 | 16 478 | 12 694 | 13 322 | 23 | 19 | ||
4 | 16 801 | 13 590 | 13 531 | 19 | 19 | ||
5 | 15 699 | 12 498 | 14 798 | 20 | 6 | ||
6 | 17 534 | 14 721 | 15 821 | 16 | 10 | ||
7 | 16 289 | 11 709 | 12 623 | 28 | 23 | ||
8 | 15 932 | 12 042 | 12 858 | 24 | 19 | ||
9 | 17 034 | 12 205 | 14 980 | 28 | 12 | ||
10 | 16 376 | 13 908 | 14 761 | 15 | 10 | ||
平均误差/% | 22 | 13 |
表选项
2.4 基于凸壳理论和单目视觉算法的火焰定位方法CamA收集的视频画面如图 6所示。根据视频并结合现场勘验,建立摄像头、遮挡物和火焰的空间位置分布,如图 7所示。其中:摄像头的俯视角度为α,即镜头平面与世界坐标系的水平面夹角为α。在部分遮挡条件下,CamA视野中能看到火焰的最高点坐标P1(X1, Y1, Z1),最低点P2(X2, Y2, Z2),高度为Hf。建立摄像头坐标系,X、Y、Z轴如图 8所示。在此实验中,可以将火焰高度Hf沿着Z轴平行移动,建立

![]() |
图 6 摄像头CamA的火灾现场视频画面 |
图选项 |
![]() |
图 7 监控摄像头-遮挡物-火焰的空间位置关系 |
图选项 |
![]() |
图 8 基于凸壳理论和单目视觉方法的火焰定位 |
图选项 |
本实验中,通过现场勘验和测量,估计视野中火焰高度为Hf=CD=0.2 m。基于凸壳理论进行火焰的圆拟合,确定圆心的像素坐标O(uc, vc)。根据图 8中几何关系uc=u1=u2和vc=v1-R=v2+R,R为凸壳法拟合的圆的半径。进一步推导出圆的最高点P1(u1, v1)和最低点P2(u2, v2)的像素坐标。
摄像头的安装高度为H1,其镜头平面与世界坐标系的水平面夹角为α,火焰最高点坐标P1(X1, Y1, Z1),最低点P2(X2, Y2, Z2),高度为Hf。利用空间几何相对位置关系知,在摄像头坐标系中,有式(10)所示关系,
$Y_{1}-Y_{2}=H_{\mathrm{f}} \sin a .$ | (10) |
$Z_{1}=Z_{2}=Z.$ | (11) |
$\left\{\begin{array}{l}Z_{1}\left[\begin{array}{c}u_{1} \\v_{1} \\1\end{array}\right]=\left[\begin{array}{c}f / d_{x} & 0 & u_{o} \\0 & f / d_{y} & v_{o} \\0 & 0 & 1\end{array}\right]\left[\begin{array}{c}X_{1} \\Y_{1} \\Z_{1}\end{array}\right],&(12) \\Z_{2}\left[\begin{array}{c}u_{2} \\v_{2} \\1\end{array}\right]=\left[\begin{array}{ccc}f / d_{x} & 0 & u_{o} \\0 & f / d_{y} & v_{o} \\0 & 0 & 1\end{array}\right]\left[\begin{array}{c}X_{2} \\Y_{2} \\Z_{2}\end{array}\right],&(13) \\Z_{1}=Z_{2}=Z,&(14) \\X_{1}=X_{2}=X.&(15)\end{array}\right.$ |
$\left\{\begin{array}{l}X_{\mathrm{f}}=X_{2}, \\Y_{\mathrm{f}}=Y_{2}, \\Z_{\mathrm{f}}=Z_{2}.\end{array}\right.$ | (16) |
$S=\sqrt{X_{\mathrm{f}}^{2}+Y_{\mathrm{f}}^{2}+Z_{\mathrm{f}}^{2}}.$ | (17) |
$L=\sqrt{S^{2}-H_{1}^{2}}.$ | (18) |
表 2 基于凸壳理论和单目视觉的火焰定位方法的精度
序号 | O(uc, vc)/像素 | R/像素 | P1(u1, v1)/像素 | P2(u2, v2)/像素 | L0/m | L/m | ΔL/m | 误差百分比/% |
1 | (1 043, 313) | 41 | (1 043, 354) | (1 043, 272) | 1.90 | 1.62 | 0.28 | 14.73 |
2 | (1 036, 340) | 52 | (1 036, 392) | (1 036, 288) | 1.90 | 1.70 | 0.20 | 10.53 |
3 | (1 048, 357) | 55 | (1 048, 412) | (1 048, 302) | 1.90 | 1.58 | 0.32 | 16.84 |
4 | (1 016, 396) | 48 | (1 016, 444) | (1 016, 348) | 1.90 | 1.88 | 0.02 | 1.05 |
5 | (1 064, 376) | 45 | (1 064, 421) | (1 064, 331) | 1.90 | 1.96 | 0.06 | 3.16 |
6 | (1 112, 400) | 40 | (1 112, 440) | (1 112, 360) | 1.90 | 2.15 | 0.25 | 11.63 |
7 | (1 056, 492) | 53 | (1 056, 545) | (1 056, 439) | 1.90 | 2.23 | 0.33 | 17.37 |
8 | (1 064, 472) | 56 | (1 064, 528) | (1 064, 416) | 1.90 | 2.08 | 0.18 | 9.47 |
9 | (1 040, 464) | 41 | (1 040, 505) | (1 040, 423) | 1.90 | 1.98 | 0.08 | 4.21 |
10 | (984, 392) | 44 | (984, 436) | (984, 348) | 1.90 | 1.63 | 0.27 | 14.21 |
11 | (976, 364) | 50 | (976, 414) | (976, 314) | 1.90 | 1.76 | 0.14 | 7.37 |
12 | (1 020, 352) | 49 | (1 020, 401) | (1 020, 303) | 1.90 | 1.78 | 0.12 | 6.32 |
13 | (1 052, 392) | 52 | (1 052, 444) | (1 052, 340) | 1.90 | 1.69 | 0.21 | 11.05 |
14 | (1 000, 388) | 55 | (1 000, 443) | (1 000, 333) | 1.90 | 1.84 | 0.06 | 0.03 |
15 | (956, 390) | 41 | (956, 431) | (956, 349) | 1.90 | 2.20 | 0.30 | 15.79 |
16 | (987, 384) | 53 | (987, 437) | (987, 331) | 1.90 | 2.11 | 0.21 | 11.05 |
17 | (1 008, 380) | 59 | (1 008, 439) | (1 008, 321) | 1.90 | 1.99 | 0.09 | 4.74 |
18 | (1 012, 396) | 62 | (1 012, 458) | (1 012, 334) | 1.90 | 1.67 | 0.23 | 12.11 |
19 | (1 076, 414) | 48 | (1 076, 462) | (1 076, 366) | 1.90 | 1.86 | 0.04 | 2.11 |
20 | (1 056, 398) | 50 | (1 056, 448) | (1 056, 348) | 1.90 | 1.98 | 0.08 | 4.21 |
注:表中L0表示火焰距摄像头的水平距离,L表示利用基于凸壳理论和单目视觉算法求出的火焰距摄像头的水平距离,ΔL表示距离误差。 |
表选项
由表 2可知,利用本文提出的凸壳理论结合单目视觉火焰定位算法进行定位的误差百分比最大为17.37%,最小为3%,定位最大误差为33 cm。造成较大误差的原因主要在于:监控摄像头部分遮挡下,对火焰高度的估计不准确,导致火焰高度像素坐标的选择不准确,从而导致误差较大;进行摄像头标定时,内部参数矩阵不准确,导致定位不准确;利用凸壳法会产生一定的定位误差,再利用单目视觉定位法,会产生误差的叠加放大。
为了提高方法的实用性,本文提出对火焰进行区间定位,根据误差的最大值和相应的几何原理,找到火焰的位置区间。对本实验所用的监控摄像头而言,火焰位置区间的定位最大误差为Lth=33 cm,其位置区间如图 9中扇环区域所示,扇环区域半径如式(19)和(20)所示。
$L_{\max } =l_{\max }+L_{\mathrm{th}},$ | (19) |
$L_{\min } =l_{\min }-L_{\mathrm{th}} .$ | (20) |
![]() |
图 9 火焰位置区域的确定 |
图选项 |
式中:lmax为表 2中L的最大值,lmin为表 2中L的最小值,Lth为定位最大误差,Lmax为扇环区域半径的最大值,Lmin为扇环区域半径的最小值。
基于凸壳理论结合单目视觉定位原理的方法,缩小了起火部位和起火点的可能位置区域,如图 9中红色阴影区域所示。该方法节省了火灾调查人员的调查时间,结合现场火灾痕迹勘验及调查询问,可以有效辅助火灾调查人员及时准确查明火灾原因。
3 结论针对实际火灾现场较为常见的监控摄像头被部分遮挡情形,本文提出了基于凸壳理论的单目视觉定位方法对起火部位和起火点进行定位。基于凸壳理论的单目视觉定位方法首先利用火灾现场监控摄像头采集现场监控视频,对视频进行预处理,然后利用凸壳理论对火焰中心进行定位,获取火焰中心的像素坐标;最后基于单目视觉原理,利用世界坐标系和成像平面坐标系的矩阵变换关系,定量计算出起火部位与监控摄像头的位置关系,结合现场勘验进一步通过定量计算确定起火部位区域,实现了起火部位的快速准确定位。本文提出的方法是对“火灾调查+视频分析”方法的探索和实践,为火灾事故调查工作的顺利开展提供了有力的工具。
参考文献
[1] | XU Z, MEI L, LIU Y H, et al. Semantic enhanced cloud environment for surveillance data management using video structural description[J]. Computing, 2016, 98(1): 35-54. |
[2] | 唐诗洋, 疏学明, 胡俊, 等. 基于E-V融合的线上-线下联合监控技术[J]. 清华大学学报(自然科学版), 2018, 58(6): 576-580. TANG S Y, SHU X M, HU J, et al. Online-offline associated surveillance system based on E-V fusion[J]. Journal of Tsinghua University (Science and Technology), 2018, 58(6): 576-580. (in Chinese) |
[3] | LI D X, FEI G Y, TENG S W. Learning large margin multiple granularity features with an improved Siamese network for person re-identification[J]. Symmetry, 2020, 12(1): 92. DOI:10.3390/sym12010092 |
[4] | HUANG T G, SHARMA A. Technical and economic feasibility assessment of a cloud-enabled traffic video analysis framework[J]. Journal of Big Data Analytics in Transportation, 2020, 2(3): 223-233. DOI:10.1007/s42421-020-00027-8 |
[5] | XING L, HE J, ABDEL-ATY M, et al. Time-varying analysis of traffic conflicts at the upstream approach of toll plaza[J]. Accident Analysis & Prevention, 2020, 141: 105539. |
[6] | COSTA L R, RAUEN M S, FRONZA A B. Car speed estimation based on image scale factor[J]. Forensic Science International, 2020, 310: 110229. DOI:10.1016/j.forsciint.2020.110229 |
[7] | 陈冲, 白硕, 黄丽达, 等. 基于视频分析的人群密集场所客流监控预警研究[J]. 中国安全生产科学技术, 2020, 16(4): 143-148. CHEN C, BAI S, HUANG L D, et al. Research on monitoring and early-warning of passenger flow in crowded places based on video analysis[J]. Journal of Safety Science and Technology, 2020, 16(4): 143-148. (in Chinese) |
[8] | 陶一宁, 苏峰, 袁培江, 等. 联合足迹识别与监控视频分析的智能刑侦系统[J]. 北京航空航天大学学报, 2020, 46(9): 1730-1738. TAO Y N, SU F, YUAN P J, et al. Intelligent criminal investigation system based on both footprint recognition and surveillance video analysis[J]. Journal of Beijing University of Aeronautics and Astronautics, 2020, 46(9): 1730-1738. (in Chinese) |
[9] | National Fire Protection Association. Guide for fire and explosion investigations, 2017 edition: NFPA 921—2017[S]. Quincy, USA: National Fire Protection Association, 2017. |
[10] | LI Z H, SUN Y Y, XU L, et al. Explosion scene forensic image interpretation[J]. Journal of Forensic Sciences, 2019, 64(4): 1221-1229. DOI:10.1111/1556-4029.13996 |
[11] | 王冠宁, 陈涛, 米文忠, 等. 监控完全遮挡场景下火灾调查方法[J]. 清华大学学报(自然科学版), 2021, 61(2): 128-134. WANG G N, CHEN T, MI W Z, et al. Fire investigation method using completely blocked surveillance cameras[J]. Journal of Tsinghua University (Science and Technology), 2021, 61(2): 128-134. (in Chinese) |
[12] | YU H Y, LI G R, ZHANG W G, et al. The unmanned aerial vehicle benchmark: Object detection, tracking and baseline[J]. International Journal of Computer Vision, 2020, 128(5): 1141-1159. DOI:10.1007/s11263-019-01266-1 |
[13] | KAKANI V, NGUYEN V H, KUMAR B P, et al. A critical review on computer vision and artificial intelligence in food industry[J]. Journal of Agriculture and Food Research, 2020, 2: 100033. DOI:10.1016/j.jafr.2020.100033 |
[14] | TIAN H K, WANG T H, LIU Y D, et al. Computer vision technology in agricultural automation: A review[J]. Information Processing in Agriculture, 2020, 7(1): 1-19. DOI:10.1016/j.inpa.2019.09.006 |
[15] | XU Y, DING C, SHU X K, et al. Shared control of a robotic arm using non-invasive brain-computer interface and computer vision guidance[J]. Robotics and Autonomous Systems, 2019, 115: 121-129. DOI:10.1016/j.robot.2019.02.014 |
[16] | 王丽. 基于图像的消防车用火灾定位技术研究[D]. 徐州: 中国矿业大学, 2019. WANG L. Study on fire location technology for fire truck based on image[D]. Xuzhou: China University of Mining and Technology, 2019. (in Chinese) |
[17] | 李立君, 阳涵疆. 基于改进凸壳理论的遮挡油茶果定位检测算法[J]. 农业机械学报, 2016, 47(12): 285-292, 346. LI L J, YANG H J. Revised detection and localization algorithm for Camellia oleifera fruits based on convex hull theory[J]. Transactions of the Chinese Society for Agricultural Machinery, 2016, 47(12): 285-292, 346. DOI:10.6041/j.issn.1000-1298.2016.12.035 (in Chinese) |
[18] | CUPEC R, VIDOVI?G I, FILKO D, et al. Object recognition based on convex hull alignment[J]. Pattern Recognition, 2020, 102: 107199. DOI:10.1016/j.patcog.2020.107199 |
[19] | AN P T, HUYEN P T T, LE N T. A modified Graham's convex hull algorithm for finding the connected orthogonal convex hull of a finite planar point set[J]. Applied Mathematics and Computation, 2021, 397: 125889. DOI:10.1016/j.amc.2020.125889 |
[20] | 陈科尹, 邹湘军, 关卓怀, 等. 基于混合蛙跳优化的采摘机器人相机标定方法[J]. 农业机械学报, 2019, 50(1): 23-34. CHEN K Y, ZOU X J, GUAN Z H, et al. Camera calibration method of picking robot based on shuffled frog leaping optimization[J]. Transactions of the Chinese Society for Agricultural Machinery, 2019, 50(1): 23-34. (in Chinese) |
[21] | 宋怀波, 何东健, 潘景朋. 基于凸壳理论的遮挡苹果目标识别与定位方法[J]. 农业工程学报, 2012, 28(22): 174-180. SONG H B, HE D J, PAN J P. Recognition and localization methods of occluded apples based on convex hull theory[J]. Transactions of the Chinese Society of Agricultural Engineering, 2012, 28(22): 174-180. DOI:10.3969/j.issn.1002-6819.2012.22.025 (in Chinese) |