人因可靠性分析(Human Reliability Analysis, HRA)以分析、预测、减少与预防人为差错为目标[3],对人的可靠性进行定性或定量的分析与评价。HRA方法按时间进程分为3代:第1代方法的目的在于统计与预测人为差错概率;第2代方法结合认知心理学,侧重人的认知失误分析;第3代方法利用虚拟仿真技术模拟实际环境中人的行为,对人因可靠性动态建模[4]。这些HRA方法存在以下局限:①人误概率的确定依赖于专家判断[5],存在一定主观性;②着重于追溯事故原因和估计任务风险,不能对操作任务实时监测与分析评价。
基于监控视频的异常行为检测方法能够实时检测异常行为,但其研究对象多为人体动作,不能直接应用于手部异常行为检测。人体动作的异常包括奔跑、跌倒、逆行、徘徊等,其异常检测主要包括2个步骤:动作表征和动作建模[6]。动作表征是指在视频中捕捉并描述目标动作的相关特征,包括基于光流特征[7-8]、时空兴趣点[9]、形状改变[10]、纹理特征[11]、轨迹特征[12]等方法;动作建模是指建立相关模型对动作进行分类。根据学习过程所需样本类型的不同(正常或异常),分类方法可分为监督、半监督和无监督3种[6]。监督或半监督方法需要对正常或异常行为建模,无监督方法则要求正常行为与异常行为之间存在较明显的统计特性差异。由于手部行为与人体行为的动作特征存在差异,且在手部操作任务中,手部运动轨迹往往是不固定的,正常行为与异常行为之间缺乏明显的区分,使常用的人体异常动作检测方法在应用于手部异常检测时存在困难。
同样的,若使用手势识别方法检测异常手部操作行为,也存在手部操作行为的手势特征不明显的问题。基于计算机视觉的手势识别方法一般可分为2个步骤:手势表征和手势识别[13]。手势表征是指在视频中检测并描述手势的特征,静态手势以手的轮廓为特征,动态手势以手的运动轨迹为特征;手势识别是指建立相关模型对手势进行分类,包括基于模板匹配、机器学习、隐马尔可夫模型、动态时间规整等方法[14]。在现有手势识别方法中,动态手势一般为表示特定含义的运动轨迹,如圆形、数字形、字母形等,不同手势之间有明显差别。而在实际操作任务中,无论是正常操作还是异常操作,其轨迹都为短弧线,不具有明显的手势特征。
针对手部操作任务运动特征不明显、常用异常检测和手势识别方法不适用的问题,本文提出基于区域划分与标准时间的手部异常行为检测技术。将监控画面划分为动作的准备区、过程区、工作区,根据手的形心在操作过程中所处区域的不同,将连续操作分割为单元任务;以正常工作时间为标准判断单元任务持续时间是否异常,达到在连续监控视频中检测手部异常行为的目的。与传统的依赖人工的人因差错检测方法相比,本文方法可以自动分割单元任务并判断异常行为,具有智能化、自动化和定量化的优势,可广泛应用于国防武器装备、民用企业关键设备在使用维护中的人误监测。
1 手部运动检测 1.1 基于椭圆模型的肤色检测方法 手部运动检测,即从视频中检测出运动的手部区域,是能否正确分割手部行为的基础。针对手部运动检测,目前的研究方法主要分为2类:基于帧间差异的运动目标检测方法、基于手部颜色与背景颜色差异的肤色检测方法。运动目标检测方法中,帧间差分法[15]计算简单,但目标边缘不完整,目标内部存在大量空洞[16];混合高斯背景减法[17-18]可以区分运动目标和背景,但方法复杂,目标内部同样存在大量空洞。肤色检测方法中,基于高斯分布的肤色检测方法[19]利用高斯分布的特点计算肤色相似度,可以较好地区分肤色,但方法复杂,需要进行二值转换处理,转换效果不理想;基于椭圆模型的肤色检测方法[20]可以很好地区分肤色与背景色,噪点较少,且计算简单,易于实现。因此,本文选择该方法检测视频中的手部运动。
通过分析大量的肤色统计样本可以得知,如果将常见的肤色RGB图像转换为YCbCr图像,则在CbCr二维平面中肤色像素点的分布近似为一个椭圆。以该椭圆为阈值,判断像素点是否落于椭圆范围内,如果像素点分布在椭圆内,则判断其为皮肤像素点,否则为非皮肤像素点。椭圆方程如下:
(1) |
(2) |
式中:cx=109.38;cy=152.02;θ=2.53 rad;ecx=1.60;ecy=2.41;a=25.39;b=14.03;某点在YCbCr空间的坐标为(Cb, Cr)。
遍历图像中的每一个像素点,判断其是否落在椭圆区域内。如果在椭圆范围内,则设置该点像素值为255,即表现为白色;如果该点像素值落在椭圆范围外,则设置像素值为0,即黑色。如图 1所示,图 1(a)为原始图像,图 1(b)为利用椭圆模型判断出的二值图像。
图 1 基于椭圆模型的肤色检测方法 Fig. 1 Skin color detection method based on ellipse model |
图选项 |
1.2 形态学处理手部运动检测图像 使用基于椭圆模型的肤色检测方法获得检测图像后,图像中仍存在部分噪点,如图 1(b)所示。这些噪点是拼图中颜色与肤色相近的部分,会对手部形心计算造成干扰。因此,需要利用形态学处理方法,去除多余的小区域部分,填充孔洞,得到完整的手部区域。
本文的研究对象为二值图像,使用二值形态学处理,其基本运算有4种:腐蚀、膨胀、开运算、闭运算[21]。
腐蚀的作用是使图像中目标物体的边界向内收缩,去除小面积噪点、消除2个物体间细小连通;膨胀的作用是使图像中目标物体的边界向外扩大,填充图像内部细小孔洞;开运算是指对同一幅图像,先腐蚀运算,再膨胀运算,能够删除细小的多余部分,断开狭窄的连接,平滑对象轮廓。
经过腐蚀与膨胀(即开运算)处理后,能够消除大部分噪点,如图 2(b)所示。此时图像中的噪点皆为孤立噪点,不与手部区域相连,因此可以使用MATLAB中的bwareaopen函数,直接删除二值图像中面积小于阈值P的对象。设置阈值为1 000,删除图中面积小于1 000的部分,得到图 2(c)所示的图像。此时消除了图像中所有非手部区域,且手部形状保留较完整,可以用于下一步的手部形心计算。
图 2 开运算处理手部图像的过程 Fig. 2 Steps for processing hand images by open operation |
图选项 |
2 手部运动特征提取 2.1 连通区域区分与形心获取 手部形心位置是运动特征的基础组成部分。由于在同一幅图像中同时存在2只手的区域,为了获得2只手各自的形心,需要先利用连通区域分析方法,区分2只手的区域。
连通区域指图像中具有相同像素值且位置相邻的像素点组成的图像区域。连通区域分析方法中,种子填充(Seed Filling)法是一种经典的算法,遍历图像中的每个像素,检查其8个邻域,标记其是否为同种颜色。扫描结束后,就可以得到图像中所有的连通区域。
然后,利用空间矩的方法计算手的形心位置[21]。0阶空间矩m00是图像灰度值的总和,二值图像的0阶空间矩m00表示对象的面积。
对于M×N的图像f(i, j),0阶空间矩m00为
(3) |
一阶行距m10为
(4) |
一阶列矩m01为
(5) |
物体重心坐标(i, j)为
(6) |
(7) |
对于二值图像,其重心就是形心。对每帧图像中不同的连通区域,分别使用空间矩方法计算不同区域的形心,即得到2只手的形心。
2.2 手部交叠处理 利用2.1节的方法处理手部图像,能够获得每只手的形心,但也存在特殊情况。当操作中需要2只手配合完成时,检测出的手部图像往往是交叠的,即连通区域仅为1个。如图 3(a)和图 3(b)所示,此时操作人员用双手同时拿住装配零件,虽然开运算结果中2只手的轮廓完整,但可以看到2只手指尖存在相连的情况,在形心计算时会将2只手视为同一个连通区域,得到2只手共同的形心,而不是独立的2个形心。
图 3 利用腐蚀处理手部交叠区域的过程 Fig. 3 Steps for eliminating overlapping parts of hands by erosion |
图选项 |
因此,对这类图像进行二次腐蚀处理。腐蚀运算将图像内缩,对形心位置的影响很小。设置腐蚀结构元素为圆形,半径为12,处理结果如图 3(c)所示,此时两手之间已不存在相连区域。
3 单元任务分割 3.1 工作区域划分 对于有规定流程的操作任务,手部运动的空间可分为3类区域:准备区、过程区及工作区。工作区域划分即事先将监控画面划分为这3类区域。
需要注意的是,工作区域的边界应以手部形心能够到达位置为准。通常情况下,手部形心位于掌心,并非食指指尖。因此,各工作区域的边界应向食指指尖的右侧及下侧扩展适当的距离,以提高区域划分的精度。
以拼图任务为例,如图 4所示,图中实线矩形内放置着等待挑选的拼图块,虚线矩形内为拼图区域。因此定义实线矩形内为准备区,虚线矩形内为工作区,其余位置为过程区。图 4中操作者的右手经过准备区、过程区、工作区,再经过程区返回准备区,反映了一个完整的单元任务。
图 4 拼图任务中右手所处的不同区域 Fig. 4 Different areas of right hand in puzzle task |
图选项 |
一段完整的单元任务可定义为:由准备区开始,至少经历一个工作区,最终返回到准备区之前的过程。因为受视频帧率限制,经历过程区的帧数可能较少,甚至无法在视频中捕捉到,所以过程区不作为判断单元任务的依据。
图 5为2组单元任务示意图。图中数值为帧数,黑色代表该帧的形心位置被判断为准备区,白色代表该帧的形心位置被判断为过程区,灰色代表该帧的形心位置被判断为工作区,单元任务用粗框线框出。图 5(a)中,第1帧至第14帧、第15帧至第35帧构成了2段单元任务;图 5(b)中,第11帧至第34帧构成了一段单元任务。可以看到,由于人存在犹豫、思考、失误等行为,一段连续的过程可能存在断点,如图 5(a)的第19帧、第20帧,图 5(b)的第20帧、第28帧、第29帧所示。只有当手的形心从黑色的准备区开始,至少经历一个灰色的工作区,到下一个黑色的准备区之前,这样的一段过程才会被记为一个单元任务。
图 5 单元任务示意图 Fig. 5 Schematic diagram of unit tasks |
图选项 |
3.2 形心分组 在规定相应工作区域后,进行形心分组。对于每帧图像中手的形心,按照所处的区域标记不同的数字。准备区记为0,过程区记为1,工作区记为2。
建立数组储存分组信息。按帧数顺序遍历每一帧右手的形心,判断每一帧右手形心所处的位置,如果形心位于准备区,则将0放置进数组的尾端;如果形心位于过程区,则将1放置进数组的尾端;如果形心位于工作区,则将2放置进数组的尾端。由此可以得到一列由0、1、2组成的数组,表示每一帧形心点的分组信息。
图 6为形心分组示意图。图中第1行的数值为帧数,黑色、白色、灰色分别代表该帧的形心位置被判断为准备区、过程区、工作区;第2行为储存分组信息的数组中的数据,分别用0、1、2代表准备区、过程区、工作区。
图 6 形心分组示意图 Fig. 6 Schematic diagram of centroids grouping |
图选项 |
3.3 犹豫点剔除 在操作过程中可能存在一些“犹豫点”,即手在2个区域间游离,可能反映为认知上的犹豫或出错。
以拼图任务为例,如图 7所示,此时操作者在思考拼图的位置,手恰好位于工作区与过程区的分界线上,此4帧在3.2节的算法中被分别识别为工作区、工作区、过程区、工作区。实际上,操作者并未真正进入工作区工作,这4帧中手的位置应为过程区。
图 7 拼图任务中的犹豫过程 Fig. 7 Hesitation process in puzzle task |
图选项 |
在实际数据中,手的形心处于同一区域的持续时间通常较长,30帧至100帧不等,而犹豫点持续时间通常较短,为1帧至5帧。
因此,本文设计了一种筛选算法,遍历分组信息数组,将数字0(准备区)和数字2(工作区)连续出现长度小于10帧的记为数字1(过程区),以减少犹豫点的干扰。
犹豫点剔除算法流程如图 8所示。图中:group为分组信息数组;a为数组group的总长度,即视频总帧数;m为字段中相同数字连续出现的长度;i为数组第i位数字,即第i帧视频;group[i]为第i位的分组数值,0为准备区,1为过程区,2为工作区。
图 8 犹豫点剔除算法流程 Fig. 8 Flowchart of hesitant points elimination algorithm |
图选项 |
3.4 单元任务分割算法 在上文中将每帧形心的分组信息表示为一列由0、1、2组成的数组。因此,单元任务分割的本质变为数组分割,即识别0和2的字段。一段完整单元任务表现为由0字段起始,至少经历一段2字段,在下一个0字段前结束,这段单元任务中第一次出现的0对应的帧为准备动作起始帧,第一次出现的2对应的帧为工作动作起始帧,下一个0字段的前一帧为单元任务的动作结束帧。
单元任务分割算法流程如图 9所示。图中: 初始化flag=3;j为第j段单元任务,初始化j=0;group为分组信息数组;i为分组信息数组的第i位数字;a为分组信息数组的总长度,即视频总帧数。
图 9 单元任务分割算法流程 Fig. 9 Flowchart of unit task segmentation algorithm |
图选项 |
通过单元任务分割,得到每段单元任务的准备动作起始帧、工作动作起始帧和单元任务动作结束帧。由帧数信息,可以换算为时间数据,换算公式如下:
(8) |
(9) |
(10) |
式中:Ttotal为单元任务总时间, s;Tpre为准备时间, s;Twork为工作时间, s;fUE为单元任务动作结束帧;fPS为准备动作起始帧;fWS为工作动作起始帧;f为帧率,帧/s。
4 异常行为判断 4.1 标准时间确定 标准时间是指在正常的操作条件下,员工以标准的作业方法、合理的劳动强度和速度,完成符合质量要求的工作所需要的时间[22]。在相同的条件下,熟练人员完成同一个基准动作的时间是常量。因此,当出现人为差错或异常行为时,常表现为时间上的差异,即操作时间过短或过长。
标准时间的确定包括直接法和间接法。直接法即测量、统计实际操作的时间,具有较高的准确性;间接法是指利用预定时间系统(Predetermined Time System,PTS)方法预计操作的标准时间,常用方法包括时间方法衡量(Measurement Time Method, MTM)、模特法(Modular Arrangement of Predetermined Time Standard, MOD)、工作因素法(Work Factor, WF)等[23]。
4.2 异常行为预警 在获得规定操作的标准时间基础上,根据实际现场条件(如工作环境复杂程度、操作人员疲劳程度、操作人员熟练度等),对标准时间进行一定宽放,得到标准时间范围。
异常行为的操作时间通常过短或过长。例如,当操作者在操作过程犹豫、徘徊、试错时,操作时间长于标准时间;当操作者缺少某些规定动作,或因失误中断操作时,操作时间短于标准时间。
将每段单元任务的时间与标准时间范围对比,对超出标准时间范围的单元任务提出异常警告。
5 实例分析 5.1 实验设置 使用3个视频案例来验证本文方法,如图 10所示。案例1为拼图操作视频,视频总时长为6 min 4 s。案例2为乐高积木搭建视频,搭建对象为一个旗杆,视频总时长为11 min 13 s。案例3为乐高积木搭建视频,搭建对象为一辆赛车,视频总时长为1 h 1 min 50 s。
图 10 实验所用的3个案例 Fig. 10 Three cases used in experiment |
图选项 |
拼图和搭建乐高积木由一系列单元任务组成,“手拿取零件—操作零件—手回到放置零件的区域”的过程视为一个单元任务。
操作的异常行为定义为:①拿起零件,未能找到正确零件位置或正确拼接零件,故将该零件放回;②能够找到正确零件位置或正确拼接零件,但在操作过程中存在错误,或操作时间过长。
5.2 方法流程 本文提出的基于区域划分与标准时间的手部异常行为检测的主要流程如图 11所示。
图 11 基于区域划分与标准时间的手部异常行为检测流程 Fig. 11 Flowchart of abnormal hand behavior detection based on area division and standard time |
图选项 |
步骤1 ?? 输入为手部操作任务的视频数据。
步骤2 ??手部运动检测。使用基于椭圆模型的肤色检测方法检测手部区域。使用形态学处理方法去除图像中的噪点,获得较完整的手部轮廓。
步骤3 ??手部运动特征提取。使用连通区域区分方法中的种子填充法,区分出不同的手部区域。利用空间矩计算每一帧图像手部区域的形心。对于双手存在交叠的图像,进行二次腐蚀处理。
步骤4 ??单元任务分割。先对工作区域划分,将监控画面划分为动作的准备区、过程区、工作区;根据手部形心在操作过程中所处区域的不同,对形心分组并将分组信息记入数组中;使用犹豫点剔除算法,减少数组中犹豫点的干扰;使用单元任务分割算法,将连续操作分割为单元任务,获得单元任务的起止时间和持续时长。
步骤5 ??异常行为判断。统计完成规定操作的标准时间,对超出标准时间范围的单元任务提出异常警告。
5.3 实验结果分析
5.3.1 单元任务分割正确率 对于3种案例视频,实验结果如表 1所示。
表 1 实验结果 Table 1 Results of experiment
参数 | 案例1 | 案例2 | 案例3 |
视频时长 | 00:06:04 | 00:11:13 | 01:01:50 |
实际异常行为数量 | 11 | 5 | 15 |
算法判断异常行为总数 | 14 | 6 | 13 |
算法正确判断异常数量 | 10 | 5 | 13 |
算法分割正确率/% | 95.83 | 93.75 | 95.65 |
异常行为检测率/% | 90.91 | 100 | 86.67 |
表选项
使用基于区域划分的单元任务分割算法,3个案例视频的分割正确率分别为95.83%、93.75%、95.65%。其中分割错误的原因为:①分割算法的依据是右手的形心位置,当操作者使用左手操作时会导致分割错误;②分割算法依据区域不同而划分,当操作者右手因某些原因偶然往返2个区域时,导致分割错误。
单元任务分割正确率均在93%以上,满足正常使用要求。
5.3.2 异常行为检测率 在正确分割的单元任务中,本文方法异常行为检测率分别为90.91%、100%、86.67%。其中,案例3的异常行为检测率较低,原因在于:拼图操作的单元任务操作时间相近,而赛车乐高积木的不同单元任务操作难度区别较大,部分积木之间较难拼接,导致操作时间较长,难以界定是否是实验者本身操作异常。
将本文方法与现有手部异常行为检测方法比较,结果如表 2所示。
表 2 不同检测方法的检测率对比 Table 2 Comparison of detection rates of different detection methods
方法 | 检测率/% |
本文方法 | 90.91 |
基于手部轨迹识别[24] | 80.00 |
基于姿态-动作模型[25] | 70~90 |
基于手部图像特征分析[26] | 80~85 |
表选项
目前,针对手部异常行为检测的研究较少,在已有的研究中,文献[24]利用隐马尔可夫模型对操作ATM的手部运动轨迹匹配识别,由于人体行为有灵活多变、复杂、非线性的特点,对异常行为判断存在一定误差,检测率为80.00%;文献[25]针对超市中的偷窃行为,分别使用梯度直方图特征和局部光流特征建立姿态-动作模型,使用支持向量机分类器对模型分类,在不同场景下,检测率在70%~90%之间;文献[26]基于手部图像特征分析,比对分析手部的颜色直方图特征与纹理直方图特征,对超市中异常行为检测,当监控距离小于6 m时,检测率在80%~85%之间。
通过与实际情况和其他手部异常行为检测方法对比,得知本文方法的单元任务分割结果与实际情况吻合,单元任务分割正确率和异常行为检测率较高,证明基于区域划分与标准时间的手部异常行为检测技术的可行性。
6 结论 1) 针对操作任务中手部异常行为检测问题,提出基于区域划分与标准时间的手部异常行为检测技术。能够将连续操作自动划分为单元任务,获得各单元任务的起止时间和持续时长,对手部异常行为实时监控与定量分析。
2) 与其他手部异常行为检测方法相比,本文方法具有较高的单元任务分割正确率和异常行为检测率,能够有效检测手部异常行为,有利于实时监控操作过程的人为差错,防止事故发生。
由于仅通过标准动作时间范围判断行为是否异常,虚警率较高。后续考虑结合情感识别、物体识别等方法,提高检测正确率。
致谢 感谢郭子玥博士和周启迪博士对文章结构的帮助。
参考文献
[1] | TAO J, QIU D, YANG F, et al. A bibliometric analysis of human reliability research[J]. Journal of Cleaner Production, 2020, 260: 121041. DOI:10.1016/j.jclepro.2020.121041 |
[2] | 朱旭东, 刘志镜. 基于主题隐马尔科夫模型的人体异常行为识别[J]. 计算机科学, 2012, 39(3): 251-255. ZHU X D, LIU Z J. Human abnormal behavior recognition based on topic hidden Markov model[J]. Computer Science, 2012, 39(3): 251-255. DOI:10.3969/j.issn.1002-137X.2012.03.057 (in Chinese) |
[3] | YI X, DONG H, DONG X, et al. Human reliability analysis method on armored vehicle system considering error correction[J]. Journal of Shanghai Jiaotong University (Science), 2016, 21(4): 472-477. DOI:10.1007/s12204-016-1749-5 |
[4] | 李鹏程, 陈国华, 张力, 等. 人因可靠性分析技术的研究进展与发展趋势[J]. 原子能科学技术, 2011, 45(3): 329-340. LI P C, CHEN G H, ZHANG L, et al. Research review and development trends of human reliability analysis technique[J]. Atomic Energy Science and Technology, 2011, 45(3): 329-340. (in Chinese) |
[5] | LIU P, QIU Y, HU J, et al. Expert judgments for performance shaping factors' multiplier design in human reliability analysis[J]. Reliability Engineering and System Safety, 2020, 194: 106343. DOI:10.1016/j.ress.2018.12.022 |
[6] | BEN MABROUK A, ZAGROUBA E. Abnormal behavior recognition for intelligent video surveillance systems: A review[J]. Expert Systems with Applications, 2018, 91: 480-491. DOI:10.1016/j.eswa.2017.09.029 |
[7] | ZHU B, XIE Y, LUO G, et al. An abnormal behavior detection method using optical flow model and openpose[J]. International Journal of Advanced Computer Science and Applications, 2020, 11(5): 28-34. |
[8] | LAZARIDIS L, DIMOU A, DARAS P. Abnormal behavior detection in crowded scenes using density heatmaps and optical flow[C]//Proceedings of the European Signal Processing Conference, 2018: 2074-2078. |
[9] | MABROUK A B, ZAGROUBA E. Spatio-temporal feature using optical flow based distribution for violence detection[M]. Amsterdam: Elsevier Science, 2017. |
[10] | MIN W, ZOU S, LI J. Human fall detection using normalized shape aspect ratio[J]. Multimedia Tools and Applications, 2019, 78(11): 14331-14353. DOI:10.1007/s11042-018-6794-7 |
[11] | WANG J, XU Z. Crowd anomaly detection for automated video surveillance[C]//Proceedings of the IET Seminar Digest, 2015: 15382040. |
[12] | LI K, HUANG H, ZHENG Z, et al. Research of crowed abnormal behavior detection technology based on trajectory gradient[C]//International Symposium on Intelligence Computation and Applications, 2018: 486-500. |
[13] | WANG T, LI Y, HU J, et al. A survey on vision-based hand gesture recognition[C]//1st International Conference on Smart Multimedia, 2018: 219-231. |
[14] | XIA Z, LEI Q, YANG Y, et al. Vision-based hand gesture recognition for human-robot collaboration: A survey[C]//Proceedings of the 20195th International Conference on Control, Automation and Robotics, 2019: 198-205. |
[15] | 郭全利. 动态手势识别关键算法研究[D]. 锦州: 辽宁工业大学, 2018. GUO Q L. Research on key algorithms of dynamic gesture recognition[D]. Jinzhou: Liaoning University of Technology, 2018(in Chinese). |
[16] | 张兆杨, 杨高波, 刘志. 视频对象分割提取的原理与应用[M]. 北京: 科学出版社, 2009. ZHANG Z Y, YANG G B, LIU Z. Principle and application of video object segmentation and extraction[M]. Beijing: Science Press, 2009. (in Chinese) |
[17] | ZIVKOVIC Z, HEIJDEN F V D. Efficient adaptive density estimation per image pixel for the task of background subtraction[J]. Pattern Recognition Letters, 2006, 27(7): 773-780. DOI:10.1016/j.patrec.2005.11.005 |
[18] | ZIVKOVIC Z. Improved adaptive Gaussian mixture model for background subtraction[C]//Proceedings of the 17th International Conference on Pattern Recognition, 2004: 28-31. |
[19] | SUTTON R S. Learning to predict by the methods of temporal differences[J]. Machine Learning, 1988, 3(1): 9-44. |
[20] | HSU R L, ABDEL-MOTTALEB M, JAIN A K. Face detection in color images[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 24(5): 696-706. DOI:10.1109/34.1000242 |
[21] | 孙燮华. 数字图像处理: 原理与算法[M]. 北京: 机械工业出版社, 2010. SUN X H. Digital image processing: Principle and algorithm[M]. Beijing: China Machine Press, 2010. (in Chinese) |
[22] | 易树平, 郭伏. 基础工业工程[M]. 北京: 机械工业出版社, 2014. YI S P, GUO F. Basic industrial engineering[M]. Beijing: China Machine Press, 2014. (in Chinese) |
[23] | 邱慧慧. 面向离散制造业的标准时间制定系统研究[D]. 济南: 山东大学, 2009. QIU H H. Research on discrete manufacturing industries-oriented standard time formulation system[D]. Jinan: Shandong University, 2009(in Chinese). |
[24] | 陈琼, 鱼滨. 基于手部轨迹识别的ATM智能视频监控系统[J]. 计算机工程, 2012, 38(11): 143-146. CHEN Q, YU B. Intelligent video surveillance system of automatic teller machine based on hand trajectory recognition[J]. Computer Engineering, 2012, 38(11): 143-146. (in Chinese) |
[25] | 陈若愚. 超市中人体异常行为识别方法的研究[D]. 长沙: 国防科学技术大学, 2013. CHEN R Y. A research on abnormal behavior detection methods in supermarket[D]. Changsha: National University of Defense Technology, 2013(in Chinese). |
[26] | 刘刚. 基于手部图像特征分析的超市中异常行为的检测[D]. 成都: 西华大学, 2017. LIU G. Detection of abnormal behavior in supermarket based on hand image feature analysis[D]. Chengdu: Xihua University, 2017(in Chinese). |