删除或更新信息,请邮件至freekaoyan#163.com(#换成@)

基于高斯过程的机器人自适应抓取策略*

本站小编 Free考研考试/2021-12-25

在工业生产和日常生活中,机器人越来越多的代替人类执行各种操作任务,如抓取、搬运、焊接和装配等。在机器人抓取作业时,目标物体的位姿经常发生变化,机器人需要根据物体的位姿信息调整自身的运动,实现自适应抓取。
针对机器人自适应抓取的需求,有的研究集中于设计柔性更高的末端执行器,如增加欠驱动自由度[1]、使用柔性材料[2]等;有的研究致力于在末端执行器中增加传感器,如增加触觉反馈[3]、改进末端执行器控制[4]等。上述方法能够提高机器人末端执行器的适应能力,但只能在末端执行器的工作范围附近实现自适应抓取。
更多的研究采用视觉获得物体的位姿,调整机器人的运动,实现机器人的自适应抓取。Hoffmann等[5]通过无监督方法训练机器人的手眼协调过程,使机器人能够根据物体的位姿规划自身的运动。Saxena等[6]通过分析目标物体的多个图像,得到目标物体的所在位置和形状,以此为依据产生合适的机器人抓取策略。Lippiello等[7]通过机器人的视觉在虚拟空间中重建目标物体,然后利用设计的规划器调整机器人的运动。
就物体位姿的适应过程来说,上述机器人自适应抓取过程分为2个步骤:① 根据相机获取的视觉信息计算目标物体的空间位姿;② 根据空间位姿规划机器人要到达的关节坐标。为了得到相机中的观测变量到空间位姿的转换关系,需要对机器人的视觉系统进行标定。传统的机器人视觉系统标定方法(如张正友标定法[8]、基于机械臂的在线视觉标定法[9]、基于运动路径靶标的标定法[10]等)对工作人员的专业知识和操作技能有较高的要求,需要花费较多的时间才能完成。
基于视觉伺服[11]的机器人运动控制将机器人控制和视觉结合在一起,不需要视觉系统的标定过程。Siradjuddin等[12]通过视觉伺服实现了7自由度机器人的自适应位置控制;Thomas等[13]利用视觉伺服控制飞行器完成抓取动作和停靠动作。利用视觉伺服能够实现机器人对目标物体位姿的适应,但机器人运动的调整过程需要不断地对图像进行分析和处理,增加了系统工作时的计算负担。
为了提高机器人的操作能力,一种方法是打破传统6自由度机器人4-6轴关节交于一点的约束,如UR公司的UR3机器人、Fanuc的喷涂机器人等;另一种方法是增加机器人的自由度,使机器人具有更高的灵活性,如ABB的Yumi和KUKA的LBR iiwa等。上述机器人的逆运动学解析形式很难得到,基于顺序检索[14]和加权最小范数[15]的求解方法能够求解出符合目标位姿的机器人关节角度,但需要花费较多的时间,不利于机器人的实时控制。限制机器人关节轴的工作范围[16]或者固定机器人的某个关节轴[17],能够得到7自由度机器人逆运动学解析解,但不能充分发挥7自由度机器人的工作能力。
本文提出了一种基于高斯过程的机器人自适应抓取策略。从样本中学习,通过高斯过程使物体的观测变量和机器人关节角度相关联,实现了机器人对目标物体的自适应抓取。本文方法无需机器人视觉系统的标定和机器人运动学求逆,降低了对使用者的专业技能要求,减少了机器人控制过程所需的计算量。
1 机器人的自适应抓取 在执行抓取任务时,机器人需要根据目标物体的位姿,调整自身的运动。机器人对目标物体的自适应抓取模型可以概括为
(1)

式中:o为目标物体的观测变量,以下oi与之相同;r为与之对应的关节坐标,以下ri与之相同;f为从目标物体的观测变量到关节坐标的映射函数。
假设X={x1, x2, …, xn}为获得的样本集合,xi=[ri, oi]T为关节变量和观测变量组成的样本向量。机器人的自适应抓取过程在于从样本集合X中学习得到映射函数f,使机器人能够根据观测变量o获得合适的关节坐标r
选择合适的模型对映射函数f进行描述,对自适应抓取的实现十分重要。神经网络、马尔可夫链等模型需要较多的训练样本,并且难以构建连续变量之间的关联[18]。传统的线性回归方法则不能描述关节坐标与目标物体的笛卡儿空间坐标的非线性关系。
相比之下,高斯过程[19]作为一种贝叶斯学习方法,能够赋予机器人从样本中学习映射函数f的能力,只需要较少的样本就能够完成模型的训练,构建相关变量之间的非线性联系。因此,高斯过程在机器人的技能学习[20]、优化控制[21]和损伤恢复[22]过程中都得到了广泛应用。
2 基于高斯过程建模 基于高斯过程的机器人自适应抓取策略如图 1所示。该策略省去了视觉系统的标定和运动学求逆。在投入使用前需要从样本中学习,获得高斯过程模型的参数。
图 1 基于高斯过程的自适应抓取 Fig. 1 Adaptive grasping based on Gaussian process
图选项




2.1 模型的训练 在未得到任何数据前,假设关节变量和目标物体的观测变量共同构成均值为μ、协方差矩阵为K的高斯分布:
(2)

式中:h=[r, o]T为由关节变量和观测变量的真实值构成的向量。通过人工拖动示教编程得到的样本集合X={x1, x2, …, xn}中包含测量噪声,因此有
(3)

式中:ε为均值为0、方差为σn2的高斯噪声。包含测量噪声的训练样本为x1, x2, …, xn,对应的真实样本分别为h1, h2, …, hn,并有H={h1, h2, …, hn}代表真实样本构成的集合。
通过样本集合X得到多维变量的后验分布同样为高斯分布:
(4)

式中:θ=[μ, K, σn2]。
对于样本集合X,其边缘似然函数为
(5)

式中:

对式(5) 取对数得到
(6)

式中:AB分别为模型的数据拟合项和模型复杂度的惩罚项。

由式(5) 分别对模型的均值向量和协方差矩阵求偏导,并置导数为0,可以得到高斯过程的均值向量和协方差矩阵的极大似然估计分别为
(7)

(8)

2.2 关节变量的预测 对高斯过程的向量和矩阵进行分块得到
(9)

式中:μr为训练样本集合中6个关节变量构成向量的均值;μo为训练样本集合中3个观测变量构成向量的均值;KrrKoo分别为关节变量之间和观测变量之间的协方差;Kor为观测变量与关节变量的协方差;Kro为关节变量与观测变量的协方差,且有Kro=KorT。机器人从相机中得到目标物体的观测信息onew,对应的关节角度rnew的条件概率分布为
(10)

式中:μrnew为与新位姿相匹配的关节角度分布的均值,对应高斯分布的最大概率密度;Krrnew为高斯分布的协方差矩阵,代表了预测结果的不确定性。通过驱动机器人关节到达μrnew,能够使机器人以最大的可能性完成抓取。

通过读取控制器的数据,能够得到机器人关节坐标。这里忽略噪声对模型预测不确定性的干扰,取
(11)

在不需要进行视觉系统标定和运动学求逆的情况下,高斯过程直接关联了机器人关节变量和目标物体的观测变量,使机器人能够根据新的观测变量预测与之相适应的机器人关节角度。
3 实验 3.1 实验配置 整个实验平台如图 2所示,相机布置在机器人工作空间上方,目标物体为桌面上带有颜色的物块,机械臂和末端执行器布置在平台左侧。
图 2 实验平台 Fig. 2 Experimental platform
图选项





3.1.1 UR3机器人 选取UR3机器人进行自适应抓取实验。如图 3所示,机器人从底部基座到机械臂末端的6个关节轴分别为:基座-肩关节-肘关节-腕关节1-腕关节2-腕关节3。为了实现更高的灵巧性和操作能力,UR3机器人的3个腕部关节并未正交。
图 3 UR3机器人及其关节轴 Fig. 3 UR3 robot and its joint axis
图选项





3.1.2 相机和观测变量 实验选取的相机型号为MV-EM200C/M,相机的分辨率为1 600×1 200。
图 4所示,对检测到的色块边缘点坐标取平均,获取目标物体中心的像素坐标xy。在此基础上,取四边形的一边用于计算目标物体与相机横坐标轴所成的夹角θ
图 4 目标物体的位姿 Fig. 4 Pose of target object
图选项





3.1.3 末端执行器 末端执行器为单自由度抓手。如图 5所示,末端执行器包含3根手指结构,通过电机驱动完成抓取动作。
图 5 末端执行器的结构 Fig. 5 Structure of end effector
图选项





3.1.4 实验任务 在不需要进行视觉系统标定和运动学求逆的情况下,利用记录的样本训练高斯过程模型,实现目标物体观测变量o(xyθ)和机器人的关节坐标r之间的关联。当获得新的观测变量onew后,利用训练的高斯过程计算机器人要到达的关节坐标rnew,控制机器人运动,实现机器人对目标物体的自适应抓取。
3.2 数据与验证
3.2.1 数据的获取 拖动末端执行器完成抓取动作,记录抓取时目标物体的观测变量和机器人的关节坐标,如图 6所示。
图 6 人工拖动示教编程 Fig. 6 Manual drag teaching programming
图选项




在完成12次抓取任务后,得到的训练样本集合如表 1所示。
表 1 训练数据 Table 1 Training data
编号观测变量 对应的关节角度/(°)
x/像素 y/像素 θ/(°) 基座 肩关节 肘关节 腕关节1 腕关节2 腕关节3
1 805 647 87 3.2 -120.5 -78.5 -63.2 115.9 -78.4
2 964 700 70 14.7 -121.4 -80.8 -50.2 107.6 -62.7
3 919 557 80 13.0 -110.5 -96.2 -50.2 107.6 -62.7
4 951 632 32 16.7 -116.1 -91.4 -39.5 99.7 -15.4
5 895 577 9 19.3 -112.3 -95.9 -39.4 89.2 7.24
6 969 483 12 26.5 -105.3 -104.6 -39.4 90.0 7.7
7 809 516 16 15.7 -108.8 -101.2 -39.5 91.5 -2.2
8 873 593 31 18.2 -111.5 -102.2 -28.9 91.6 -12.4
9 975 584 52 21.87 -111.2 -101.6 -31.1 95.9 -26.1
10 820 711 63 10.2 -120.4 -83.9 -45.4 103.6 -49.8
11 1 044 655 29 5.9 -113.2 -99.8 -32.3 109.0 -31.6
12 803 594 39 5.9 -113.2 -99.8 -32.3 109.0 -31.6


表选项






在得到训练样本后,通过式(7) 和式(8) 得到高斯过程均值向量μ和协方差矩阵K+σn2I的极大似然估计。



3.2.2 对新目标的自适应抓取 在机器人进行自适应抓取时,首先通过相机得到目标物体的观测变量。
图 7为2个获取目标物体观测变量的过程。
图 7 目标物体的观测变量 Fig. 7 Observation variables of target object
图选项




利用式(10) 计算与目标物体位姿相适应的机器人关节坐标,得到的结果如表 2所示。
表 2 对应图 7中目标物体的关节角度 Table 2 Joint angles corresponding to target objects in Fig. 7
编号预测的关节角度/(°)
基座 肩关节 肘关节 腕关节1 腕关节2 腕关节3
1 16.3 -104.4 -109.1 -33.9 89.9 5.4
2 12.6 -121.3 -81.5 -50.7 110.3 -65.5


表选项






控制机器人运动到对应的关节角度,并驱动末端执行器完成抓取动作,能够实现机器人对目标物体的抓取,如图 8所示。图 8(a)(b)分别为到达第1个目标物体的位姿和完成抓取动作的过程,图 8(c)(d)分别为到达第2个目标物体的位姿和完成抓取动作的过程。
图 8 机器人的自适应抓取 Fig. 8 Adaptive grasping of robot
图选项




在此基础上,进行了12次机器人自适应抓取实验,观测变量和预测的机器人关节角度如表 3所示。
表 3 测试样本信息 Table 3 Information of testing samples
编号观测变量 对应的关节角度/(°)
x/像素 y/像素 θ/(°) 基座 肩关节 肘关节 腕关节1 腕关节2 腕关节3
1 831 630 6 15.0 -115.6 -94.4 -32.6 91.9 -32.6
2 966 646 16 21.9 -116.6 -92.5 -33.5 90.6 5.2
3 906 558 28 18.5 -110.7 -99.3 -37.7 94.0 -10.5
4 774 472 18 13.1 -104.8 -107.7 -37.2 94.1 -8.6
5 712 637 52 2.5 -117.0 -89.4 -45.5 108.1 -47.5
6 903 666 30 16.1 -118.3 -89.2 -37.6 96.7 -13.1
7 1 012 616 54 21.1 -114.9 -92.0 -42.7 98.6 -30.2
8 1 020 489 77 21.4 -106.2 -101.7 -49.1 102.2 -52.5
9 722 429 33 9.0 -102.1 -110.1 -41.8 98.9 -27.0
10 649 610 27 1.9 -114.9 -93.9 -40.1 103.0 -26.2
11 908 749 51 12.6 -124.4 -79.8 -42.4 103.6 -34.2
12 637 780 15 -0.7 -126.7 -79.4 -36.3 103.3 -15.3


表选项






需要注意的是,当目标物体的位置偏离训练样本所在区域较大时,机器人不能完成指定的抓取任务。
图 9图 10分别为训练样本和测试样本在三维位姿空间和像素平面中的分布。其中圆形标记的样本点为训练样本,其他标记的样本点为测试样本,正方形标记代表机器人能够成功抓取,三角形标记代表不能成功抓取。当目标物体的位姿在训练样本所构成的空间区域的内部或附近时,机器人能够通过高斯过程得到与目标物体位姿相适应的关节角度,完成自适应抓取过程。但当目标物体的位姿偏离训练样本区域较大时,通过高斯过程模型不能产生合适的关节角度。图 9中不能抓取的测试样本数据在表 4中列出。
图 9 训练样本和测试样本在三维空间的分布 Fig. 9 Distribution of training and testing samples on 3D space
图选项




图 10 训练样本和测试样本在像素平面上的分布 Fig. 10 Distribution of training and testing samples on pixel plane
图选项




表 4 不能抓取的测试样本 Table 4 Testing samples that could not be grasped
编号观测变量
x/像素 y/像素 θ/(°)
1 1 063 968 9
2 968 692 3
3 526 813 59
4 840 853 43
5 852 453 25
6 519 671 11


表选项






上述实验结果表明,在训练样本所在区域及其附近,提出的基于高斯过程的机器人自适应抓取策略能够使机器人抓取处于不同位姿的目标物体。
对于机器人的自适应抓取过程来说,能否完成抓取任务取决于机器人末端执行器最终到达的位姿是否合适。在得到模型均值μ和协方差矩阵K+σn2I后,通过高斯过程可以根据指定的机器人关节坐标,预测机器人最终要抓取物体的位置和姿态。
通过训练样本中关节坐标(表 1中的关节坐标样本)预测的目标物体位姿如表 5所示。
表 5 预测的目标物体位姿 Table 5 Predicted pose of target object
编号观测变量
x/像素 y/像素 θ/(°)
1 813 653 88
2 966 701 69
3 906 547 80
4 941 629 31
5 884 569 9
6 977 485 13
7 816 524 14
8 870 589 32
9 983 593 51
10 818 709 63
11 1 045 655 29
12 806 594 39


表选项






高斯过程属于广义线性回归模型的范畴,其预测精度可以通过计算变量预测值与实际值的平均相对误差来衡量。经计算,本实验中通过高斯过程预测的变量x、变量y和变量θ平均相对误差分别为0.705%、0.487%和0.072%。高斯过程能够较准确地构建机器人关节坐标与目标物体观测位姿的关系,控制机器人运动到预测的关节坐标,能够使机器人末端执行器到达适合抓取的位姿。
本文方法适用于物体的抓取、物体的传递以及人和机器人的交互等场合。
4 结论 1) 本文提出的机器人自适应抓取策略,通过高斯过程直接关联目标物体的观测变量与机器人的关节角度,在不需要机器人视觉系统的标定和运动学逆解的情形下,实现了机器人对目标物体的自适应抓取。
2) 从示教样本中学习,省去了视觉系统的标定,减少了使用者对专业知识的需求。机器人在关节空间的调整过程不需要进行运动学求逆,不需要限制关节轴的运动,能够充分发挥机器人的工作能力。
3) 在确定的场景下,利用较少的训练样本实现了机器人的关节坐标与观测变量的关联,使机器人具备从样本中学习的能力,减少了使用者的编程负担,有利于机器人系统的快速部署并投入应用。

参考文献
[1] AHRARY A, LUDENA R D A.A novel approach to design of an under-actuated mechanism for grasping in agriculture application[M]//LEE R.Applied computing and information technology.Berlin:Springer, 2014:31-45.
[2] MANTI M, HASSAN T, PASSETTI G, et al.An under-actuated and adaptable soft robotic gripper[M]//PRESCOTT T J, LEPORA N F, MURA A, et al.Biomimetic and biohybrid systems.Berlin:Springer, 2015:64-74.
[3] BELZILE B, BIRGLEN L. A compliant self-adaptive gripper with proprioceptive haptic feedback[J].Autonomous Robots, 2014, 36(1): 79–91.
[4] PETKOVIC'D, ISSA M, PAVLOVIC'N D, et al. Adaptive neuro fuzzy controller for adaptive compliant robotic gripper[J].Expert Systems with Applications, 2012, 39(18): 13295–13304.DOI:10.1016/j.eswa.2012.05.072
[5] HOFFMANN H, SCHENCK W, M?LLER R. Learning visuomotor transformations for gaze-control and grasping[J].Biological Cybernetics, 2005, 93(2): 119–130.DOI:10.1007/s00422-005-0575-x
[6] SAXENA A, DRIEMEYER J, NG A Y. Robotic grasping of novel objects using vision[J].International Journal of Robotics Research, 2008, 27(2): 157–173.DOI:10.1177/0278364907087172
[7] LIPPIELLO V, RUGGIERO F, SICILIANO B, et al. Visual grasp planning for unknown objects using a multifingered robotic hand[J].IEEE/ASME Transactions on Mechatronics, 2013, 18(3): 1050–1059.DOI:10.1109/TMECH.2012.2195500
[8] ZHANG Z Y. A flexible new technique for camera calibration[J].IEEE Transactions on Pattern Analysis & Machine Intelligence, 2000, 22(11): 1330–1334.
[9] 王一, 刘常杰, 杨学友, 等. 工业机器人视觉测量系统的在线校准技术[J].机器人, 2011, 33(3): 299–302.
WANG Y, LIU C J, YANG X Y, et al. Online calibration of visual measurement system based on industrial robot[J].Robot, 2011, 33(3): 299–302.(in Chinese)
[10] 张李俊, 黄学祥, 冯渭春, 等. 基于运动路径靶标的空间机器人视觉标定方法[J].机器人, 2016, 38(2): 193–199.
ZHANG L J, HUANG X X, FENG W C, et al. Space robot vision calibration with reference objects from motion trajectories[J].Robot, 2016, 38(2): 193–199.(in Chinese)
[11] CORKE P I. Visual control of robots:High-performance visual serving[M].New York: Wiley, 1997.
[12] SIRADJUDDIN I, BEHERA L, MCGINNITY T M, et al.A position based visual tracking system for a 7 DOF robot manipulator using a kinect camera[C]//International Joint Conference on Neural Networks.Piscataway, NJ:IEEE Press, 2012:1-7.https://www.iitk.ac.in/ee/publications-stream-wise-list
[13] THOMAS J, LOIANNO G, SREENATH K, et al.Toward image based visual servoing for aerial grasping and perching[C]//2014 IEEE International Conference on Robotics and Automation (ICRA).Piscataway, NJ:IEEE Press, 2014:2113-2118.
[14] NIE L, HUANG Q.Inverse kinematics for 6-DOF manipulator by the method of sequential retrieval[C]//Proceedings of the International Conference on Mechanical Engineering and Material Science, 2012:255-258.
[15] CHAN T F, DUBEY R V. A weighted least-norm solution based scheme for avoiding joint limits for redundant joint manipulators[J].IEEE Transactions on Robotics & Automation, 1995, 11(2): 286–292.
[16] SHIMIZU M, KAKUYA H, YOON W K, et al. Analytical inverse kinematic computation for 7-DOF redundant manipulators with joint limits and its application to redundancy resolution[J].IEEE Transactions on Robotics, 2008, 24(5): 1131–1142.DOI:10.1109/TRO.2008.2003266
[17] LUO R C, LIN T W, TSAI Y H.Analytical inverse kinematic solution for modularized 7-DoF redundant manipulators with offsets at shoulder and wrist[C]//International Conference on Intelligent Robots and Systems.Piscataway, NJ:IEEE Press, 2014:516-521.
[18] EWERTON M, NEUMANN G, LIOUTIKOV R, et al.Learning multiple collaborative tasks with a mixture of interaction primitives[C]//2015 IEEE International Conference on Robotics and Automation (ICRA).Piscataway, NJ:IEEE Press, 2015:1535-1542.
[19] RASMUSSEN C E. Gaussian processes for machine learning[M].Cambridge: MIT Press, 2006.
[20] PARASCHOS A, DANIEL C, PETERS J, et al.Probabilistic movement primitives[C]//Advances in Neural Information Processing Systems(NIPS), 2013:2616-2624.
[21] CALANDRA R, SEYFARTH A, PETERS J, et al.An experimental comparison of Bayesian optimization for bipedal locomotion[C]//IEEE International Conference on Robotics and Automation.Piscataway, NJ:IEEE Press, 2014:1951-1958.
[22] CULLY A, CLUNE J, TARAPORE D, et al. Robots that can adapt like animals[J].Nature, 2015, 521(7553): 503–507.DOI:10.1038/nature14422


相关话题/过程 观测 视觉 运动 系统

  • 领限时大额优惠券,享本站正版考研考试资料!
    大额优惠券
    优惠券领取后72小时内有效,10万种最新考研考试考证类电子打印资料任你选。涵盖全国500余所院校考研专业课、200多种职业资格考试、1100多种经典教材,产品类型包含电子书、题库、全套资料以及视频,无论您是考研复习、考证刷题,还是考前冲刺等,不同类型的产品可满足您学习上的不同需求。 ...
    本站小编 Free壹佰分学习网 2022-09-19
  • 液体姿控发动机76 km高空模拟试验系统性能仿真*
    为了试验液体姿控发动机在推进剂三相点对应压力环境下的长程和脉冲工作性能,要求创造76km(2.0Pa)的高真空环境,广泛采用低温表面和机械泵联合构成的高空模拟试验设备来加以实现。使用液氮低温表面抽除水蒸汽和二氧化碳,配合机械泵抽除氮气、一氧化碳和氢气等不凝气体,即可满足高空点火和稳态试车的要求[1] ...
    本站小编 Free考研考试 2021-12-25
  • 基于灰色理论的复杂系统多故障模糊诊断*
    近年来,随着航天、核电、军工等领域的飞速发展,大型复杂系统的应用也越发普遍,随之而来的系统安全可靠性问题引起了人们的广泛关注。作为保护生命财产安全的有效手段,故障诊断一直在上述领域肩负着重要使命,但解决复杂系统的故障诊断问题绝非易事,通常需要一套可靠并具系统性的解决方案[1]。故障诊断就是检测和隔离 ...
    本站小编 Free考研考试 2021-12-25
  • 空间站大气环控系统应急运行策略优化*
    大气环控系统(ECS)是载人航天器重要的组成系统[1-2]。该系统主要通过控制舱室五大环境参数(总压、氧分压、二氧化碳分压、温度和湿度),为航天员提供适宜的舱室生存环境。许多****开展了载人航天器舱室环境仿真与优化研究,以改进大气环控系统的运行性能[3-5]。能源系统为空间站提供连续电能[6],然 ...
    本站小编 Free考研考试 2021-12-25
  • 机载对地观测飞行轨迹设计与对比分析*
    机载对地观测系统是以飞机为观测平台,利用成像载荷获取地球表面与表层大范围、高精度、多层次空间信息的一种尖端综合性技术,其应用覆盖资源、土地、农业、林业、水利、城市、海洋、灾害等领域[1]。机载对地观测成像的基本原理要求载机作匀速直线飞行,但由于大气湍流、设备性能等因素的影响,载机沿飞行方向和侧向必然 ...
    本站小编 Free考研考试 2021-12-25
  • 基于遗传算法的飞行管理系统余度配置优化方法*
    飞行管理系统(以下简称飞管系统)是现代航空装备电子系统的基本组成部分,其实现了飞机飞行过程中全过程控制与管理,是保障飞机安全性的重要系统[1]。飞管系统安全性设计过程中,预算和后续维修保障成本是2个主要制约因素[2]。航空装备研制、装备使用、维护过程中,在保证多种约束条件同时满足的情况下,如何尽可能 ...
    本站小编 Free考研考试 2021-12-25
  • 重点区域入侵安防设备系统可靠性建模方法*
    当前安防系统应用广泛,正在形成完整的产业价值链。在经历了模拟监控、数字监控、网络监控以及智能监控4个发展阶段后[1],安防系统的复杂度越来越高,与此同时也带来了故障率升高的问题,最终影响系统的防范效果。随着用户对安防效果要求的提高,许多****针对防范效果进行研究,逐渐将可靠性分析和计算应用于各种安 ...
    本站小编 Free考研考试 2021-12-25
  • 动态系统失效的不确定性分析及其高效算法*
    在航空航天、核反应堆控制、汽轮机械等工程领域,系统的安全性能越来越受到工程技术人员的关注。与此同时,系统设计也日趋大型化和复杂化。这些都对系统的可靠性设计分析提出了更高的要求。系统由多个元器件按照特定关系连接构成,系统工作状态与元器件工作状态密切相关。一般情况下,元器件失效率为定值。然而,系统设备中 ...
    本站小编 Free考研考试 2021-12-25
  • 基于滑模观测器的机翼颤振主动抑制设计*
    颤振是一种气动弹性动力学不稳定现象,往往会对飞行器结构带来灾难性后果,因而备受关注。传统的颤振抑制手段以被动地改变飞行器结构特性为主,诸如施加配重或增加结构刚度,这不可避免地造成结构增重,影响飞行器整体性能。颤振主动抑制(AFS)可以不显著影响结构特性,通过控制系统补偿来改变颤振耦合机制[1],是当 ...
    本站小编 Free考研考试 2021-12-25
  • 输入输出受限的无人机防滑刹车系统容错控制*
    近20年来,无人机容错技术得到了长足的发展,特别针对大中型轮式起降无人机的机电系统容错理论也进行了深入的研究。刹车系统作为无人机的起飞着陆子系统的组成部分,对于保障无人机安全起飞、着陆及纠偏起到重要的作用。防滑刹车系统的可靠与否,直接关系到无人机载具的起降安全和任务完成程度。执行机构部分失效型故障普 ...
    本站小编 Free考研考试 2021-12-25
  • 长时间流固耦合传热过程的快速算法*
    流固耦合传热(ConjugateHeatTransfer,CHT)广泛存在于机械、动力、能源、航空航天、化工和核工等工程领域。它一方面指流体与固体内传热过程通过流固交界面的位移、形变、传热和相变等作用相互耦合,另一方面指流固交界面上流动、辐射和烧蚀等不同物理过程相互耦合。Stokos[1]、Hoop ...
    本站小编 Free考研考试 2021-12-25