拖放操作研究(Drag)张文韬
一种有效的气枪震源组合拖曳方式
r y t wi g mo e wa c o a o n d s a c mp ih d o n i— u o t O t e b a a a e t i d farg n a r y h o i g & l e n o e a rg n b a .S h o tc n h v wo k n so i u r a o k n s - t wi g mo e o n d .Th o o n o k n & t wi g mo e i q ik e c a g a l .i i e f c i ef r t e f l h o i g a d e c mp u d h o i g o n d s u c x h n e b e t s fe t o h i d s o t n v e n
p n a l. Th i g n a r y wih t wig mo e i s ia l f r t ed e e t r a e .Th i r t n t h n e — a d be e ar u r a t o n d s u t b e o h e p r wa e r a — e v b a i O t e i n rma o
21 0 0年 4月
物 探 装 备
第2 O卷
第 2期
一
种有效 的气枪震源组合拖曳方式
刘海 波 王 长 春 魏 学 进 李 海 军 胡 天 德
摘 要
於 国平
ห้องสมุดไป่ตู้
( . 方 地 球 物 理 公 司 国际 勘 探 事 业 部 深 海 业 务 经 理 部 ,天津 塘 沽 30 5 ;2 东 方 地 球 物 理公 司 海上 勘 探 事 业 部 ) 1东 047 .
h v h e p cie a v n a e o h ieh o ig a d twig b hn d . I a e n a p o e y t e p oet a et ers etv d a tg ft e sd o kn n o n e id mo e th s b e p rv d b h r jc
用于手部运动功能康复的纤维强化型并联腔道式软体驱动器设计
高技术通讯2021年第31卷第3期:270-278doi:10.3772/j.issn.1002-0470.2021.03.007用于手部运动功能康复的纤维强化型并联腔道式软体驱动器设计①邓豪②***Dannangoda Gamage Kanishka Madusanka*熊璟*夏泽洋③*(*中国科学院深圳先进技术研究院深圳518055)("中国科学院大学北京100049)摘要为解决当前单一的弯曲/伸展辅助运动的软体康复手套不能提供手部完整的运动动作支持,对脑卒中后肌张力异常导致的手部运动障碍康复效果欠佳,设计了一种新的纤维强化并联腔道式软体驱动器(SPA)结构,该结构能够在三路组合压力驱动下实现三维方向致动,实现对手部伸展/弯曲、外展/内收、对掌/复位及其复合动作的支持。
通过对手部基本动作元的分析,设计了新的驱动器结构,利用有限元工具对设计参数进行了验证,并建立了运动学描述模型;给出了新驱动器的制备方法,并对制备的新驱动器进行了加载测试和软体康复手套样机操作测试。
测试结果表明,所设计的驱动器能够实现复合运动模式下的多指协同动作,支持手部运动多模式的辅助康复,并显著提升患者手部敏捷交互操作能力。
关键词软体驱动器(SPA);手部运动功能康复;纤维强化;并联腔道;复合运动0引言手部运动功能障碍是一种常见的、高发的由脑卒中等疾病引起的侧肢体运动功能障碍。
我国现存脑卒中患者750余万,大约30%-66%的患者留有不同程度的手部功能障碍⑴。
帮助这部分患者实现手部基本运动功能恢复,重拾日常生活能力(activities of daily living,ADL)至关重要物理康复训练是实现手部运动功能恢复的主要手段,而机器人化的辅助康复,以其高效率、省劳力、精确运动控制和易于量化评估等优势,在康复治疗中正被逐渐采用"句。
传统手部康复机器人系统的设计方案是刚性外骨骼式。
这类系统在设计上存在适应性差,易引起肢体损伤;肢体穿戴结构重量大,患者配合度较低;整机成本较高,临床应用和推广效果欠佳等问题。
无拖曳控制技术研究及在我国空间引力波探测中的应用
DENGJianfeng,CAIZhiming ,CHENKun,SHIXingjian,YUJinpei,LIHuawang (InnovationAcademyforMicrosatellitesofCAS,Shanghai201203,China) Correspondingauthor,Email:caizm@microsate.com
Abstract:Dragfreecontroltechnologycounteractsnonconservativeforcesthatactonaspacecraftbycontrol lingthrustgeneratedbymicrothrusters.Itisamongthekeytechnologiesforobtaininganultraquietandultra stablespaceexperimentalplatform.Firstly,thestatusofcurrentresearchandthedevelopmenttrendsofdrag freecontroltechnologiesbothabroadandwithinChinaaresummarized.Thenthecharacteristicsandchallen gesofdragfreecontroltechnologiesareanalyzedandthekeytechnologiesinvolvedindragfreecontrolare summarized.Finally,analysisandprospectionareprovidedforapplicationsofdragfreecontroltechnologiesin China′sspacegravitationalwavedetection. Keywords:spacegravitationalwavedetection;ultraquietandultrastableplatform;dragfreecontrol;dis
并联机器人的理论及应用研究
K;E;L<8@ 3? 9@; 9@;3<F L?M 9@; LNN4B8L9B3? 3= NL<L44;4 O;8@L?BEO <3:39
!" #$%& ’ ($)* +,- !) ’ .%/* 01- 2$ ’ .3$* 4" !) ’ 5)& / P8@334 3= Q;8@L?B8L4 R?HB?;;<B?HI >?@AB C?BD;<EB9F 3= G;8@?343HF,QLS L?E@L? !1#""!I T@B?L 0 16789%:8; UL<L44;4 O;8@L?BEO @LE :;83O; 9@; @39 $ N3B?9 =3< L 43?H 9BO; :;8LAE; 3= B9E @BH@ E9B==?;EEI @BH@ 8L<<FB?H 8LNL8B9FI @BH@ N<;8BEB3? L?M 43V O3D;O;?9 B?;<9BL5 G@; L89AL4B9F 3= 9@; 9@;3<F L?M 9@; LNN4B8L9B3? 3? NL<L44;4 O;8@L?BEO <3:39 B? 9@; V3<4M BE EAOOL<BW;M5 X9 BE L4E3 N3B?9;M 3A9 9@; MB<;89B3? 3= <;E;L<8@ B? 9@BE L<;L5 <3= .&9>7; <3:39Y NL<L44;4 O;8@L?BEOY 9@;3<FY LNN4B8L9B3? 对并联机构的研究最早可追溯上世纪中叶, Z3AH@ 早在 %,1, 年就采用并联机构制作了轮胎检测装置, 高级工程师 P9;VL<9 在 %,-& 年发表了题为 “ 引起了极大反 > U4L9=3<O VB9@ PB[ +;H<;;E 3= \<;;M3O] 的论文 ^ % _ , 如图 % 所示) 。 响, 因而奠定了他在空间并联机构中的开山鼻祖地位, 相应的机构称为 P9;VL<9 平台( P9;VL<9 平 台机构由运动平台和基平台及 - 根可以独立地上下伸缩杆构成。- 根支杆两端分别由球铰和虎克铰与运动 平台和基平台联接。 这样, 运动平台就可进行 - 个自由度的独立运动。 澳大利亚机构学教授 JA?9 于 %,). 年 提 出 将 并 联 机 构 作 为 机 器 人 机 构 ; 随 后 , QL88L44B3? 和 U@LO5 +5 G 首次将 P9;VL<9 机构按操作器设计,成功地将该机构 用于装配生产线, 并联机器人由此诞生。此后, 许多学者展开了 对并联机器人的研究。 随着研究的深入, 大量的研究成果不断涌 现。 相对于串联机器人来说并联机器人具有 ^ ! _ 以下优点: 刚度大, 结构稳定;" 承载能力强; ! 与串联机构相比, # 精度高; 串联机构正解易, 反 $ 运动惯性小;% 在位置求解上, 解难, 而并联机器人正解难反解易。 因机器人在线实时计算要求
移动式升降钻井平台的拖航要领
移动式升降钻井平台的拖航要领张洪文1移动式升降钻井平台的拖航要领张洪文(天津港引航中心天津300456)摘要:文章通过论述移动式升降钻井平台海上和港内拖带各自的特点及存在的风险,提出风险控制措施和操纵方法。
关键词:移动式钻井平台拖带偏荡漂移滞航0引言钻井平台主要是用于海上钻井的结构物,平台—般分为移动式和固定式,而移动式钻井平台又分为坐底式平台、自升式平台、钻井船、半潜式平台、张力腿式平台、牵索塔式平台。
目前,渤海海域从事钻井作业的大多是移动式自升式钻井平台,此类钻井平台由平台、桩腿、升降机组成,平台能沿桩腿升降,一般无自航能力。
工作时桩腿下放插入海底,平台被抬起到离开海面的安全工作高度,并对桩腿进行预压,以保证平台遇到风暴时桩腿不致下陷。
完井后平台降到海面,拔出桩腿并全部提起,整个平台浮于海面,由拖轮拖到新的井位,这就是移动式钻井平台的海上拖带作业。
另外,钻井平台在船厂造好后要拖带到指定的井位以及定期的返厂保养维修,这被称为钻井平台的海上和港内拖带作业。
钻井平台体量庞大、水上水下的形状不规则,与普通机动船的外形差异较大,加之三个高高竖起的桩腿,拖航时水阻力和风阻力都很大。
而海上拖航和港内拖航因水域环境的钻井平台海上拖航、港内拖航及就位的不同环节展开论述。
1移动式升降钻井平台的基本特征参数移动式升降钻井平台是依靠三个桩腿的升降来控制其漂浮与固定在海上的,因此它必须要装备有高高的桩腿,平台部分一般设计成腑视如切掉三个角的三角形,三个长边三个短边,有的水下部分还设置有沉箱。
仅以钻井平台“海洋石油924”为例,其基本数据见表1。
表1“海洋石油924”钻井平台主要参数钻井总长总宽型深吃水桩腿高度平台名称(m)(m)(m)(m)(m)海洋石油92457.20553.347.62 4.445942拖轮的类型和基本特征参数钻井平台海上拖带需要两艘马力足够大且具备海上拖带功能的拖轮,而港内拖带的主拖轮同样需要相同的大马力主拖轮外,辅拖则需要马力相对小一些但操纵更为灵活的港作拖轮,下面列出几艘拖轮的基本数据以示说明,见表2。
海洋资源勘探拖缆水平振动的鲁棒自适应控制
海洋资源勘探拖缆水平振动的鲁棒自适应控制
张亮;张维竞;刘涛
【期刊名称】《振动与冲击》
【年(卷),期】2013(032)014
【摘要】针对海洋资源勘探拖缆水平振动控制中拖缆水平位移偏移量难以测量和系统参数不确定的问题,设计了仅仅包括水鸟处拖缆速度和斜率的自适应控制规律.首先选取拖缆和水鸟能量为李雅普诺夫能量函数,在拖缆的精确模型下设计了鲁棒控制规律.然后考虑到实际工作中不确定的参数,在精确模型鲁棒控制规律的基础上设计了自适应的鲁棒控制规律.最后用有限差分法验证了控制规律的有效性,自适应规律能在线的估计勘探拖缆的参数.所提出的控制规律稳定性好,能够抵抗参数不确定性.
【总页数】5页(P134-138)
【作者】张亮;张维竞;刘涛
【作者单位】上海交通大学海洋工程国家重点实验室,上海200030;上海交通大学海洋工程国家重点实验室,上海200030;上海交通大学海洋工程国家重点实验室,上海200030
【正文语种】中文
【中图分类】U6
【相关文献】
1.基于卷积神经网络的海洋地震勘探拖缆混采数据分离 [J], 童思友;王凯;尹文笋;胡伟
2.多船拖缆宽方位地震勘探设计方法及应用 [J], 刘兴达;刘春成;吴旭光;刘旭明;唐进
3.海上拖缆地震勘探前导缆动态响应预报与分析 [J], 孙青;翟慧杰;张昊楠;张伟;王振波;王洪峰
4.基于Lyapunov函数方法的海洋资源勘探拖缆水平振动的控制 [J], 刘涛;张维竞;马捷
5.海洋资源四维勘探拖缆阵列动力学特性仿真研究 [J], 吴喆莹;张维竞;刘涛;张广磊;史斌杰
因版权原因,仅展示原文概要,查看原文内容请购买。
末端强力抓取的欠驱动拟人机器人手_张文增
ISSN 1000-0054CN 11-2223/N 清华大学学报(自然科学版)J T singh ua Un iv (Sci &Tech ),2009年第49卷第2期2009,V o l.49,N o.210/38194-197末端强力抓取的欠驱动拟人机器人手张文增, 马献德, 黄源文, 邱 敏, 陈 强(清华大学机械工程系,先进成形制造教育部重点实验室,北京100084)收稿日期:2008-03-24基金项目:清华大学基础研究基金资助项目(JC2007009);国家“八六三”高技术项目(2007AA04Z258)作者简介:张文增(1975—),男(土家),贵州,讲师。
E-mail:w enzeng@tsin 摘 要:为了实现自适应抓取效果、拟人化外观和具有末端强力抓取功能的机器人手,采用带轮传动、弹簧约束和活动套接的中部指段,设计了一种新型欠驱动手指机构。
分析了该手指的强力抓取原理。
由此设计了拟人机器人手——T H-3B 手。
T H-3B 手外观、尺寸和动作模仿人手,有5个独立驱动手指、15个关节自由度、6个驱动电机,模块化程度高,结构紧凑,控制容易,质量小,成本低,对所抓物体的形状、大小自动适应,可以实现末端强力抓取,适用于拟人机器人上。
关键词:机器人技术;拟人机器人手;欠驱动;自适应;末端强力抓取中图分类号:T H 11;T P 24文献标识码:A文章编号:1000-0054(2009)02-0194-04Under -actuated humanoid robot handwith end power graspingZHANG Wenzeng ,MA Xiande ,HUAN G Yu an wen ,Q IU Min ,CHE N Q ian g(K ey Laboratory for Advanced Materials Proces sing Technology of Ministry of Education ,Department of Mechanical Engineering ,T s inghua University ,Beij ing 100084,China )Abstract :An un der-actuated finger m ech anism w as des igned for ad aptive grasping,human-like appearance and en d pow er graspingbased on a combination of belt-pulley transm ission ,spring cons traints an d an active sleeve middle ph alanx.Th e end pow er grasping force is analyzed for a humanoid robot hand (T H-3B hand).Th e hand is similar to th e hum an hand in appearan ce,s ize,an d motion w ith independently driven 5fingers ,15DOFs ,and 6motors.T he han d is high ly modular,compact,easy to control,ligh t-w eight,and inexpen sive.T he hand is capable of end pow er grasping and self-adaptation to the shape and s ize of th e ob ject grasped,w hich makes it suitable for humanoid robots.Key words :robot technology ;humanoid robot h and ;und er-actuation ;s elf-adap tation;end pow er grasping拟人机器人的多数功能要通过手部抓取和操作来实现,具有稳定抓取效果的仿人手部的设计是其关键技术之一。
大抓力锚选型及布置研究
1.1 自扶正平衡锚 自 扶 正 平 衡 锚( 以 13 350 kg 为 例 ) 如 图 2
所示。
c
图 2 自扶正平衡锚(13 350 kg)
该类锚通过中间锚爪与锚杆连接处的特殊机 构保证锚的平衡特性。其特点如下 :
(1)具 有 与 AC-14 锚 同 等 的 抓 重 比 与 入 土 性能。
锚爪垂直水平面向上
锚唇特点
非对称设计
对称设计
对称设计
锚唇处运动
翻转
非翻转
非翻转
收藏状态
与 A-A 剖面成一角度
垂直于 A-A 剖面
垂直于 A-A 剖面
拉锚难易
较难
较易
较易
设计难度
较复杂
较简单
较简单
基于以上特点,通过上述分析和设计实践,可 得到以下结论 :
(1)普通 AC-14 锚由于自身运动特性,在收 锚过程中容易发生卡锚现象,因此锚唇需要进行非
因平衡 AC-14 锚与普通 AC-14 锚的运动特性 的差异,在进行锚系设计时,需根据不同的特点进 行相应设计。而设计中最大的区别即锚链筒、锚台 与锚唇设计的思路不同。
为使设计过程描述更清楚,先定义以下几个 概念 :
对称面 :过锚链筒中心线且垂直于锚台面板的 平面。
A-A 面 :过锚链筒中心线且垂直于水平面的 平面。
c
图 1 普通 AC-14 锚(13 350 kg)
该锚的锚爪重心略低于转轴,保证锚运动过程 中的平衡特性,13 350 kg 全平衡 AC-14 锚如下页 图 3 所示。其特点如下 :
(1)抓重比略小于 AC-14 锚,但有大抓力锚 证书。
(2)外型特点是锚杆短锚爪短,对于锚链筒长 度比较紧张的船型有好处。
竞技体育领域多目标追踪任务研究进展
竞技体育领域多目标追踪任务研究进展郑国熠;张韧仁;苏余【期刊名称】《中国运动医学杂志》【年(卷),期】2024(43)3【摘要】多目标追踪(MOT)任务作为研究动态场景下视觉信息加工机制的重要实验范式,不仅揭示了运动员在实际比赛中视觉信息的加工机制,而且对于运动员开展认知训练具有现实指导意义。
本文就多目标追踪任务在竞技体育领域中的研究成果进行系统综述,总结经典MOT任务、3D-MOT任务以及脑机制研究现状,同时也针对当前研究中存在的问题和未来可能的应用前景进行了深入分析,以期为竞技体育领域的后续研究和认知训练提供借鉴参考。
主要结果:(1)追踪负荷、干扰负荷和运动速度是影响运动员操作绩效的主要因素,运动水平与运动员的MOT任务操作绩效之间存在相关关系。
(2)3D-MOT训练能改善运动员的注意力、加工速度等基本认知功能,也开始通过测量运动员的认知功能、模拟真实运动场景以及监测运动员受伤后脑震荡恢复情况的方式付诸于实践。
3D-MOT任务已应用于测量运动员的认知功能、模拟真实运动场景以及监测运动员受伤后脑震荡恢复情况。
(3)有关MOT任务脑机制的研究,竞技体育领域处于摸索阶段;有关3D-MOT任务脑机制的研究,尚未见报道。
(4)未来竞技体育领域还需追求研究设计的生态学效度,验证3D-MOT训练的远移效应,探究行为背后的脑机制。
【总页数】11页(P236-246)【作者】郑国熠;张韧仁;苏余【作者单位】四川师范大学体育学院;四川师范大学体育教育研究中心【正文语种】中文【中图分类】G80【相关文献】1.眼球追踪技术的研究进展及其在体育领域中应用前景2.体育学习经验与多目标追踪关系的研究进展3.多目标追踪任务下疲劳对足球运动员前交叉韧带损伤风险的影响4.持续性视觉注意负荷对视听觉整合的影响——以多目标追踪任务为例5.皮革材料在竞技体育中的作用分析——评《运动人体科学在竞技体育领域的应用研究》因版权原因,仅展示原文概要,查看原文内容请购买。
融合元学习和PPO算法的四足机器人运动技能学习方法
第41卷第1期2024年1月控制理论与应用Control Theory&ApplicationsV ol.41No.1Jan.2024融合元学习和PPO算法的四足机器人运动技能学习方法朱晓庆†,刘鑫源,阮晓钢,张思远,李春阳,李鹏(北京工业大学信息学部,北京100020;计算智能与智能系统北京市重点实验室,北京100020)摘要:具备学习能力是高等动物智能的典型表现特征,为探明四足动物运动技能学习机理,本文对四足机器人步态学习任务进行研究,复现了四足动物的节律步态学习过程.近年来,近端策略优化(PPO)算法作为深度强化学习的典型代表,普遍被用于四足机器人步态学习任务,实验效果较好且仅需较少的超参数.然而,在多维输入输出场景下,其容易收敛到局部最优点,表现为四足机器人学习到步态节律信号杂乱且重心震荡严重.为解决上述问题,在元学习启发下,基于元学习具有刻画学习过程高维抽象表征优势,本文提出了一种融合元学习和PPO思想的元近端策略优化(MPPO)算法,该算法可以让四足机器人进化学习到更优步态.在PyBullet仿真平台上的仿真实验结果表明,本文提出的算法可以使四足机器人学会行走运动技能,且与柔性行动者评价器(SAC)和PPO算法的对比实验显示,本文提出的MPPO算法具有步态节律信号更规律、行走速度更快等优势.关键词:四足机器人;步态学习;强化学习;元学习引用格式:朱晓庆,刘鑫源,阮晓钢,等.融合元学习和PPO算法的四足机器人运动技能学习方法.控制理论与应用,2024,41(1):155–162DOI:10.7641/CTA.2023.20847A quadruped robot kinematic skill learning method integratingmeta-learning and PPO algorithmsZHU Xiao-qing†,LIU Xin-yuan,RUAN Xiao-gang,ZHANG Si-yuan,LI Chun-yang,LI Peng(Faulty of Information Technology,Beijing University of Technology,Beijing100020,China;Beijing Key Laboratory of Computational Intelligence and Intelligent System,Beijing100020,China) Abstract:Learning ability is a typical characteristic of higher animal intelligence.In order to explore the learning mechanism of quadruped motor skills,this paper studies the gait learning task of quadruped robots,and reproduces the rhythmic gait learning process of quadruped animals from scratch.In recent years,proximal policy optimization(PPO) algorithm,as a typical representative algorithm of deep reinforcement learning,has been widely used in gait learning tasks for quadruped robots,with good experimental results and fewer hyperparameters required.However,in the multi-dimensional input and output scenario,it is easy to converge to the local optimum point,in the experimental environment of this study,the gait rhythm signals of the trained quadruped robot were irregular,and the center of gravity oscillates.To solve the above problems,inspired by meta-learning,based on the advantage of meta-learning in characterizing the high-dimensional abstract representation of learning processes,this paper proposes an meta proximal policy optimization (MPPO)algorithm that combines meta-learning and PPO algorithms.This algorithm can enable quadruped robots to learn better gait.The simulation results on the PyBullet simulation platform show that the algorithm proposed in this paper can enable quadruped robots to learn walking pared with soft actor-critic(SAC)and PPO algorithms,the MPPO algorithm proposed in this paper has advantages such as more regular gait rhythm signals and faster walking speed.Key words:quadruped robot;gait learning;reinforcement learning;meta-learningCitation:ZHU Xiaoqing,LIU Xinyuan,RUAN Xiaogang,et al.A quadruped robot kinematic skill learning method integrating meta-learning and PPO algorithms.Control Theory&Applications,2024,41(1):155–162收稿日期:2022–09–27;录用日期:2023–05–06.†通信作者.E-mail:*******************.cn.本文责任编委:吴敏.国家自然科学基金项目(62103009),北京市自然科学基金项目(4202005)资助.Supported by the National Natural Science Foundation of China(62103009)and the Natural Science Foundation Project of Beijing(4202005).156控制理论与应用第41卷1引言近些年,移动机器人由于可在多种场景下完成任务受到广泛关注,移动机器人被分类为:轮式机器人、履带式机器人和足式机器人[1];由于结构问题,传统轮式机器人和履带式机器人可应用的场景范围较小,在非平坦地形上,存在越障能力差以及由于地形多变而造成重心不稳等问题[2].相反,足式机器人由于其仿生的腿部结构而拥有更高的灵活性和适应性,可以像动物一样在各种地形完成行走任务[3–4].根据足数量的不同可以将足式机器人进行分类,相较于双足机器人和六足机器人,四足机器人在结构上具备更稳定和更易控制的优点.正因此四足机器人在医疗、物资运输、环境勘探和资源采集等场景中具备很大的应用前景.通过人为指定运动速度的方式,使机器人具备像动物一样的行走姿态[5],这种方法需要人为设置控制器.然而,这种控制器的设计流程更为繁琐,特别是针对机器人的系统和腿部的控制器,不仅对设计者的专业知识水平有较高的要求,而且,在实际应用过程中,控制器的具体参数也需要反复调整和试验[6–7].强化学习[8]具备让智能体自己学习的能力,近年来该技术在各应用领域蓬勃发展[9–11].在机器人设计、操作、导航和控制等方面,也以此为基础不断拓展[12–13].为了解决传统的基于人工设计的控制器存在的问题,越来越多的研究使用强化学习来代替原有设计方式[14],Kohl和Stone[15]在底层控制器设计完善的基础上,通过强化学习调整控制器参数,训练出了四足机器人Aibo的行走控制策略,代替原有的手动设置参数的过程,并且由强化学习训练的步态行走速度快于当时手动调参可达到的最快步态;Peng等人[6]先对动物的动作进行捕捉,得到四足机器人目标动作,之后利用强化学习来让四足机器人完成目标动作,实现了让机器人通过模仿动物来学习运动技能;ETH团队[16]引用策略调整轨迹生成器(policies modulating trajectory generators,PMTG)架构,即设计一个轨迹生成器作为先验,再通过强化学习对前面轨迹生成器进行调整,其中应用了课程学习[17],教师策略中通过编码器将视觉信息和本体感知信息融合编码成隐变量,再让学生策略通过机器人的历史状态来提取隐变量得到机器人的控制策略,并通过在机器人建模时使用随机化处理和训练神经网络电机模型实现了将强化学习算法实际部署在物理机器人上,完成了多种地形上的鲁棒性行走[18–20].上述研究或通过良好的运动先验知识或通过精心设置的奖励函数实现了机器人步态学习和在物理机器人上的部署,然而如何在少量运动先验前提下,通过简单奖励函数快速有效地学会四足机器人步态仍是一个正在面临的挑战.本文在Shi等人的研究[21]基础上,提出一种基于生物启发的元近端策略优化(meta proximal policy opti-mization,MPPO)算法,在有运动先验知识的情况下,仅通过简单奖励函数来快速学习机器人行走技能,和现有强化学习算法柔性行动者评价器(soft actor-critic, SAC)和近端策略优化(proximal policy optimization, PPO)的对比试验结果来看,本文的算法具备一定程度的有效性.2算法设计2.1近端策略优化算法对于机器人系统,策略梯度(policy gradient)算法针对连续动作空间的任务,可取得显著成效,传统策略梯度算法的基本思想是通过最大化状态价值(value)函数Vπ(s)来更新策略(policy)函数,即直接去优化策略网络,更新策略函数的损失函数被定义为L(θ)=∑logπ(a|s;θ)f(s,a),(1)其中f(s,a)为在状态s下采取动作a的评估,策略的梯度表示为g(θ)=E[∞∑t=0φt∇θlogπθ(a t|s t)],(2)最后通过式(3)更新参数θθ←θ+αg(θ).(3)其中φt有多种计算方法,通常被表示为优势函数(adv-antage function),如式(4)所示,作为一个衡量当前动作好坏的标准,如结果为正,证明当前动作a在此策略下要更好,并且之后提高此动作的概率以优化策略,即Aπ(s t,a t)=Qπ(s t,a t)−Vπ(s t),(4)将式(4)代入式(2)得到g(θ)=E[∞∑t=0∇θlogπθ(a t|s t)Aπ(s t,a t)].(5)然而,传统的策略梯度算法在计算式(4)–(5)时会因偏差和方差的问题导致无法准确估计优势函数.以下考虑两种极端情况,以整条轨迹来估计优势函数时虽然不会有偏差,但是会有高方差的问题,即过拟合;假如以单步更新,虽然不会有方差,但会有很大的偏差,即欠拟合.因此,需要在这两种极端情况中间找到一个平衡,但是优势函数估计的偏差是无法避免的,导致算法性能对更新步长十分敏感,假如一次更新步长过大,将可能会导致下次采样完全偏离,也就导致策略偏离到新的位置,从而形成恶性循环.为了解决这个问题,PPO算法[22]在信任域策略优化(trust region pol-icy optimization,TRPO)[23]的基础上被提出.PPO算法在策略梯度这个同策略(on-policy)算法的基础上引入了重要性采样(importance sampling),将其变成了一个近–异策略(near off-policy)的算法.第1期朱晓庆等:融合元学习和PPO 算法的四足机器人运动技能学习方法157E x ∼p (x )[f (x )]=p (x )f (x )d x =q (x )p (x )q (x )f (x )d x =E x ∼q (x )[p (x )q (x )f (x )].(6)上式为重要性采样过程,将式(6)代入式(5)得到ˆg t =ˆEt [πθ(a t |s t )πθold (a t |s t )πθ(a t +1|s t +1)πθold (a t +1|s t +1)...πθ(a T |s T )πθold (a T |s T )∇θlog πθ(a t |s t )log ˆA t ],(7)只计算t 时刻的梯度公式就变为了ˆg t ≈ˆE t [πθ(a t |s t )πθold (a t |s t )∇θlog πθ(a t |s t )log ˆA t]=ˆEt [πθ(a t |s t )πθold (a t |s t )∇θπθ(a t |s t )πθ(a t |s t )ˆA t ]=ˆE t [∇θπθ(a t |s t )πθold (a t |s t )ˆA t ],(8)于是损失函数由式(1)变成了L (θ)=ˆEt [πθ(a t |s t )πθold (a t |s t )ˆA t ].(9)作为一个策略梯度算法的优化算法,PPO 算法核心思想是通过对式(9)引入截断(CLIP)限制更新幅度,让每次策略更新后落在一个信任域(trust region)里,以此解决了更新步长的问题,PPO 算法的损失函数如式(10)所示:L CLIP (θ)=ˆEt [min(πθ(a t |s t )πθold (a t |s t )ˆA t ,CLIP(πθ(a t |s t )πθold (a t |s t ),1−ϵ,1+ϵ)ˆA t )],(10)其中:ϵ是超参数,用来限制更新的大小;ˆAt 是优势函数在t 时刻的估计值.最终训练时的损失函数为L (θ)=ˆEt [L CLIP (θ)+c 1L VF (θ)−c 2S [πθ](s t )],(11)其中:c 1,c 2为系数,S 为熵,L VF (θ)是平方误差损失(V θ(s t )−V targ t )2.与TRPO 算法相比,PPO 的超参数较少,在计算上更易实施,且效果更好,因而受到广泛的关注和应用.2.2MPPOPPO 具有在大部分实验环境中有很好效果且具有较少超参数的优势,但是在多维输入输出场景下,如本文涉及的四足机器人步态学习任务实验环境中的呈现效果一般,且容易收敛到局部最优,表现为步态节律信号杂乱、重心震荡严重.为此,本文在融合元学习的基础上提出了MPPO 算法.不可知模型元学习(Model-agnostic meta-learning,MAML)[24–25]由元学习(meta learning)引出,元学习优势体现在可快速适应新任务且减轻过拟合现象.从特征学习角度看,元学习训练的模型参数通过少量梯度更新能在新任务上产生良好结果,这样的过程可被视为构建广泛适用于许多任务的模型本质表示.从系统角度看,元学习是最大化了新任务损失函数对参数的敏感性:灵敏度较高时,参数微小局部变化可导致任务损失的大幅改善.本文提出的MPPO 算法,融合元学习和强化学习思想,即不是找到当前观测下的最佳参数,而是希望找到可以广泛适应在不同观测上采样到的数据上的参数,让四足机器人遵循奖励函数学习到运动技能的本质,获得更高奖励值并达到更优步态.其算法伪代码和框图如表1和图1所示.表1算法1:MPPO 算法伪代码Table 1Pseudocode输入:49维观测向量.输出:12维动作向量.1初始化θ,θ′,设置α;2while 不收敛do3使用πθ策略和环境交互T 步,收集D =(s,a π(θ),r );4通过策略梯度下降方法更新参数得到预更新参数θ′,即θ′=θ−α∇θL (πθ),其中的L (πθ)使用式(2)计算;5使用πθ′策略和环境交互T 步,收集D =(s,a πθ′,r );6通过梯度策略下降法更新参数θ,即θ=θ−α∇θ′L (πθ′),其中的L (πθ′)使用式(2)计算.7end图1算法框图Fig.1Algorithmic flowchart首先,使用全局策略πθ0和环境交互,并通过PPO算法流程更新参数得到预更新的参数θ′.由于PPO 策略的输出动作是一个高斯分布的采样结果,其训练方向会很多样.通过πθ′0和环境的交互收集到的D 0[s,a (πθ′0),r,s ′]作为数据用于更新策略πθ0,这步可以看作一个有预见性和兼顾性的预更新,对应了元学习中通过单个任务的训练误差更新一个中间策略,通过中间策略把当前任务上的测试误差作为元学习训练误差的更新方法,即不追求当前状态下的最优方向,转为追求下一状态下的优势方向,以此更新全局策略.在本文中,PPO 算法的演员(actor)和评判家(critic)网158控制理论与应用第41卷络都采用了长短期记忆网络(long short-term memory,LSTM)[26]网络,相比多层感知器(multilayer perce-ptron,MLP)网络,其对像机器人系统这样序列型的输入有更好效果.3实验3.1实验对象本文使用pybullet物理引擎[27]在gym环境中进行模拟实验,机器人为Laikago,它是一个12自由度的四足机器人,每条腿有3个自由度,分别为髋关节、摆动关节和膝关节,控制频率为38Hz,其身体参数即各关节活动范围如表2所示.表2四足机器人身体参数Table2Body parameters of quadruped robot身体参数数值正常站立尺寸/cm370×270×295整机质量/kg11关节自由度12髋关节活动范围/(◦)−46∼46摆动关节活动范围/(◦)−60∼240膝关节活动范围/(◦)−154.5∼−52.53.2实验设计为了验证本文MPPO算法有效性,将此算法和传统SAC[28]和PPO算法进行对比实验,实验设置如下.3.2.1奖励函数在强化学习问题中,奖励函数可以被视为智能体的目标,在智能体与环境交互的每一个时刻中,当遇到状态时,智能体会根据策略选择一个动作(action),同时由设定的奖励函数给出一个奖励值(reward),而智能体的目标就是学习到一个策略来最大化这个奖励,因此这个奖励函数的设置应与想达到的训练目标相匹配,通过奖励函数来教会智能体一个期望的技能或者说引导智能体的策略向期望的目标上发展.在本文使用的策略梯度算法中,首先通过设计奖励函数引导价值函数向其靠拢,再通过价值函数来引导策略进行学习,以此让机器人学习到期望的行走技能.为了让机器人学会平稳快速节能的行走,奖励函数被设计为r t=c1r vt +c2r et+c3r st,(12)其中c1,c2和c3为各部分奖励函数之间的系数.r v t =X t−X t−1t,(13)其中:X t代表机器人所处位置,t为根据控制频率计算的时间,这部分的奖励函数是为了鼓励机器人朝着期望的方向前进并且速度越快越好.r e t =E t,(14)其中E t代表能耗,这部分的奖励函数是通过负的系数来促使机器人兼顾能耗问题.r st=[1−tan(roll2+pitch2)],(15)其中:roll和pitch为机器人惯性运动单元(Inertial mo-tion unit,IMU)测得的俯仰角和横滚角,这部分的奖励通过一个双曲正切函数来引导机器人以更平稳的姿态行走.3个系数的大小影响了3个部分在奖励函数中的重要程度,通过这3部分奖励之间相互制约,机器人学会了一种兼顾速度稳定和低能耗的行走技能.3.2.2训练流程本文实验训练流程图如图2,为了加速训练过程,采用类似文献[14]的实验框架,受残差控制[29]启发,机器人输出由a cpg(t)和a mppo(t)两部分构成,a cpg(t)作为运动先验知识输出一个周期性的节律信号[30];a mppo(t)作为残差信号,其中a mppo(t)策略的输入即状态是49维的由3部分构成:1)12维的运动先验中枢模式发生器(Central pattern generators,CPG)参数;2)34维的机器人状态信息,其中24维是机器人的电机信息,包含4条腿的髋关节和2个膝关节的角度和速度,6维机器人质心姿态信息包含位姿(俯仰,横滚,偏航)与加速度(x,y,z3个方向)各3项,4维的足端接触检测信息(检测每条腿是否触地);3)3维机器人的位置信息(包括x,y,z3方向的位移).输出即动作是12维的期望位置,即每条腿髋关节和2个膝关节电机的期望位置,叠加成为机器人的动作输出.动作合成后,由比例微分控制(Proportion Differential,PD)控制器来跟踪实现对机器人腿部的控制.为了维持训练过程稳定性,两部分的动作网络采取分时训练[21]方法,即训练过程中先固定a cpg(t)网络的参数,并根据MPPO的算法流程更新a mppo(t)的参数,当交互够N步后,固定a mppo(t)的网络参数,通过进化算法对a cpg(t)进行更新,当一个网络参数进行训练的时候另一个网络就维持参数停止训练.图2训练流程图Fig.2Trainingflowchart4实验结果本实验使用笔记本电脑,训练过程中每2048步作为一个回合(episode),并在每个回合结束时进行一次第1期朱晓庆等:融合元学习和PPO 算法的四足机器人运动技能学习方法159评估.按照第3节设计的实验流程进行训练1,训练过程中四足机器人的行走步态和身体数据如图3–4所示.图3四足机器人行走步态学习过程截图,其中(a)–(c)为训练初期,(d)–(f)为训练末期Fig.3Screenshot of quadruped robot walking gait learningprocess.At the beginning of training,it appears as (a)–(c),and at the end of training,it appears as(d)–(f)图4训练前后机器人行走质心高度变化曲线Fig.4Height variation curve of robot walking centroid beforeand after training从图3(a)–(c)和图4可看出,在训练初期,四足机器人步态非常不稳定,身体上下晃动幅度在0.21到0.26之间,呈现较大且不规律的晃动,无法以正常姿态前进.随着训练进行300个回合时,机器人步态及身体数据如图3(d)–(f)和图4所示.可看出,在训练完成时,机器人的步态呈现出对角接触步态,行走过程中,身体的上下晃动幅度较小,在0.24到0.265之间,高于刚开始训练质心高度并呈现稳定的节律行走步态.该训练结果是由奖励函数中的r st 引导而来.对比上图训练开始时和训练结束时机器人行走质心高度的变化可看出,训练完成后机器人行走时更稳定且质心高度更高.图5是训练过程中的奖励值,从中可以看出,本文提出的MPPO 算法在四足机器人步态学习的任务中,奖励值可以从零开始迅速上升,大约到75个回合时,收敛于4000左右,75回合之间的过程是四足机器人从初始状态开始学习到可以初步完成行走任务的过程,训练回合超过75回合之后,奖励值缓慢上升至4500左右,并且策略趋于收敛,代表完成行走步态的学习.图5训练过程奖励值Fig.5Rewards during training图6和图7分别是机器人行走距离和行走偏移变化曲线,横坐标为回合数量,纵坐标分别为训练过程中机器人行走距离(每一次评估最多进行500步)和行走偏移量,虚线为期望前进方向即0偏移.图6中看出,本文提出的MPPO 算法在行走距离上从零开始迅速上升,在20个回合左右行走距离达到12左右,并在后续逐渐波动,最终在250个回合左右收敛至11.偏移量在100到150回合中逐渐变大,在150到200步逐渐变小,最终在300步时收敛到–0.1左右.这种笔直前进步态是由奖励函数中r vt 部分引导而来的.图6机器人行走距离变化曲线Fig.6Variation curve of robot walking distance1训练过程视频:https:///video/BV1Q24y117EQ/?vd source=4b5a3b89f1ef3731413895e73cb00b7e.160控制理论与应用第41卷图7机器人行走偏移变化曲线Fig.7Variation curve of robot walking deviation5讨论与总结5.1讨论为了验证本文算法的优势,本文将传统的PPO 算法和传统的SAC 算法与MPPO 算法进行了对比试验.在四足机器人步态的全部训练过程中,每2048步设置为一个回合,并且在每一个回合进行一次数据评估,实验结果如图8所示.图8机器人质心高度变化曲线Fig.8Height variation curve of robot centroid训练完成后分别对3种算法训练出的四足机器人步态进行行走测试2,图8为机器人行走测试中质心高度的变化,可看到本文提出的MPPO 算法训练结果相比较于传统PPO 算法和SAC 算法,行走步态质心起伏幅度更小,说明本文提出的MPPO 算法训练出的四足机器人步态有更好的稳定性;并且MPPO 算法训练的行走步态的质心高度整体高于传统的SAC 和PPO 算法,说明其行走步态使机器人在行走过程中拥有腿伸展程度更高,因此可以迈出更大的步伐.图9为训练过程中机器人行走的距离曲线,横坐标为回合数量,纵坐标为评估一次机器人行走的距离(每一次评估最多进行500步).从图中可看出,本文提出的MPPO 算法在行走距离上从零开始迅速上升,在20个回合左右行走距离达到12左右,并在后续逐渐波动,最终在250个回合左右收敛至11.相较于传统SAC 算法在20–50个回合行走距离从6上升至10,最终收敛至9.和传统PPO 算法在前100个回合有起伏最终收敛于6左右的实验结果.在相同上限步数的情况下,行走更远的距离就相当于拥有更大的步长和更快的速度,此实验结论和对比机器人行走时质心高度变化曲线得到结论相同,即本文提出的MPPO 算法训练出的行走步态有更大的行走步长和更好的稳定性.图9训练过程机器人行走距离曲线Fig.9Walking distance curve of robot during training从图10中可看出,本文提出的MPPO 算法在四足机器人步态学习的任务中,奖励上升幅度大,且最终收敛时的奖励值最高.图10训练过程奖励值Fig.10Rewards during training23种算法训练出的机器人步态对比视频:https:///video/BV17M411r7Ri/?vd source=4b5a3b89f1ef3731413895e 73cb00b7e.第1期朱晓庆等:融合元学习和PPO算法的四足机器人运动技能学习方法161而传统的SAC算法在有先验知识的基础上奖励值先降低后缓慢升高,大约到100回合的时候,奖励值收敛到3000左右,训练效果略低于本文提出算法;传统PPO算法在训练过程中奖励值略微升高后就急剧下降,收敛至2000左右陷入局部最优,训练效果远小于传统SAC算法和本文提出的MPPO算法,由上可知,本文所提出的算法在四足机器人步态学习的任务中效果优于传统的强化学习算法.5.2总结为阐明复现高等生物的运动技能学习机理,本文以四足机器人为研究对象,基于强化学习框架探究四足机器人技能学习算法,鉴于元学习具有刻画学习过程高维抽象表征优势,本文将元学习引入了PPO算法,提出了一种MPPO算法.以四足机器人行走步态作为任务进行学习训练,仿真实验结果验证了该算法可行性.本文提出的算法,仅需简单设计的奖励函数即可使得四足机器人学会走起来,并且相比较于SAC算法和PPO算法,本文的MPPO算法不仅在训练速度上有一定的优势,并且训练出的步态也呈现更佳效果,如其质心姿态更加平稳,震荡小.对比实验结果表明本文提出的MPPO算法具有兼顾性和预见性优势,可以解决四足机器人步态学习过程中出现的局部最优问题,学习到更优步态.后续将继续在MPPO算法中引入动态奖励函数,以获得更快的收敛速度以及更稳健的更新方向,并且在多地形任务上进行实验.在完成仿真实验后,将进行实物实验.参考文献:[1]MENG X G,WANG S,CAO Z Q,et al.A review of quadruped robot-s and environment perception.The35th Chinese Control Conference (CCC).Chengdu,China:IEEE,2016:6350–6356.[2]RUBIO F,V ALERO F,LLOPIS A C.A review of mobile robots:Concepts,methods,theoretical framework,and applications.Inter-national Journal of Advanced Robotic Systems,2019,16(2):1–22.[3]ZHONG Y H,WANG R X,FENG H S,et al.Analysis and researchof quadruped robot’s legs:A comprehensive review.International Journal of Advanced Robotic Systems,2019,16(3):1–15.[4]ZHUANG H C,GAO H B,DENG Z Q,et al.A review of heavy-dutylegged robots.Science China Technological Sciences,2014,57(2): 298–314.[5]GONC¸ALVES R S,CARV ALHO J C M.Review and latest trends inmobile robots used on power transmission lines.International Jour-nal of Advanced Robotic Systems,2013,10(12):408.[6]PENG X B,COUMANS E,ZHANG T N,et al.Learning agile robot-ic locomotion skills by imitating animals.ArXiv Preprint,2020:arX-iv:2004.00784.[7]CHEN Guangrong,GUO Sheng,HOU Bowen,et al.Motion controlof redundant hydraulic driven quadruped robot based on extended Ja-cobian matrix.Control Theory&Applications,2021,38(2):213–223.(陈光荣,郭盛,侯博文,等.基于扩展雅可比矩阵的冗余液压驱动四足机器人运动控制.控制理论与应用,2021,38(2):213–223.)[8]SUTTON R S.Introduction:The challenge of reinforcement learn-ing.Reinforcement Learning.Boston,MA:Springer,1992:1–3.[9]WEN Jianwei,ZHANG Li,DUAN Yanduo,et al.Activefloor controlin data center based on model deep reinforcement learning.Control Theory&Applications,2022,39(6):1051–1056.(温建伟,张立,段彦夺,等.基于模型深度强化学习的数据中心主动地板控制.控制理论与应用,2022,39(6):1051–1056.)[10]QIN Rui,ZENG Shuai,LI Juanjuan,et al.Parallel enterprise re-source planning based on deep reinforcement learning.Acta Auto-matica Sinica,2017,43(9):1588–1596.(秦蕊,曾帅,李娟娟,等.基于深度强化学习的平行企业资源计划.自动化学报,2017,43(9):1588–1596.)[11]YU Shengping,HAN Xinchen,YUAN Zhiming,et al.Dynamic trainscheduling method for high speed rail based on strategy gradient rein-forcement learning.Control and Decision,2022,37(9):2407–2417.(俞胜平,韩忻辰,袁志明,等.基于策略梯度强化学习的高铁列车动态调度方法.控制与决策,2022,37(9):2407–2417.)[12]KHAN M A,KHAN M R J,TOOSHIL A,et al.A systematic re-view on reinforcement learning-based robotics within the last decade.IEEE Access,2020,8:176598–176623.[13]ZOU Qijie,LIU Shihui,ZHANG Yue,et al.Rapid exploration ofrandom tree path reprogramming algorithm based on reinforcemen-t learning in special environments.Control Theory&Applications, 2020,37(8):1737–1748.(邹启杰,刘世慧,张跃,等.基于强化学习的快速探索随机树特殊环境中路径重规划算法.控制理论与应用,2020,37(8):1737–1748.)[14]WANG J Y,HU C X,ZHU Y.CPG-based hierarchical locomotioncontrol for modular quadrupedal robots using deep reinforcement learning.IEEE Robotics and Automation Letters,2021,6(4):7193–7200.[15]KOHL N,STONE P.Policy gradient reinforcement learning for fastquadrupedal locomotion.Proceedings of the IEEE International Con-ference on Robotics and Automation.New Orleans,LA:IEEE,2004: 2619–2624.[16]ISCEN A,CALUWAERTS K,TAN J,et al.Policies modulating tra-jectory generators.ArXiv Preprint,2019:arXiv:1910.02812.[17]CHEN D,ZHOU B,KOLTUN V,et al.Learning by cheating.ArXivPreprint,2019:arXiv:1912.12294.[18]HWANGBO J,LEE J,DOSOVITSKIY A,et al.Learning agile anddynamic motor skills for legged robots.Science Robotics,2019, 4(26):eaau5872.[19]LEE J,HWANGBO J,WELLHAUSEN L,et al.Learning quadrupe-dal locomotion over challenging terrain.Science Robotics,2020, 5(47):eabc5986.[20]MIKI T,LEE J,HWANGBO J,et al.Learning robust perceptive lo-comotion for quadrupedal robots in the wild.Science Robotics,2022, 7(62):eabk2822.[21]SHI H J,ZHOU B,ZENG H S,et al.Reinforcement learning withevolutionary trajectory generator:A general approach for quadru-pedal locomotion.IEEE Robotics and Automation Letters,2022,7(2): 3085–3092.[22]SCHULMAN J,WOLSKI F,DHARIWAL P,et al.Proximal policyoptimization algorithms.ArXiv Preprint,2017:arXiv:1707.06347.。
柔性作业车间鲁棒调度与预防性维护集成优化
第6期2018年6月组合机床与自动化加工技术ModularMachineTool&AutomaticManufacturingTechniqueNo.6Jun.2018文章编号:1001-2265(2018)06-0159-04㊀㊀㊀㊀DOI:10.13462/j.cnki.mmtamt.2018.06.040收稿日期:2017-07-03ꎻ修回日期:2017-08-01㊀∗基金项目:国家自然科学基金项目(71661004)ꎻ装备制造企业基于项目驱动供应链的协同生产计划与控制策略研究(贵大人基合字201号)作者简介:路光明(1991 )ꎬ男ꎬ河南商丘人ꎬ贵州大学硕士研究生ꎬ重庆京东方电科技有限公司工程师ꎬ研究方向为生产计划与调度ꎬ(E-mail)luguangming8@163.comꎮ柔性作业车间鲁棒调度与预防性维护集成优化∗路光明1ꎬ2ꎬ贺庆仁2ꎬ徐建萍2ꎬ陈文娟2(1.重庆京东方电科技有限公司ꎬ重庆㊀400700ꎻ2.贵州大学管理学院ꎬ贵阳㊀550025)摘要:对柔性作业车间生产过程中预防性维护难以有效避免机器故障的发生ꎬ并且还存在各种无法预测的随机事件的问题进行了研究ꎮ为了有效应对这种情况ꎬ提出了多目标柔性作业车间鲁棒性调度与预防性维护的集成优化模型和在空闲时间进行预防性维护的策略ꎬ同时优化加工周期㊁机器可用性和调度方案的鲁棒性ꎮ应用多目标遗传算法NRGA对模型求解ꎬ并针对柔性作业车间调度问题的特点ꎬ采用三层编码方法ꎮ采用有效的交叉和变异操作避免产生非法解ꎮ最后通过模拟随机事件的发生进行仿真实验ꎬ结果表明提出的模型㊁维护策略和求解算法能够有效地提高生产效率㊁维护机器可用性㊁避免实际调度性能的恶化ꎮ关键词:柔性作业车间调度ꎻ鲁棒调度ꎻ预防性维护ꎻ多目标遗传算法中图分类号:TH165ꎻTG659㊀㊀㊀文献标识码:AIntegratedOptimizationforRobustSchedulingandPreventiveMaintenanceinFlexibleJobShopLUGuang ̄ming1.2ꎬHEQing ̄ren2ꎬXUJian ̄ping2ꎬCHENWen ̄juan2(1.BOEꎬChongqing400700ꎬChinaꎻ2.SchoolofManagementꎬGuizhouUniversityꎬGuiyang550025ꎬChina)Abstract:Intheflexiblejobshopproductionprocessꎬpreventivemaintenanceisdifficulttoeffectivelyavoidtheoccurrenceofmachinebreakdownsꎬandtherearestillavarietyofunpredictablerandomevents.Tosolvetheproblemsefficientlyꎬtheintegratedoptimizationmodelofrobustmulti ̄objectiveflexiblejobshopschedulingandthepreventivemaintenanceandthestrategythatinthesparetimetocarryoutthepreventivemaintenanceareproposedꎬwhichcombinetheimprovementofthemakespanꎬthemachineavailabilityandtherobustnessofschedulingscheme.Themulti ̄objectivegeneticalgorithm ̄NRGAisusedtosolvethemod ̄el.Inviewofthecharacteristicsoftheflexiblejobshopschedulingproblemꎬthethreelevelcodingmethodisadopted.Effectivecrossoverandmutationoperationsareusedtoavoidanillegalsolution.Finallyꎬsimu ̄lationexperimentsareconductedtoshowthattheproposedmodelcaneffectivelybalancetheeffectivenessandavailabilityofresourcesandavoidthedeteriorationoftheactualschedulingperformance.Keywords:flexiblejobshopschedulingꎻrobustschedulingꎻpreventivemaintenanceꎻmulti ̄objectivegeneticalgorithm0㊀引言传统的调度理论总是假设问题的所有参数均固定不变ꎬ然而实际生产过程中存在各种不确定事件ꎬ如机器故障或资源短缺等ꎮ不确定事件发生后ꎬ通常进行再调度对原调度方案修正ꎬ然而再调度与原调度之间存在的偏差会对先期的人㊁物㊁财力投入造成废弃[1]ꎮ在所有的不确定因素中ꎬ机器故障是最常见的一种ꎮ与机器发生故障后的维修相比ꎬ预防性维护更加合理有效ꎬ能更大程度地减轻机器故障对整个系统的影响[2]ꎮ许多学者对设备维护和生产调度的集成优化问题进行了研究ꎮWang等研究了两阶段混合流水车间的生产调度与预防性维护(PM)的集成优化问题ꎬ同时优化加工周期和第一阶段的机器可用性[3]ꎮMoradi等采用在固定时间段内进行预防性维护的策略ꎬ以最大完工时间和系统不可用率为优化目标进行柔性作业车间的车间调度与预防性维护的集成优化研究[4]ꎮ宋文家等采用可靠度降低到阈值的时候安排预防性维护的策略ꎬ进行柔性作业车间调度与预防性维护的集成优化研究ꎬ优化目标为最大完工时间㊁生产总成本和平均维护成本[2]ꎮ然而ꎬ上述文献仅仅考虑了机器故障这一种随机事件ꎬ并且车间调度与预防性维护的集成虽然可以一定程度上缓解机器故障给生产调度带来的影响ꎬ但由于机器故障发生规律难以准确预测ꎬ因此预防性维护无法完全避免机器故障的发生ꎬ而且生产过程中还有很多其他不可预测的随机事件ꎮ为应对各种不确定因素ꎬ许多学者进行了柔性作业车间的鲁棒性调度研究[5]ꎮ因此本文旨在提出一种将柔性作业车间的鲁棒性调度与预防性维护联合决策的方法ꎬ并利用多目标优化方法[6 ̄9]构建鲁棒性调度与预防性维护的集成优化模型ꎬ同时优化加工周期㊁机器可用性和调度方案的鲁棒性ꎬ继而基于NRGA(NON ̄DOMINATEDRANKEDGENETICALGORITHM)进行求解ꎬ从而有效地提高生产效率㊁维护生产设备的可用性㊁避免实际调度性能的恶化ꎮ1㊀问题描述1.1㊀柔性作业车间问题描述nˑm的柔性作业车间调度问题可以描述为:n个待加工工件Jj((j=1ꎬ2ꎬ n)在m台机器Mk(k=1ꎬ2ꎬ m)上加工ꎬ每个工件Jj有nj道工序(nj>=1)ꎬOiꎬj表示工件Jj的第i道工序ꎬ每道工序Oiꎬj可由一台或多台机器加工ꎬ其加工机器集合为Miꎬj⊆{M1ꎬM2ꎬ Mm}ꎬ工序在不同的机器上加工具有不同的加工时间ꎬ每个工件的加工工序预先已经确定ꎮFJSP还存在以下约束条件:一个工件同一时刻只能由一台机器加工ꎻ一台机器同一时刻只能加工一个工件ꎻ机器之间没有优先级ꎻ不考虑机器准备时间ꎻ机器在零时刻均可用ꎻ工件在零时刻均可用ꎻ工件之间具有相同的优先级ꎻ同一工件的工序之间有着确定的工艺路线ꎻ不同工件工序的加工顺序没有先后约束ꎻ不考虑工件在机器之间的搬运时间ꎮ假设所有机器的预防性维护时间为固定值dꎮ预防性维护策略为:确定好调度方案之后寻找机器的空闲时间段(SPT)ꎬ若SPTȡdꎬ则在该时间段内进行维护ꎮ这种策略能充分利用机器的空闲时间ꎬ从而有效避免预防性维护造成的加工周期的延长ꎮ图1中方案a和方案b分别是文献[9]中3个工件和3台机器的3ˑ3问题的两种调度方案ꎮ1.2㊀优化目标在调度层面本文选择加工周期作为优化目标ꎮ所以第一个目标函数为:f1=min(makespan)=min(Cmax)(1)Cmax图1㊀两种预调度方案在预防性维护层面ꎬ假设所有机器故障服从同一指数分布ꎬ故障率为λMꎬ修复率为μMꎬ并且假设0时刻机器不会发生故障ꎬ预防性维护后机器恢复到初始状态ꎮ本文采用文献[3]提出的机器可用性指标来衡量预防性维护的效果ꎬ并以此作为优化目标之一ꎮ基于以上假设ꎬ从0时刻开始ꎬ机器M在时刻t的可用性如下式所示:AM(t)=μMμM+λM+λMμM+λMexp[-(μM+λM)t](2)若令T为前一次预防性维护的完成时刻ꎬ则:AM(t)=μMμM+λM+λMμM+λMexp[-(μM+λM)(t-T)](3)则机器M在时刻t的不可用性为:bM(t)=1-AM(t)(4)基于上文提出的预防性维护策略对调度方案安排预防性维护计划ꎮ令Tpoint(k)={0ꎬt1ꎬt2ꎬ trꎬCmax}ꎬt1ꎬt2ꎬ tr指机器Mk的预防性维护的开始时间ꎬr为预防性维护次数ꎬtr+1=Cmax指机器k最后一个工序的完工时间ꎬ因为机器的不可用性是一个增函数ꎬ并且预防性维护后机器恢复到初始状态ꎬ所以只在时刻t1ꎬt2ꎬ tr+1处计算机器的不可用性ꎬ则机器Mk的不可用性如式(5)所示ꎬBM为所有机器的不可用性ꎮBM(k)=ðr+1i=1bM(ti)(5)BM=min(ðmk=1BM(k))(6)则第二个优化目标函数为:f2=min(BM)(7)鲁棒性调度是一种以鲁棒性指标为优化目标的调度方式ꎬ鲁棒性越高ꎬ实际调度方案与预调度方案越接近ꎮ虽然在生产实际中ꎬ机器故障时间不容易准确预测ꎬ但能够肯定的是如果某台机器的总负荷非常大ꎬ那么一旦发生故障或其它随机事件ꎬ那么其完工时间受到的影响也是最大的ꎮ以图1中的方案a㊁b为例ꎬ加工周期分别为4和5ꎮ但是若假设机器M3在[3ꎬ4]时间段内发生故障并进行维修ꎬM1在[2ꎬ3]时间段发生故障并维修ꎬ发生机器故障后将直接或间接受到影响的工序右移ꎬ重新调度后的方案如图2中方案c和方案dꎮ方案a重新调度后的加工周期由4延长为5ꎬ并且由于故障的发生ꎬ工序O3ꎬ2㊁O2ꎬ3和O3ꎬ2均受到了影响ꎬ而对于方案bꎬ由于机器故障均发生在机器的空闲时间段内ꎬ所以方案b没有受到机器故障的影响ꎮ因此ꎬ本文借鉴张国辉[5]根据柔性作业车间调度问题的特点ꎬ基于每台机器的空闲时间和加工负荷的比值提出的一种鲁棒性指标ꎬ如式(8)ꎮ因为本文的优化目标是最小化加工周期ꎬ为了与此取得一致性ꎬ将式(8)变形为式(9)ꎮRm=ðmk=1IkWk(8)RM=1Rm(9)式中ꎬIk表示机器k加工周期内的空闲时间ꎬWk表示机器k在加工周期内的总负荷ꎮ因此本文的第三个优化目标为:f3=min(RM)(10)综上所述ꎬ本文提出的柔性作业车间多目标鲁棒性调度与预防性维修模型就是同时以式(1)㊁式(7)㊁式(10)为优化目标ꎬ在预防性维护与作业车间调度集成优化的基础上进行鲁棒性调度ꎬ很好的弥补了预防性维护无法完全避免机器故障的发生㊁生产过程中存在许多无法预测的随机事件的问题ꎮ从而更好地平衡资源的有效性和可用性ꎬ使生产过程更加顺利地进行ꎮ061 组合机床与自动化加工技术㊀第6期图2㊀机器发生故障后的重调度方案2㊀鲁棒性调度与预防性维护集成优化问题求解本文采用文献[11]的多目标优化遗传算法NRGA的流程框架ꎮNRGA基于快速非支配排序㊁计算拥挤距离并进行拥挤比较实现算法的收敛并维护pareto解集的多样性ꎮ2.1㊀染色体编码染色体编码是遗传算法中的一个重要环节ꎬ有效的编码能够节省计算时间ꎮ本文借鉴Kacem等[12]提出的三层编码方法ꎬ工件㊁工序和机器均采用自然编码方式ꎬ每个染色体有三列(jꎬiꎬk)ꎬj是工件编号ꎬi是工件j的工序编号ꎬk是加工工序Oiꎬj的机器编号ꎮ在这种编码方式下ꎬ染色体长度为所有工件的工序总数ꎮ例如上述3ˑ3问题的染色体长度为8ꎮ图3中染色体a是上述3ˑ3问题的一个染色体ꎬ第三行的基因(2ꎬ1ꎬ1)表示工件2的第1个工序在机器1上加工ꎮ2.2㊀种群初始化为了维护种群的多样性并保证收敛速度ꎬ本文采用两种种群初始化策略ꎮ策略1首先随机产生工件的加工顺序ꎬ比如上述3ˑ3问题随机产生的工件加工顺序为3 ̄2 ̄1ꎬ然后按照工件的加工顺序安排每个工件的工序顺序加工ꎬ每个工序的加工机器则从工序的可选加工机器集合里随机选取ꎮ图3中的染色体b是由策略1产生的一个染色体ꎮ考虑到维护种群的多样性ꎬ这种方法产生的初始种群比较有效ꎮ113312211122221321332233éëêêêêêêêùûúúúúúúú染色体a㊀㊀312321332211221233113122éëêêêêêêêùûúúúúúúú染色体b图3㊀染色体同时本文采用Al ̄Hinai和ElMekkawy[13]提出的启发式算法作为策略2进行种群初始化ꎮ首先随机产生工件的加工顺序ꎬ假设仍为3 ̄2 ̄1ꎬ然后将工件的工序分配到能在最早时刻完成该工序的机器上ꎮ当优化目标为加工周期时ꎬ采用这种启发式算法产生的初始种群非常有效ꎬ能够使种群快速收敛ꎮ2.3㊀遗传操作遗传算法的性能很大程度上依赖于所使用的遗传操作[3]ꎮ交叉操作对下一代种群个体的优劣和优良信息的保留起着重要的作用ꎮ变异操作是为了增大种群多样性ꎬ使种群向更好的方向进化ꎮ不同的染色体编码方式ꎬ需要不同的遗传操作ꎮ在进行遗传操作时ꎬ可能会产生不可行调度ꎬ这时需要采取修复机制将其修复为可行调度ꎮ如果遗传操作产生的均为可行调度则更加符合我们的需要ꎮ本文借鉴文献[3]采用的遗传操作:基于顺序的交叉操作(POX)和基于机器的变异操作(MBM)ꎮ这些遗传操作的优点是不会产生不可行调度ꎮ选择操作的目的是使优良个体以更大的概率保留下来ꎬ从而避免优良基因的损失ꎬ并保持种群大小的恒定ꎬ从而使种群向最优方向进化ꎮ详细的选择过程参考文献[11]ꎮ3㊀实例分析3.1㊀参数设置使用MATLAB编程ꎬ种群规模100ꎬ初始化时ꎬ由策略1产生个体50个ꎬ策略2产生个体50个ꎻ交叉率为0.8ꎬ变异率为0.3ꎻ选择操作时ꎬ轮盘赌选择个体100个ꎻ最大迭代代数为200ꎻ预防性维修时间8ˑ8问题中d=2ꎬ10ˑ10问题中d=5ꎻ机器故障率λM=0 01ꎬ机器修复率μM=0.25ꎮ3.2㊀实例验证由于没有关于多目标柔性作业鲁棒性调度与预防性维护集成优化的标准实例ꎬ本文使用文献[14]中8个工件ꎬ8个机器的8ˑ8的实例和10个工件ꎬ10个机器的10ˑ10的实例ꎬ通过将本文的预防性维护与鲁棒性调度的集成优化模型与只进行预防性维护与作业车间调度的集成优化模型比较ꎬ并采用文献[9]中的指标作为评价指标ꎬ来验证本文提出模型的的有效性和可行性ꎮ指标如下:非支配解集中解的数量(NPS)和稳定度指标(STB)ꎮSTBh=ðnumj=1ðqji=1CTijP-CTijRðnumj=1Qj(11)STB=ðnh=1STBhn(12)num为工件数量ꎬqj为工件j的工序数量ꎬCTijp为预调度方案工件j的工序的完工时间ꎬCTijR为实际调度方案工件j的工序i的完工时间ꎬOj为工件j的工序数量ꎮn为非支配解集解的数量ꎮ为了计算STB需要进行随机事件的仿真ꎮ本文采用文献[9]的仿真方法ꎬ假设所有的机器均可能受到随机事件的影响ꎮ仿真过程需要多次进行(仿真次数为Simit)ꎬ从而使指标达到一个稳定值ꎬ本文Simit=10ꎮ在随机事件仿真时假随机事件间隔时间和随机事件的处理时间均服从指数分布ꎬ均值参数分别为MT ̄BF和MTBRꎬ其计算方法为:Ag=MTTRMTBF+MTTR(13)根据文献[9]ꎬ将MTTR取值为工序的平均加工时间ꎬ本文取Ag=0.1ꎬ则在实例8ˑ8问题中ꎬMTTR=5.9796ꎬMTBF=53.8164ꎻ10ˑ10问题中MTTR=161 2018年6月㊀㊀路光明ꎬ等:柔性作业车间鲁棒调度与预防性维护集成优化5 67ꎬMTBF=51.03ꎮ为了使计算结果具有可比性ꎬ我们将BM㊁RM㊁STB和实际加工周期makespanR进行标准化处理ꎬ标准化后分别为MBM㊁MRM㊁MSTB和MmakespanRꎮMBM=ðNPSi=1(BMi-minBM)maxBM-minBM(14)其中ꎬmaxBM和minBM分别表示非支配解集中BM的最大值和最小值ꎮ对MRM㊁MSTB和MmakespanR的计算方法与MBM相同ꎮ计算结果如表1所示ꎮ为了叙述方便将本文提出的模型称为模型1ꎬ将预防性维护与作业车间调度的集成优化模型称为模型2ꎮ计算结果表明模型1虽然在指标MBM上略差于模型2:模型1中ꎬ8ˑ8问题ꎬMBM=0.4472ꎬ10ˑ10问题ꎬMBM=0.4255ꎻ模型2中8ˑ8问题ꎬMBM=0 326ꎬ10ˑ10问题ꎬMBM=0.4372ꎮ但是本文合理地假设预防性维护并不能保证机器故障不再发生并且生产过程中还有其它各种随机事件影响生产过程的顺利进行ꎬ基于此本文进行了随机事件的仿真ꎬ就稳定度指标MSTB而言ꎬ模型1明显优于模型2:8ˑ8问题中ꎬ模型1计算的MSTB=0.2092远低于模型2计算的MSTB=0.3679ꎻ10ˑ10问题中ꎬ模型1计算的MSTB=0.2448远低于模型2计算的MSTB=0.5707ꎬ就实际调度的加工周期而言ꎬ8ˑ8和10ˑ10问题中模型1计算的实际加工周期指标均优于模型2ꎻ在NPS层面ꎬ模型1也均优于模型2ꎮ表1㊀计算结果非支配解的相关指标NPSMSTBMRMMBMMmakespanR8ˑ8问题预防性维护和鲁棒性调度的集成优化360.20920.25880.44720.2319预防性维护和作业车间调度的集成优化270.36790.3260.380110ˑ10问题预防性维护和鲁棒性调度的集成优化320.24480.17660.42550.3335预防性维护和作业车间调度的集成优化150.57070.43720.3811实验结果表明本文提出的预防性维护和鲁棒性调度的集成优化模型虽然在机器不可用性指标上略差于单纯地进行预防性维护和作业车间调度的集成优化模型ꎬ但是能更加有效地应对生产过程中的不确定事件ꎬ从而能更有效地提高生产效率㊁维护机器的可用性㊁避免实际调度性能的恶化ꎮ4㊀结论本文进行多目标柔性作业车间的鲁棒性调度与预防性维护的集成优化研究ꎬ同时优化加工周期㊁机器可用性和调度方案的鲁棒性ꎬ提出了在机器空闲时间进行预防性维护的策略ꎬ并设计有效的多目标优化遗传算法对集成调度问题求解ꎮ最后ꎬ通过实例计算证明了鲁棒性调度与预防性维护集成优化模型能够有效地提高生产效率㊁维护机器的可用性㊁避免实际调度性能的恶化ꎬ因此验证了本文所提出模型㊁预防性维护策略和设计的求解算法的可行性和有效性ꎮ本文只使用了NRGA这一种算法对模型进行计算ꎬ今后还可以使用不同的算法ꎬ并采用不同的预防性维护策略制定维护计划ꎬ从而对鲁棒性调度与预防性维护的集成优化做更进一步的研究ꎮ[参考文献][1]刘乐ꎬ周泓.一种常见干扰条件下的开放式车间重调度研究[J].管理科学学报ꎬ2014ꎬ17(6):28-47.[2]宋文家ꎬ张超勇ꎬ尹勇ꎬ等.基于多目标混合殖民竞争算法的设备维护与车间调度集成优化[J].中国机械工程ꎬ2015ꎬ26(11):1478-1487.[3]WangSꎬLiuM.Two ̄StageHybridFlowShopSchedulingwithPreventiveMaintenanceUsingMulti ̄ObjectiveTabuSearchMethod[J].InternationalJournalofProductionRe ̄searchꎬ2014ꎬ52(5):1495-1508.[4]MoradiEꎬFatemiGhomiSMTꎬZandiehMꎬetal.Bi ̄Objec ̄tiveOptimizationResearchonIntegratedFixedTimeIntervalPreventiveMaintenanceandProductionforSchedulingFlexi ̄bleJob ̄shopProblem[J].ExpertSystemswithApplicationsꎬ2011ꎬ38(6):7169-7178.[5]张国辉ꎬ吴立辉ꎬ聂黎ꎬ等.考虑机器故障的柔性作业车间鲁棒调度方法[J].系统仿真学报ꎬ2016ꎬ28(4):867-873.[6]RahmatiSHAꎬZandiehMꎬYazdaniM.DevelopingtwoMulti ̄ObjectiveEvolutionaryAlgorithmsfortheMulti ̄Objec ̄tiveFlexibleJobShopSchedulingProblem[J].InternationalJournalofAdvancedManufacturingTechnologyꎬ2013ꎬ64(5-8):915-932.[7]ChiangTCꎬLinHJ.ASimpleandEffectiveEvolutionaryAlgorithmforMulti ̄ObjectiveFlexibleJobShopScheduling[J].InternationalJournalProductionEconomicsꎬ2013ꎬ141(1):87-98.[8]武福ꎬ张治娟.一种求解柔性作业车间调度问题的混合智能算法[J].组合机床与自动化加工技术ꎬ2013(5):130-134.[9]AhmadiE.AMultiObjectiveOptimizationApproachforFlexibleJobShopSchedulingProblemUnderRandomMa ̄chineBreakdownbyEvolutionaryAlgorithms[J].Computers&OperationsResearchꎬ2016(73):56-66.[10]崔维伟ꎬ陆志强ꎬ潘尔顺.基于多目标优化的生产调度与设备维护集成研究[J].计算机集成制造系统ꎬ2014ꎬ20(6):1398-1404.[11]JadaanOAꎬRajamaniLꎬRaoCR.Non ̄DominatedRankedGeneticAlgorithmforSolvingMulti ̄ObjectiveOpti ̄mizationProblems:NRGA[J].JournalofTheoreticalandAppliedInformationTechnologyꎬ2008(1):60-67.[12]KacemIꎬHammadiSꎬBroneP.Pareto ̄OptimalityAp ̄proachforFlexibleJob ̄ShopSchedulingProblems:Hybrid ̄izationofEvolutionaryAlgorithmsandFuzzyLogic[J].MathematicsandComputersinSimulationꎬ2002ꎬ60(3-5):245-276.[13]Al ̄HinaiNꎬElMekkawyTY.AnEfficientHybridizedGe ̄neticAlgorithmArchi ̄TecturefortheFlexibleJobShopSchedulingProblem[J].FlexibleServicesandManufactur ̄ingꎬ2011ꎬ23(1):64-85.[14]KacemIꎬHammadiSꎬBorneP.ApproachbyLocalizationandMulti ̄ObjectiveEvolutionaryOptimizationforFlexibleJob ̄ShopSchedulingProblems[J].IEEETransactiononSystemsꎬManandCyberneticsPartC:ApplicationsandRe ̄viewsꎬ2002ꎬ32(1):1-13.(编辑㊀李秀敏)261 组合机床与自动化加工技术㊀第6期。
可控尾靶设计
第48卷第5期2019年10月船海0程SHIP&OCEAN ENGINEERINGVol.48No.5Oct.2019DOI:10.3963/j.issn.1671-7953.2019.05.018可控尾靶设计樊贞,井中武,曾翔(中海油田服务股份有限公司物探事业部,天津300451)摘要:针对海上石油地震勘探过稈中,船体转弯时拖缆尾靶之间容易发生缠绕的问题,+川可控尾靶设计方案,利用©定在系统支撑架上的声学装置对电缆尾部位置进行实时监测,通过微处理器控制传动机构实现舵攻角的变化,实现电缆尾部位置的调节,使各可控尾靶之间的距离达到设定目标距离,避免尾部电缆发生缠绕。
关键词:可控尾靶;舵系统;翼型;传动设计;多缆勘探中图分类号:U674.38文献标志码:A文章编号:1671-7953(2019)05407244目前,为了提高勘探效率,海上石油地震勘探广泛使用多线阵拖曳系统,而目前电缆尾部的尾靶只能够定位,在船体转弯时拖缆尾靶之间容易发生缠绕;特别在拖缆间距要求较窄的作业要求时,尾靶之间发生缠绕的可能性更大,给生产造成巨大损失。
为了克服现有定位尾靶的缺点,提出了一种可控的拖缆定位尾靶,能够定位拖缆尾部位置,尤其能够控制拖缆尾部间距,避免拖缆发生缠绕。
本文提出的可控尾靶利用固定在系统支撑架上的声学装置对电缆尾部位置进行实时监测,然后通过微处理器控制传动机构的0作来实现舵攻角的变化,从而实现电缆尾部位置的调节,使各可控尾靶之间的距离达到设定目标距离,满足多缆作业的要求,从而提高生产作业的效率。
1技术方案可控尾靶主要由浮体模块、电池组模块、传动机构模块、舵模块以及尾标系统控制驱动模块组成。
浮体模块为其他模块的水上承载体,电池模块在尾标断电的情况下提供电源,传动机构模块、舵模块及尾标系统控制驱动模块提供尾标控制及控制动力。
可控尾靶的整体设计见图1。
可控尾靶区别于以往简单的浮筒式尾靶的核心在于舵的加入,而舵设计的主要关键问题有舵收稿日期:2019-07-31修回日期:2019-08-21第一作者:樊贞(1990-),女,硕士,助理0稈师研究方向:海燕系统的研发甩杯檸体II丄他純出一冷忏密也h冷接畅性I~■fCMlIL梅楼01图1可控尾靶组成示意型的选择、舵各几何要素的确定以及传动机构的设计。
如何实现文件的拖放操作
如何实现文件的拖放操作
朱培民
【期刊名称】《微计算机应用》
【年(卷),期】1998(019)004
【摘要】文件“Dragu.CPP”是能够实现文件拖放操作的C++源程序。
//源程序Dragu.CPP#include〈vcl\vcl.h〉#include〈shellapi.h〉
【总页数】2页(P253-254)
【作者】朱培民
【作者单位】中国地质大学(武汉)应用地球物理系
【正文语种】中文
【中图分类】TP311
【相关文献】
1.利用低级文件操作函数实现文本文件向数据库文件的转换 [J], 贾春光
2.C++ Builder文件拖放的实现方法 [J], 梁祎
3.Win 32中实现从资源管理器到应用程序拖放文件的方法 [J], 张春旺
4.利用HTML5拖放技术实现多文件异步上传 [J], 刘耀钦
5.用VB实现文件“拖放”功能 [J], 孟卫华
因版权原因,仅展示原文概要,查看原文内容请购买。
手拖静态横向翻倾角的测定
手拖静态横向翻倾角的测定
熊元芳
【期刊名称】《江西农机与农业工程》
【年(卷),期】1989(000)001
【总页数】4页(P8-11)
【作者】熊元芳
【作者单位】无
【正文语种】中文
【中图分类】S219.601
【相关文献】
1.女子跳马前手翻类和侧手翻类动作推手技术的比较研究 [J], 徐元玉;赵兰革;姚侠文
2.对手拖滑转率测定方法的探讨 [J], 袁任平;陈英
3.自由体操“前手翻”、“头手翻”技术教学浅议 [J], 刘兴泽
4.技巧头手翻教法探讨——站立式“头手翻”教法一得 [J], 罗庆逵;赵明
5.手拖行业再铸辉煌——1995年手拖行业经营综述 [J], 王桂英
因版权原因,仅展示原文概要,查看原文内容请购买。
虚拟环境下手部操纵物体方法探究
虚拟环境下手部操纵物体方法探究
张田田;何聚厚
【期刊名称】《计算机技术与发展》
【年(卷),期】2018(028)008
【摘要】在深入分析手部骨骼组成结构的基础上,针对Leap Motion虚拟现实体感设备下的虚拟手操纵三维虚拟物体已有的算法过于简化,操作性较差,并且手指穿透物体现象较为严重等问题,提出了一种基于包围盒碰撞检测思想的虚拟手操作物体算法.因为手部操纵三维虚拟物体具有不同的实时操纵姿态,依据手部骨骼关节点与操纵的三维物体之间的接触点,建立了不同姿态下的三维非规则多面体模型,并依据模型给出了求解虚拟三维物体目标位置的解决方案.同时,通过使用Unity3D游戏引擎构建了虚拟实验平台,实现了虚拟手在不同姿态下对不同虚拟物体的捏取、抓取等操作功能,验证了算法的实时性和可用性,为设计基于Leap Motion的人机交互游戏提供了参考.
【总页数】5页(P196-200)
【作者】张田田;何聚厚
【作者单位】陕西师范大学计算机科学学院,陕西西安710119;陕西师范大学现代教学技术教育部重点实验室,陕西西安710062
【正文语种】中文
【中图分类】TP391.9
【相关文献】
1.网络虚拟环境中两运动物体安全避障互寻相遇的一种算法及实现 [J], 唐文政;白成杰
2.虚拟环境下物体的手抓取 [J], 周炜;易建军;郑建荣;刘继红
3.虚拟环境中物体物理特性的表示与处理 [J], 王兆其;赵沁平;汪成为
4.沉浸式虚拟环境中操纵技术的评述 [J], 叶琳;钟云晴;邱龙辉
5.飞行物体虚拟环境仿真系统的研究 [J], 管华;王双亭;王净
因版权原因,仅展示原文概要,查看原文内容请购买。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
拖放操作研究(Drag)张文韬
拖放操作研究(Drag) Windows本身就支持大量的拖放操作,这样就创造了很好的用户体验。
看了同类的一些软件,也在一些地方支持拖放操作,的确让使用软件变得比较方便,所以我们也打算在软件中尽可能的支持拖放操作,毕竟对于使用软件的人来说,越是直观的操作越好。
本来说来,在目前的阶段,不太适合进入到这种技术细节中去。
但是目前由于不可抗拒的因素,让项目有所波折(只是暂时的问题,一切都会好起来的!),个人也想换换思维便研究起了拖放操作,对于以后实施也会有一定的借鉴意义。
在设计界面上可以少走一些弯路。
恩,废话少说,介绍一下拖放操作的实现先,也算是让自己再深入一次:
1、首先,在进行拖放操作之前,必须要对进行拖放操作的组件的"AllowDrop"属性值设定为"True",因为此属性是确定组件是否可以进行拖放操作的。
不管是拖放操作的源控件还是目的控件的设置都是这样。
2、然后要完成一次的拖放操作,必须处理好三种事件:"ItemDrag"、"DragEnter"、"DragDrop"、"DragOver"、"DragLeave"。
其中只有第一种事件是在源组件中触发的,另外四种事件是在目标组件中触发的(绝大多数控件能响应这几个事件)。
其中当用户拖动组件触发"ItemDrag"事件;当拖动数据进入目标组件区域触发"DragEnter"事件;当用户在目标组件区域放置拖动的数据触发"DragDrop"事件,当
用户的拖放光标进入目标区域触发"DragOver",当用户的拖放光标离开拖放区域时触发"DragLeave" 。
下面就根据拖放操作的操作顺序来详细介绍:
(1) 开始"拖"(Drag)操作--触发"ItemDrag"事件:
大多数控件都不具有ItemDrag的事件的定义,像TextBox就没有。
发现两个有这个定义的控件是ListView和TreeView。
看代码如下:
private void treeView1_ItemDrag(object sender,ItemDragEvent Args e){string strItem=e.Item.ToString();//开始进行"Drag"操作DragDropEffects dde=DoDragDrop(strItem,DragDropEffects.Copy|DragDropEffects .Move);}
在这里可以看见一个方法DoDragDrop ( object data , DragDropEffects allowedEffects ),这个方法启动一个拖放操作,并且方法阻塞在这里等待拖放操作的返回,在DoDragDrop之后可以放置对拖放操作结果的处理代码,对于跨窗体跨应用程序的拖放操作是非常有意义的。
具体的信息可以查看/Resource/msdn/cpref/frlrfsystemwindows formscontrolclassdodragdroptopic.htm。
DoDragDrop 方法有两个参数,第一个参数是要在拖放操作传递的数据,你可以放入各种数据类型,第二个参数来是说明此次拖放操作最后所要实现的效果,因为拖放操作有时实现的效果是把源组件中的内容"拖"到目标组件中,这种效果就是"Move";有时拖放的效果是在目标组件中加入拖动的数据,对源组件的内容是没有什么影响的,这种效果就是"Copy"。
当然无论是"Move"还是"Copy",这都要通过具体的编程来实现,设定这些效果只是告诉操作系统,你进行拖放操作的类型,从而为拖放操作设定特定的图标。
DoDragDrop 返回的值也是 DragDropEffects 表示拖放操作所达成的效果。
值得注意的还有,上面的代码对于鼠标左右键拖放都会响应,如果只想支持左键拖放需要加入对鼠标的判断。
//判断是否是鼠标右键按动if( e.Button==MouseButtons.Right)return;
(2) 让目标组件允许进行拖放操作:
上面提到了你可以将某种类型的数据,拖放到目标组件上,但是目标组件可能只能处理某种类型的数据,比如一个MP3播放软件,不允许将一个AVI的文件拖放到播放列表中,因为它处理不了。
所以在拖放操作进入目标区域时候,需要对该拖放操作进行判断,主要是判断拖
放中带有的数据类型。
"DragEnter"事件正好可以处理。
在下列的代码中,从一个拖放源拖入一个listView控件,我们是通过判断拖放数据类型来确定是否接受拖放,如果是字符串,则可以,否则,则不行。
具体代码如下:private void listView1_DragEnter(object sender,DragEven tArgs e){ //判断是否目前拖动的数据是字符串,如果是,则拖动符串对目的组件进行拷贝 if(e.Data.GetDataPresent(DataFormats.Text)) e. Effect=DragDropEffects.Move; else e.Effect=DragDro pEffects.None;}
当目标控件不接受一个拖放操作的时候,光标会变成一个禁止标示。
(3) 获得拖放的数据,在目标组件中加入相应的内容:
此步的处理过程是十分明确的,要分成二步来进行,首先要得到拖放的字符串,其次是在目标组件中加入以此字符串为标题的项目。
当然还要在相应的位置了。
下面就是实现这二步操作的具体代码:private void listView1_DragDrop(object sender,DragEvent Args e){ string dummy="temp"; //获得进行"Drag"操作中拖动的字符串 string s=(string) e.Data.GetData(dummy.GetType()); s=s.Substring(s.IndexOf":")+1).Trim(); //在目标组
件中加入以此字符串为标题的项目 listView1.Items.Add(new ListViewItem(s,0));
e.Effect=DragDropEffects.Copy;}
此致通过对这三个事件的编程,已经完成了由TreeView组件到ListView组件的拖放操作,
e.Effect=DragDropEffects.Copy;
这段代码表明了,拖放的效果是Copy, 并且 e.Effect 将作为DoDragDrop方法的返回值,表示这一次拖放操作的效果。
若在在这里不指定返回的效果,则将返回响应DragEnter事件时方法中指定的效果。
已发表 2005年11月14日 23:19 作者
/blogs/wind_tower/archive/2005/11/14 /184.aspx。