基于强化学习的全电推进卫星变轨优化方法

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

第44卷 第5期系统工程与电子技术
Vol.44 No.5
2022年5月SystemsEngineeringa
ndElectronicsMay 2
022文章编号:1001 506X(2022)05 1652 10 网址:www.sy
s ele.com收稿日期:20210709;修回日期:20211107;网络优先出版日期:20220101。

网络优先出版地址:http
s:∥kns.cnki.net/kcms/detail/11.2422.TN.20220101.1712.004.html基金项目:国家自然科学基金(11502017)资助课题 通讯作者.
引用格式:韩明仁,王玉峰.基于强化学习的全电推进卫星变轨优化方法[J].系统工程与电子技术,2022,44(5):1652 1661.犚犲犳犲狉犲狀犮犲犳狅狉犿犪狋:HANMR,WANGYF.Optimizationmethodfororbittransferofall electricprop
ulsionsatellitebasedonreinforce mentlearning[J].SystemsEngineeringa
ndElectronics,2022,44(5):1652 1661.基于强化学习的全电推进卫星变轨优化方法
韩明仁1,
2,王玉峰1,2, (1.北京控制工程研究所,北京100094;2.空间智能控制技术重点实验室,北京100094)
摘 要:采用电推力器实现自主轨道转移是全电推进卫星领域的关键技术之一。

针对地球同步轨道(g
eo stationaryorbit,GEO)全电推进卫星的轨道提升问题,将广义优势估计(generalizedadvantag
eestimator,GAE)和近端策略优化(proximalpolicyoptimization,PPO)方法相结合,在考虑多种轨道摄动影响以及地球阴影约束的情况下,提出了基于强化学习的时间最优小推力变轨策略优化方法。

针对状态空间过大、奖励稀疏导致训练困难这一关键问题,提出了动作输出映射和分层奖励等训练加速方法,有效提升了训练效率,加快了收敛速度。

数值仿真和结果对比表明,所提方法更加简单、灵活、高效,与传统的直接法、间接法以及反馈控制法相比,能够保证轨道转移时间的最优性。

关键词:全电推进卫星;小推力变轨优化;强化学习;近端策略优化;训练加速方法
中图分类号:V412.4 文献标志码:A 犇犗犐:10.12305/j.
issn.1001 506X.2022.05.27犗狆狋犻犿犻狕犪狋犻狅狀犿犲狋犺狅犱犳狅狉狅狉犫犻狋狋狉犪狀狊犳犲狉狅犳犪犾犾 犲犾犲犮狋狉犻犮狆狉狅狆
狌犾狊犻狅狀狊犪狋犲犾犾犻狋犲犫犪狊犲犱狅狀狉犲犻狀犳狅狉犮犲犿犲狀狋犾犲犪狉狀犻狀犵
HANMingren1,2,WANGYufeng1,2,
(1.犅犲犻犼犻狀犵犐狀狊狋犻狋狌狋犲狅犳犆狅狀狋狉狅犾犈狀犵犻狀犲犲狉犻狀犵,犅犲犻犼犻狀犵100094,犆犺犻狀犪;2.犛犮犻犲狀犮犲犪狀犱犜犲犮犺狀狅犾狅犵狔狅狀犛狆犪犮犲犐狀狋犲犾犾犻犵犲狀狋犆狅狀狋狉狅犾犔犪犫狅狉犪狋狅狉狔,犅犲犻犼
犻狀犵100094,犆犺犻狀犪) 犃犫狊狋狉犪犮狋:Usingelectricthrustersforautonomousorbittransferisoneofthecriticaltechnolog
iesinthefieldofall electricpropulsionsatellites.Inordertosolvetheorbitraisingproblemofall electricpropulsiongeostationaryo
rbit(GEO)satellites,areinforcementlearning basedoptimizationmethodforthetime optimallow thrustorbittransferstrategyisformulatedbycombininggeneralizedadvantag
eestimator(GAE)andproximalpolicyop
timization(PPO)methods,takingintoaccounttheinfluenceofmultipleorbitalperturbationsandtheconstraintsoftheearth’sshadow.Aimingatthekeyproblemoftrainingdifficultycausedbytoolarg
estatespaceandsparsereward,trainingaccelerationmethodssuchasactionoutputmappingandhierarchicalrewardareproposed,whicheffectivelyimprovethetrainingefficiencyandacceleratetheconvergencespeed.Throug
hnumericalsimulationandcomparisonoftheresultswiththedirectmethod,theindirectmethodandthefeedbackcontrolmethod,itshowsthattheoptimizationmethodbasedonreinforcementlearningi
smoresimple,flexible,efficient,andtime optimalinorbittransfer.犓犲狔狑狅
狉犱狊:all electricpropulsionsatellite;low thrustorbittransferoptimization;reinforcementlearning;proximalpolicyop
timization(PPO);trainingaccelerationmethod0 引 言全电推进卫星目前主要应用于地球同步轨道(g
eosta tionaryorbit,GEO)相关任务中,使用电推力器实现全部的轨道转移、位置保持、角动量卸载等功能[1]。

得益于电推力
器的高比冲和高燃料利用率,全电推进卫星能够搭载更多
 第5期
韩明仁等:基于强化学习的全电推进卫星变轨优化方法·1653 · 的有效载荷。

然而,全电推进卫星由于推力小,依靠电推力器点火进入GEO的时间要长达几个月或半年多的时间[2]。

因此,优化变轨策略,缩短变轨时间,是全电推进卫星研究中的关键问题之一。

全电推进卫星轨道优化问题属于最优控制问题的范畴,本文主要研究全电推进卫星在转移轨道段以时间最优为目标的变轨策略优化方法,初始轨道为星箭分离后的同步转移轨道(geostationarytransferorbit,GTO),目标轨道为GEO。

该问题要求在满足系统约束和动力学约束的前提下,在整个转移过程中确定一个推力方向变化策略。

高度非线性和非凸动力学、空间环境摄动以及局部极小值的存在使优化过程十分复杂[3]。

连续小推力变轨问题目前已存在的研究成果主要包括解析方法和数值方法两大类[4]。

解析方法通过理论推导获得最优轨道的解析解[56],但对于大多数航天器的轨道优化问题,可行性得不到保证。

大多数研究者都致力于数值方法的研究,如直接法、间接法、反馈控制法等。

直接法的基本思想是将控制变量离散化,使最优控制问题转化成一个非线性规划问题,然后使用现有的优化方法对其进行求解,Ricciardi等采用结合有限元素全局多目标优化方法、启发式的进化算法以及基于梯度的约束非线性规划方法开发了用于空间系统任务设计、优化的多目标直接混合最优控制(multiobjectivedirecthybridop
timalcontrol,MODHOC)工具箱[7]。

Pritchett等研究了基于配点法的小推力转移轨道的直接优化方法[8],并设计
了轨道链叠加法来进行初值猜测,将初始轨道和目标轨道中间某些弧段的状态作为连接点,将初始猜测值引导到特定的解。

文献[9]介绍了空中客车防务及航天公司基于直接多重打靶法开发的小推力转移轨道优化软件OptElec,在考虑地球阴影区和部分摄动的情况下能够设计从近地轨道(lowearthorbit,LEO)
或GTO转移至GEO的时间或燃料最优的变轨策略。

间接法依赖于庞特里亚金极小值原理,将原最优控制问题转化成多点边值问题,再利用微分方程边值问题的求解方法进一步得到最优解。

Mazzini等在考虑摄动和地影的情况下采用平均轨道根数法简化动力学方程,通过打靶法求解了经间接法转化后的两点边值问题[10],得到了GEO卫星依靠电推力器提升轨道的最优策略。

Bastante等研究了基于序列梯度修复算法的GTO GEO小推力轨道转移间接优化方法[11],并讨论了如何处理推力方向变化的连续性、最大角速度等约束条件。

段传辉等则提出了推力同伦的方法求解两点边值问题[2],简化了间接法中对于协态变量初值猜测的复杂度,并以GTO GEO
小推力轨道提升问题为例对算法进行了验证,通过5次推力缩减,最终得到了时间最优的转移策略。

文献[1214]中则采用了反馈控制法,设计了基于李雅普诺夫函数的近端商制导律(proximityq
uotientguidancelaw,Q law),作为小推力轨道转移的控制策略。

其中,文献[12]和文献[13]中对GTO GEO的小推力转移过程进行了仿真,表明了该方法能够实现时间次优的轨道转移闭环控制。

上述研究中所述的方法虽然均能够得到优化的小推力
变轨策略,
但是在复杂度、灵活性、最优性等方面却各有优劣,
直接法的变量规模巨大,计算复杂;间接法中协态变量初值猜测较为困难;反馈控制法则无法保证策略的最优性。

近年来有越来越多的研究者都采用强化学习方法来解决控
制与决策问题[1519],Bertsekas更是全面研究和阐述了强化学习与最优控制的理论联系[20],
同时也有研究者采用强化学习方法解决行星际轨道优化问题[2124]。

可以得知,采用强化学习方法解决复杂的最优控制问题在简易性、灵活性和最优性方面均具有比较出色的表现,能够处理较为复杂的约束。

因此,本文采用了强化学习的方法,求解小推力变轨最优策略,在考虑摄动、地影等多种复杂约束的情况下,训练智能体的神经网络,得到轨道转移决策模型。

本文的主要贡献如下:①在演员评论家(Actor Critic)强化学习框架下建立连续小推力变轨决策模型,结合广义优势估计和近端策略优化方法训练深度神经网络,以其为非线性逼近器,探索小推力轨道转移的最优推力方向变化策略;②以轨道摄动方程、空间环境摄动、地球阴影区约束的数学模型为基础,建立可与智能体交互的环境模型;③针对由于状态空间过大而导致智能体探索困难的问题,提出了动作网络输出映射和分层奖励的方法,缩小了探索空间,显著地提高了智能体探索到目标轨道的效率,有效缩短了
训练时间。

最后,通过几组不同初始参数的结果对比,验证了求解得到的变轨策略的最优性。

1 问题描述1.1 预备知识连续小推力轨道转移问题中,作用于卫星的推力加速
度量级一般为10-5~10-7km/s
2,稍大于作用于卫星的空间摄动力的大小。

因此,若采用经典轨道六根数来描述卫
星的轨道,那么卫星的轨道动力学模型应采用高斯型拉格朗日行星摄动力方程[25]表示:犪·=2犪2犲sinθμ槡狆犉狉+2犪2狆狉μ槡狆犉狋犲·=狆sinθμ槡狆犉狉+[(狆+狉)cosθ+狉犲]μ槡狆犉狋犻·=狉cos(ω+θ)μ槡狆犉狀Ω·=狉sin(ω+θ)μ槡狆sin犻犉狀ω·=-狆cosθ犲μ槡狆犉狉+(狆+狉)sinθ犲μ槡狆犉狋-狉sin(ω+θ)cos犻μ槡狆sin犻犉狀θ·=μ槡狆狉2+1犲μ槡狆
[狆cos(θ)犉狉-(狆+狉)sin(θ)犉狋烅烄烆](1)
式中:狆=犪(1-犲2)狉=狆1+犲cos烅烄烆
θ(2)
 ·1
654 ·系统工程与电子技术第44卷
 犪为半长轴;犲为偏心率;犻为轨道倾角;Ω为升交点赤经;ω为近地点幅角;θ为真近点角;狆为轨道半通径;
狉为卫星质心到地心的距离;μ为地球引力常数;
犉狉、犉狋、犉狀分别为作用于卫星的合力在卫星轨道坐标系3个坐标轴方向产生的加速度,分别对应径向、轨道面内垂直于径向、轨道面法向3个方向。

本文采用强化学习的方法求解小推力变轨问题。

强化学习方法通过智能体与环境的交互过程获得回报,如图1所示,从而更新智能体的策略,在实现特定目标的同时使回报最大化,进而得到最优策略。

图1 智能体与环境交互图Fig.1 Interactionbetweenagentandenvironment在智能体与环境的交互中,智能体需要多次重复从初始状态到目标状态的过程以获得训练数据,重复一次称为一回合,而一回合中又包含很多步,用狊狋和狌狋分别表示智
能体在第狋步的状态和动作,此过程将产生一组状态动作序列(狊0,狌0,…,狊犎,狌犎),其中(狊犎,狌犎)表示智能体探索到特
定目标前的最后一对状态动作,状态狊与动作狌既可以是标量,
也可以是矢量,需要根据实际问题定义。

该状态动作序列即代表了智能体在一回合中的轨迹,用τ表示。


以定义第犎步的累积回报函数为
犚犎(τ)=∑犎狋=0
犚(狊狋,狌狋)(3)式中:犚犎(τ)表示轨迹τ的回报;犚(狊狋,狌狋)表示在狊狋状态下采取动作狌狋的单步回报。

在基于策略的强化学习方法中,
目标函数[26]可以表示为犑(φ)=E∑犎狋=0
犚(狊狋,狌狋)狘πφ(狊狋,狌狋[]
)=∑τ
犘φ(狌狋狘狊狋)犚犎(τ)(4)式中:变量φ泛指智能体从状态到动作的映射中涉及到的参数,参数不同即代表不同的策略;E(·)表示期望;πφ表示在参数φ下的策略;犘φ(狌狋|狊狋)表示在参数φ下的策略在狊狋条件下执行狌狋的概率。

强化学习的最终目标则是找到最优的参数φ,使得目标函数达到最大值,用公式描述为maxφ犑(φ)=maxφ∑τ犘φ(狌狋狘狊狋)犚犎(τ)(5)实际上,强化学习问题变成了一个优化问题,采用文献[27
]提出的策略梯度优化方法,即
φ犽+1=φ犽+αΔ
φ犑(φ)
(6)式中:下标犽表示第犽回合;α为步长;Δ
为求梯度符号;Δ
φ犑(φ)
[27]可以表示为Δ
φ犑(φ)
=犈πφ
[Ψπ(狊,狌)Δ
φlnπφ(狊,狌)](7)式中:Ψπ(狊,狌)为评价函数。

在Actor Critic框架下,πφ(
狊,狌)为Actor,Ψπ(狊,狌)则为Critic,二者均采用神经网络来表示,
分别称为动作网络和评价网络。

Actor的实际输出值为归一化的值,一般取值范围为[-1,1],在与环境交互前需进行变换,映射到相应的动作空间中。

Critic的输出值为当前状态及动作的价值。

1.2 问题建模本文研究全电推进卫星转移至GEO的时间最短变轨策略,卫星的动力学模型采用式(1)中的微分方程描述,式中的加速度项可以拆分为电推力器提供的加速度和摄动加速度两项,即
犉=犜犿υ+犉犱(8)
式中:犉为在卫星轨道坐标系中卫星的合加速度矢量,犉=(犉狉,犉狋,犉狀);犜为电推力器产生的合力大小;犿为当前时刻的质量;υ为推力在卫星轨道坐标系下的单位矢量;犉犱则为卫星所受的摄动加速度,包括地球非球形引力摄动、日月引力摄动、太阳光压摄动、大气阻力摄动等。

在变轨过程中,卫星质量随着工质的消耗而减小,变化
率为犿·=-犜犐狊狆犵0(9)式中:犐狊狆为电推力器的比冲;犵0为重力加速度。

假设α表示推力单位矢量υ在轨道面内的投影与径向的夹角,β表示推力单位矢量υ与轨道面的夹角,则υ可以写为υ=(cosαcosβ,sinαcosβ,sinβ)(10)卫星的推力指向即可用α和β两个参数表示,若不考虑工程上的推力指向范围约束,可取α∈[-90°,270°],β∈[-90°,90°]。

因此,全电推进卫星的变轨策略优化也就是对α、β两参数的变化策略进行优化。

因此,问题可转化为
如下优化指标:min犑=∫
狋犳狋0
1d狋(11) 令狓=(犪,犲,犻,Ω,狑,θ),则系统的状态方程[28]可以写为狓·=犕犜犿υ+犉()
犱+犇犿·=-犜
犐狊狆犵烅烄烆0(12)式中:犕为6×3矩阵,犇为6×1矩阵,具体表达式见文献[28],狊=(狓,犿)∈犚7为状态空间,狌=(α,β)∈犚2为动作空间,优化目标为时间最短,任务目标轨道为GEO。

2 轨道优化方法2.1 环境模型强化学习算法要求建立可供与智能体交互产生数据的环境模型,即图1中的环境模块,其输入是智能体的动作,输出为采取动作后达到的状态以及当前动作的奖励。

由于目标轨道是GEO,其倾角为零且为圆轨道。

当达到目标轨道时,轨道的升交点赤经和近地点幅角产生了奇异。

为了避免这种奇异,本文采用改进的春分点轨道根数(狆,犳,犵,
 第5期
韩明仁等:基于强化学习的全电推进卫星变轨优化方法·1655 ·
 犺,犽,犔)描述强化学习过程中的状态,与经典轨道六根数转换关系[29]如下:狆=犪(1-犲2)
犳=犲cos(ω+Ω)犵=犲sin(ω+Ω)犺=tan(犻/2)cosΩ犽=tan(犻/2)sinΩ犔=Ω+ω+烅烄烆θ(13)相应的状态转移方程[29]为狆·=狆槡μ2狆狑犉狋犳·=狆槡烅烄烆μ犉狉sin犔+[(1+狑)cos犔+犳]犉狋狑
-(犺sin犔-犽cos犔)犵犉狀烍
烌烎
狑犵·
=狆槡
烅烄烆μ-犉狉cos犔+[(1+狑)sin犔+犵]犉狋狑+(犺sin犔-犽cos犔)犳犉狀烍烌烎狑犺·=狆槡μ(1+犺2+犽2)犉狀2狑cos犔犽·=狆槡
μ(1+犺2+犽2)犉狀2狑sin犔犔·=μ槡狆狑()狆2+1狑狆槡
μ(犺s
in犔-犽cos犔)犉狀犿·=-犜犐狊狆犵烅烄烆0(14)式中:狑为辅助量,
定义如下:狑=1+犳cos犔+犵sin犔(15)
本文仅在智能体训练中采用式(14)替代式(12)作为与
智能体交互的状态转移模型,在分析问题时仍采用式(1)。

为更加贴近真实情况,使得到的策略更具工程意义,需要考虑摄动和地影的影响。

考虑的摄动包括地球非球形引力摄动[30]、日月引力摄动[31]、太阳光压摄动[32]、大气阻力摄动[33]等,其数学模型对应文献中一致,这里不过多赘述。

将得到的各种摄动加速度经过坐标变换并求和,可得到卫星轨道坐标系下的摄动加速度犉犱,代入式(8)中,即可得到卫星在空间中的合加速度。

此外,地球阴影区对全电推进卫星变轨的影响也需要考虑在内。

由于电推力器主要靠太阳能转化成的电能驱动,因此当进入地影区时,太阳帆板被遮挡,卫星须关闭电
推力器滑行。

本文采用圆锥形地影模型[34],
通过太阳矢量和卫星位置矢量计算出地球卫星太阳夹角θ犲狊、卫星上观察太阳的视半径ρ狊以及卫星上观察地球的视半径ρ犲。

通过三者关系即可得知卫星的地影情况,用可视因子γ狏犳表示太阳被地球遮挡的程度,有以下关系[35]:
γ狏犳=1-ρ2犲(2θ犲-sin(2θ犲))+ρ2狊(2θ狊-sin(2θ狊))2πρ2狊
(16)γ狏犳取值范围为[0,1]。

其中,θ犲与θ狊为中间变量:θ犲=arccosθ2犲狊+ρ2犲-ρ2狊2θ犲狊ρ犲θ狊=arccosθ2犲狊-ρ2犲+ρ2狊2θ犲狊ρ烅烄烆狊(17)如图2所示,当γ狏
犳=1时,卫星位于阳照区,地球对太阳无遮挡;当γ狏犳=0时,卫星位于本影区,地球完全遮挡太阳
;当0<γ狏犳<1时,卫星位于半影区,地球对太阳的遮挡程
度随着γ狏犳的值减小而增加。

图2 圆锥形地影模型示意图
Fig.2 Schematicdiag
ramofconicalearthshadowmodel卫星位于半影区内太阳可视因子较大的区域时,电推
力器也能够点火。

本文假设γ狏犳>0.1时,
电推力器可点火,当γ狏犳≤0.1时,电推力器关机,卫星滑行。

2.2 改进的近端策略优化方法本文采用结合广义优势估计(generalizedadvantagees timator,GAE)的近端策略优化(proximalpolicyop
timiza tion,PPO)(GAE&PPO)方法对所提出的问题进行求解。

PPO属于强化学习方法的一种,基于Actor Critic
框架而提出,
其核心优化公式[36]如下:犑φ犽PPO(φ)≈∑(狊狋,狌狋
)min{ρ狋(φ)犃φ犽(狊狋,狌狋),ρ′狋(φ)犃φ犽(狊狋,狌狋)}(18)其中,
ρ狋(φ)=犘φ(狌狋|狊狋)犘φ犽(狌狋|狊狋)ρ′狋(φ)=clip[ρ狋(φ),1-ε,1+ε烅
烄烆](19)式中:ρ狋(φ)
为概率比,表示新老策略的差异;clip(·)为剪切函数,用来将ρ狋(φ)
限制在[1-ε,1+ε]之间,如果超过边界值则取边界值;ε为剪切率,限制ρ狋(φ)的剪切范围,代表了更新策略的探索性,ε越大
,算法越容易探索到新的状态,但影响稳定性。

优势函数[31]定义为
犃φ犽(狊狋,狌狋)=犙 犽(狊狋,狌狋)-犞 犽(狊狋)
(20)犃φ犽(狊狋,狌狋)表示当前步状态动作值函数犙 犽(狊狋,狌狋)与状态值函数犞 犽(狊狋)之差,由评价网络产生,用来评价在狊狋步时采取动作狌狋的优劣, 犽为值函数的相关参数。

值函数的参数 犽属于评价网络中的参数,其更新方法同样采用策略梯度法:
犽+1= 犽+αΔ
φ犔犅犔( )(21)犔犅犔( )=∑犜狋=0
(犚狋-犞 (狊狋))2(22)
 ·1656 ·系统工程与电子技术第44卷 式中:犔犅犔( )为值函数的目标函数;犚狋为第狋步的累积奖
励值。

在评价网络估计优势函数时,常常用逼近算法近似计
算值函数,因此会引入偏差,文献[37]中提出了广义优势函
数估计:
犃^GAE(γ,λ)
狋=∑∞犾=0(γλ)犾δ犞狋+犾(23)
式中:γ为折扣因子;λ为指数加权系数,δ犞狋=犚(狊狋+1,狌狋+1)+γ犞 犽(犛狋+1)-犞 犽(犛狋)是一步时序差分误差。

通过引入γ和λ,改进了对优势函数的估计,将偏差控制在了一定范围内。

GAE&PPO算法流程如下。

算法1 GAE&PPO算法
1初始化动作网络πφ(狊,狌)和评价网络Ψπ(狊,狌)的参数φ0和 0
For犽=0,1,2,…,犕
2策略πφ犽(狊,狌)与环境交互,收集轨迹集合犇犽={τ犻}3计算每一步累积奖励{犚狋}
4通过式(23)计算每一步优势值{犃^狋}
5采用策略梯度方法,最小化式(18),更新动作网络参数φ犽6采用策略梯度方法,最小化式(22),更新评价网络参数 犽Endfor
由于采用了概率分布和采样的方式确定下一步动作,因此GAE&PPO算法的稳定性和收敛性更好,算法具体流程如图
所示。

图3 GAE&PPO算法流程图
Fig.3 GAE&PPOalgorithmflowdiagram3 训练加速方法
本文中智能体要在七维状态空间中探索到目标状态,寻找这一过程中时间最优推力指向序列,而目标状态仅为GEO附近能够进行轨道捕获的小范围区域。

智能体在状态空间中很难探索到目标状态,导致有效训练数据不足,训练过程十分缓慢甚至难以完成训练,这是强化学习方法解决小推力变轨问题的难点之一。

本文提出了以下方法解决这一难点。

3.1 动作输出映射
轨道转移的目标状态限制了半长轴、偏心率和轨道倾角3个参数,卫星从初始轨道到目标轨道需要完成提高半长轴、减小偏心率、压低轨道倾角3方面内容。

本文通过分析轨道动力学方程,提炼出能够实现这3方面内容的推力指向角α、β的粗略变化规律。

根据提炼出来的先验知识,对动作网络的输出进一步设计,使半长轴、偏心率和轨道倾角3个参数始终向目标值靠近,从而缩小探索空间。

由前文可知,动作网络的实际输出值需要做线性变换才能与环境交互,因此可以在这一过程中引入先验知识。

暂时忽略式(8)中摄动加速度犉犱的影响,将式(10)代入式(8),得到推力加速度矢量三维分量关于β的表达式
犉狉=犜犿cosαcosβ
犉狋=犜犿sinαcosβ
犉狀=犜犿sin


烆β
(24)
将式(24)代入式(1)中的半长轴、偏心率和轨道倾角微分方程,整理得到:
犪·=2犪2犜cosβ
犿μ槡狆犲sinθcosα+
狆狉sin
()α
犲·=犜cosβ
犿μ槡狆(狆sinθcosα+[(狆+狉)cosθ+狉犲]sinα)
犻·=狉犜
犿μ槡狆cos(ω+θ)sin


烆β
(25)若使犪、犲、犻尽可能向目标值靠近,须满足以下条件:
犪·≥0
犲·≤0
犻·≤


烆0
(26)
由于,β∈[-90°,90°],cosβ≥0,因此,将式(25)代入式(26)可以得到
犲sinθcosα+(1+犲cosθ)sinα≥0
狆sinθcosα+[(狆+狉)cosθ+狉犲]sinα≤0
cos(ω+θ)sinβ≤


烆0
(27)
 第5期
韩明仁等:基于强化学习的全电推进卫星变轨优化方法·1657 · 由式(27)可知,半长轴、偏心率的增减与θ∈[0°,180°]有关,轨道倾角的增减与θ∈[0°,180°]有关,
因此可以通过式(27)
得到:(1)当θ∈[0°,180°]时,若使半长轴增大,则α∈[0°,90°];若使偏心率减小,则α∈[-90°,-θ]∪[180°-θ,360°-θ]。

(2)当θ∈(180°,360°]时,若使半长轴增大,则α∈[90°,180°];若使偏心率减小,则α∈[180°-θ,360°-θ]∪[
540°-θ,270°]。

(3)当ω+θ∈[0°,90°]∪(270°,360°]时,
若使轨道倾角减小,则β∈[-90°,0°]。

(4)当ω+θ∈(90°,270°]
时,若使轨道倾角减小,则β∈[0°,90°]。

对轨道摄动情况进行分析,可以得知在变轨前期轨道高度较低的弧段,地球非球形引力摄动和大气阻力产生的摄动加速度相对较大,
因此变轨前期主要提升半长轴。

综合以上分析可以得知,能够实现轨道转移任务的策略具有以下几个特点:①变轨前期主要增大半长轴,推力
在轨道面内分量主要分布在速度方向附近;②变轨后期进一步提升半长轴,同时减小偏心率,推力在轨道面内分量随真近点角程周期变化;③整个变轨过程中推力矢量在轨道面法向的分量在升交点侧的一半弧段指向负法向,在降交点侧的一半弧段指向正法向。

假设动作网络的实际输出为(α′,β′),根据上述特点对其做以下变换:α=π21-(α′+1)6sin(
)θ,犪≤犪狊π21+(α′+1)cosθ()(

2,犪>犪烅烄烆狊(28)β=π4(β′+1)cos(ω+θ)(29)式(28)和式(29)在最优策略的必要条件下对α、β进行粗略约束,不影响策略最优性的同时使卫星更容易探索到目标轨道,从而获得更多的有效训练数据。

其中,变轨阶段临界点α狊的最优值在强化学习训练循环中采用随机搜索的方法求解。

3.2 分层奖励设计在强化学习中,奖励通过环境传递给智能体,智能体的训练目标是使总收益最大化,因此奖励函数的设计尤为重要。

当前的优化目标是时间最优,一般的时间最优奖励函数形式为
犚(狊狋,狌狋)=η,达到任务目标-ζ,烅烄烆其他(30)式中:ζ为一个较小值,代表耗时惩罚;η为一个较大值,代
表完成任务目标的奖励。

上述奖励函数虽然能够保证优化目标的实现,但是训练过程中可能达不到任务目标,导致很多无效的训练。

因此,根据本文实际问题,设计奖励函数如下:犚1(狊狋,狌狋)=η,达到任务目标-ζ1+犪狋-犪犳犪()犳2
+(犲狋-犲犳)2+(犻狋-
犻犳)槡
烄烆烌烎2,烅烄烆其他(31)式中:犪狋、犲狋、犻狋和犪犳、犲犳、犻犳分别为当前时间步和目标的半长轴、偏心率和轨道倾角。

其他情况中包括耗时惩罚和偏离任务目标惩罚。

前文中奖励函数虽然引入了偏离任务目标的惩罚项,但是智能体中神经网络由于采用了随机初始化参数,训练
效率受神经网络初始化影响较大,
在训练初期仅通过犚1的奖励值首次探索到目标轨道的用时不稳定。

因此,在犚1的基础上,
设计了更加有利于探索到目标的奖励函数:犚2(狊狋,狌狋)=η,达到任务目标-ζ犪狋-犪犳犪()犳2
+(
犲狋-犲犳)2+(犻狋-犻犳)槡
2,狋\2000=00,烅烄烆其他(32)式中:\为取余符号。

犚2中每隔2000个时间步计算一次当前状态与目标的偏差,其余情况奖励为0,取消对时间的寻
优,只探索目标状态,提高任务成功率。

结合犚1和犚2的优势,本文设计了分层奖励方法,将训练过程分为两个层次,下层训练采用犚2作为奖励,上层训练采用犚1作为奖励,训练初期从下层训练开始,优先探索能够达到目标状态的策略,当某一回合智能体成功达到目标状态时,则在此基础上开始上层训练,进行时间最短策略
寻优。

采用上述方法优化后的智能体与环境交互模型如图4所示。

图4 改进的智能体与环境交互模型Fig.4 Improvedag
ent environmentinteractionmodel
 ·1
658 ·系统工程与电子技术
第44卷
4 结果分析及对比
4.1 训练结果
采用前文所提到的强化学习及训练加速方法对全电推进
卫星轨道转移问题进行求解,
验证方法的可行性和最优性。

假设在协调世界时(universaltimecoordinated,UTC)下的历元时刻2021年1月1日12:00:00,卫星位于初始轨道,其初始轨道和目标轨道参数如表1所示,卫星初始质量为1600kg,
携带两台装有矢量调节机构的离子电推力器,可产生推力合力大小为400m·N,比冲为2000s,太阳光压反射率为1,光压等效面积为20m2,在低轨道时的大气阻力系数为2.2,迎风面积为20m2。

表1 卫星轨道根数初始值和目标值犜犪犫犾犲1 犐狀犻狋犻犪犾犪狀犱狅犫犼犲犮狋犻狏犲狅狉犫犻狋犪犾犲犾犲犿犲狀狋狊狅犳狊犪狋犲犾犾犻狋犲轨道参数初始值目标值初始历元2021.1.112:00:00无约束半长轴/km17169.842165偏心率0.60870轨道倾角/(°)28.50
升交点赤经/(°)0
无约束近地点幅角/(°)0
无约束真近点角/(°)180
无约束当卫星达到目标轨道附近且半长轴偏差小于0.5km、偏心率小于0.1、轨道倾角小于0.1°时,即认为当前回合成功达到任务目标。

当卫星半长轴大于42170km、偏心率大于1、轨道倾角大于90°时,
则认为探索超出边界,任务失败。

算法中动作网络和评价网络均采用三隐层平行结构,每层神经元节点数为128个,学习率均设置为10-4,激活函数采用ReLu和Hardswish两种函数,
具体结构如图5所示。

图5 智能体包含的神经网络结构示意图Fig.5 Schematicdiagramofneuralnetworkcontainedinag
ent训练过程中还涉及到前文中提到的一些其他参数,具
体参数值如表2所示。

由于算法的稳定性和收敛性较好,因此超参数设置在合理的范围内即可,选取较为容易。

表2 其余参数选取
犜犪犫犾犲2 犛犲犾犲犮狋犻狅狀狅犳狅狋犺犲狉狆犪狉犪犿犲狋犲狉狊超参数取值剪切率ε0.25折扣因子γ0.9993指数加权系数λ0.98耗时惩罚ζ0.01任务成功奖励η550
采用Python语言实现网络结构并训练,用每回合累积奖励的变化来表示训练效果,得到的训练曲线如图6所示。

图6 学习曲线
Fig.6 Learningc
urve由图6可知,在训练初期,智能体未能探索到目标状态,
奖励函数为犚2,此时奖励为状态与目标状态偏差所产生的惩罚项,因此累积奖励为负值。

随后,智能体通过最小化偏
差探索到任务目标,
获得任务目标奖励,因此累计奖励产生了较大的阶跃,同时开始对转移时间优化。

在此阶段中,由
于策略的探索性,
智能体会探索到目标状态之外,因此会产生累计奖励突然下降的情况,由于犚1中同样存在偏差项,智
能体能够重新找到目标状态,
从而继续优化任务时间,最终累积奖励稳定到一个范围内,从中选取最大累积奖励对应的参数,得到动作网络模型,即可得到时间最优的转移策略。

最大累积奖励为176.84,对应的轨道转移时间为142.11d。

将得到的动作网络与环境交互,即可得到时间最优的推力方向变化序列以及相应的轨道变化序列,其中半长轴、偏心率、轨道倾角变化曲线如图7所示。

图7 卫星轨道根数变化曲线
Fig.
7 Orbitelementscurveofsatellite。

相关文档
最新文档