New parameterization of effective nucleon-nucleon $t$-matrix interaction for scattering at
深度优先局部聚合哈希
Vol.48,No.6Jun. 202 1第48卷第6期2 0 2 1年6月湖南大学学报)自然科学版)Journal of Hunan University (Natural Sciences )文章编号:1674-2974(2021 )06-0058-09 DOI : 10.16339/ki.hdxbzkb.2021.06.009深度优先局艺B 聚合哈希龙显忠g,程成李云12(1.南京邮电大学计算机学院,江苏南京210023;2.江苏省大数据安全与智能处理重点实验室,江苏南京210023)摘 要:已有的深度监督哈希方法不能有效地利用提取到的卷积特征,同时,也忽视了数据对之间相似性信息分布对于哈希网络的作用,最终导致学到的哈希编码之间的区分性不足.为了解决该问题,提出了一种新颖的深度监督哈希方法,称之为深度优先局部聚合哈希(DeepPriority Local Aggregated Hashing , DPLAH ). DPLAH 将局部聚合描述子向量嵌入到哈希网络 中,提高网络对同类数据的表达能力,并且通过在数据对之间施加不同权重,从而减少相似性 信息分布倾斜对哈希网络的影响.利用Pytorch 深度框架进行DPLAH 实验,使用NetVLAD 层 对Resnet18网络模型输出的卷积特征进行聚合,将聚合得到的特征进行哈希编码学习.在CI-FAR-10和NUS-WIDE 数据集上的图像检索实验表明,与使用手工特征和卷积神经网络特征的非深度哈希学习算法的最好结果相比,DPLAH 的平均准确率均值要高出11%,同时,DPLAH 的平均准确率均值比非对称深度监督哈希方法高出2%.关键词:深度哈希学习;卷积神经网络;图像检索;局部聚合描述子向量中图分类号:TP391.4文献标志码:ADeep Priority Local Aggregated HashingLONG Xianzhong 1,覮,CHENG Cheng1,2,LI Yun 1,2(1. School of Computer Science & Technology ,Nanjing University of Posts and Telecommunications ,Nanjing 210023, China ;2. Key Laboratory of Jiangsu Big Data Security and Intelligent Processing ,Nanjing 210023, China )Abstract : The existing deep supervised hashing methods cannot effectively utilize the extracted convolution fea tures, but also ignore the role of the similarity information distribution between data pairs on the hash network, result ing in insufficient discrimination between the learned hash codes. In order to solve this problem, a novel deep super vised hashing method called deep priority locally aggregated hashing (DPLAH) is proposed in this paper, which em beds the vector of locally aggregated descriptors (VLAD) into the hash network, so as to improve the ability of the hashnetwork to express the similar data, and reduce the impact of similarity distribution skew on the hash network by im posing different weights on the data pairs. DPLAH experiment is carried out by using the Pytorch deep framework. Theconvolution features of the Resnet18 network model output are aggregated by using the NetVLAD layer, and the hashcoding is learned by using the aggregated features. The image retrieval experiments on the CIFAR-10 and NUS - WIDE datasets show that the mean average precision (MAP) of DPLAH is11 percentage points higher than that of* 收稿日期:2020-04-26基金项目:国家自然科学基金资助项目(61906098,61772284),National Natural Science Foundation of China(61906098, 61772284);国家重 点研发计划项目(2018YFB 1003702) , National Key Research and Development Program of China (2018YFB1003702)作者简介:龙显忠(1985—),男,河南信阳人,南京邮电大学讲师,工学博士,硕士生导师覮 通信联系人,E-mail : *************.cn第6期龙显忠等:深度优先局部聚合哈希59non-deep hash learning algorithms using manual features and convolution neural network features,and the MAP of DPLAH is2percentage points higher than that of asymmetric deep supervised hashing method.Key words:deep Hash learning;convolutional neural network;image retrieval;vector of locally aggregated de-scriptors(VLAD)随着信息检索技术的不断发展和完善,如今人们可以利用互联网轻易获取感兴趣的数据内容,然而,信息技术的发展同时导致了数据规模的迅猛增长.面对海量的数据以及超大规模的数据集,利用最近邻搜索[1(Nearest Neighbor Search,NN)的检索技术已经无法获得理想的检索效果与可接受的检索时间.因此,近年来,近似最近邻搜索[2(Approximate Nearest Neighbor Search,ANN)变得越来越流行,它通过搜索可能相似的几个数据而不再局限于返回最相似的数据,在牺牲可接受范围的精度下提高了检索效率.作为一种广泛使用的ANN搜索技术,哈希方法(Hashing)[3]将数据转换为紧凑的二进制编码(哈希编码)表示,同时保证相似的数据对生成相似的二进制编码.利用哈希编码来表示原始数据,显著减少了数据的存储和查询开销,从而可以应对大规模数据中的检索问题.因此,哈希方法吸引了越来越多学者的关注.当前哈希方法主要分为两类:数据独立的哈希方法和数据依赖的哈希方法,这两类哈希方法的区别在于哈希函数是否需要训练数据来定义.局部敏感哈希(Locality Sensitive Hashing,LSH)[4]作为数据独立的哈希代表,它利用独立于训练数据的随机投影作为哈希函数•相反,数据依赖哈希的哈希函数需要通过训练数据学习出来,因此,数据依赖的哈希也被称为哈希学习,数据依赖的哈希通常具有更好的性能.近年来,哈希方法的研究主要侧重于哈希学习方面.根据哈希学习过程中是否使用标签,哈希学习方法可以进一步分为:监督哈希学习和无监督哈希学习.典型的无监督哈希学习包括:谱哈希[5(Spectral Hashing,SH);迭代量化哈希[6](Iterative Quantization, ITQ);离散图哈希[7(Discrete Graph Hashing,DGH);有序嵌入哈希[8](Ordinal Embedding Hashing,OEH)等.无监督哈希学习方法仅使用无标签的数据来学习哈希函数,将输入的数据映射为哈希编码的形式.相反,监督哈希学习方法通过利用监督信息来学习哈希函数,由于利用了带有标签的数据,监督哈希方法往往比无监督哈希方法具有更好的准确性,本文的研究主要针对监督哈希学习方法.传统的监督哈希方法包括:核监督哈希[9](Supervised Hashing with Kernels,KSH);潜在因子哈希[10](Latent Factor Hashing,LFH);快速监督哈希[11](Fast Supervised Hashing,FastH);监督离散哈希[1(Super-vised Discrete Hashing,SDH)等.随着深度学习技术的发展[13],利用神经网络提取的特征已经逐渐替代手工特征,推动了深度监督哈希的进步.具有代表性的深度监督哈希方法包括:卷积神经网络哈希[1(Convolutional Neural Networks Hashing,CNNH);深度语义排序哈希[15](Deep Semantic Ranking Based Hash-ing,DSRH);深度成对监督哈希[16](Deep Pairwise-Supervised Hashing,DPSH);深度监督离散哈希[17](Deep Supervised Discrete Hashing,DSDH);深度优先哈希[18](Deep Priority Hashing,DPH)等.通过将特征学习和哈希编码学习(或哈希函数学习)集成到一个端到端网络中,深度监督哈希方法可以显著优于非深度监督哈希方法.到目前为止,大多数现有的深度哈希方法都采用对称策略来学习查询数据和数据集的哈希编码以及深度哈希函数.相反,非对称深度监督哈希[19](Asymmetric Deep Supervised Hashing,ADSH)以非对称的方式处理查询数据和整个数据库数据,解决了对称方式中训练开销较大的问题,仅仅通过查询数据就可以对神经网络进行训练来学习哈希函数,整个数据库的哈希编码可以通过优化直接得到.本文的模型同样利用了ADSH的非对称训练策略.然而,现有的非对称深度监督哈希方法并没有考虑到数据之间的相似性分布对于哈希网络的影响,可能导致结果是:容易在汉明空间中保持相似关系的数据对,往往会被训练得越来越好;相反,那些难以在汉明空间中保持相似关系的数据对,往往在训练后得到的提升并不显著.同时大部分现有的深度监督哈希方法在哈希网络中没有充分有效利用提60湖南大学学报(自然科学版)2021年取到的卷积特征.本文提出了一种新的深度监督哈希方法,称为深度优先局部聚合哈希(Deep Priority Local Aggregated Hashing,DPLAH).DPLAH的贡献主要有三个方面:1)DPLAH采用非对称的方式处理查询数据和数据库数据,同时DPLAH网络会优先学习查询数据和数据库数据之间困难的数据对,从而减轻相似性分布倾斜对哈希网络的影响.2)DPLAH设计了全新的深度哈希网络,具体来说,DPLAH将局部聚合表示融入到哈希网络中,提高了哈希网络对同类数据的表达能力.同时考虑到数据的局部聚合表示对于分类任务的有效性.3)在两个大型数据集上的实验结果表明,DPLAH在实际应用中性能优越.1相关工作本节分别对哈希学习[3]、NetVLAD[20]和Focal Loss[21]进行介绍.DPLAH分别利用NetVLAD和Focal Loss提高哈希网络对同类数据的表达能力及减轻数据之间相似性分布倾斜对于哈希网络的影响. 1.1哈希学习哈希学习[3]的任务是学习查询数据和数据库数据的哈希编码表示,同时要满足原始数据之间的近邻关系与数据哈希编码之间的近邻关系相一致的条件.具体来说,利用机器学习方法将所有数据映射成{0,1}r形式的二进制编码(r表示哈希编码长度),在原空间中不相似的数据点将被映射成不相似)即汉明距离较大)的两个二进制编码,而原空间中相似的两个数据点将被映射成相似(即汉明距离较小)的两个二进制编码.为了便于计算,大部分哈希方法学习{-1,1}r形式的哈希编码,这是因为{-1,1}r形式的哈希编码对之间的内积等于哈希编码的长度减去汉明距离的两倍,同时{-1,1}r形式的哈希编码可以容易转化为{0,1}r形式的二进制编码.图1是哈希学习的示意图.经过特征提取后的高维向量被用来表示原始图像,哈希函数h将每张图像映射成8bits的哈希编码,使原来相似的数据对(图中老虎1和老虎2)之间的哈希编码汉明距离尽可能小,原来不相似的数据对(图中大象和老虎1)之间的哈希编码汉明距离尽可能大.h(大象)=10001010h(老虎1)=01100001h(老虎2)=01100101相似度尽可能小相似度尽可能大图1哈希学习示意图Fig.1Hashing learning diagram1.2NetVLADNetVLAD的提出是用于解决端到端的场景识别问题[20(场景识别被当作一个实例检索任务),它将传统的局部聚合描述子向量(Vector of Locally Aggregated Descriptors,VLAD[22])结构嵌入到CNN网络中,得到了一个新的VLAD层.可以容易地将NetVLAD 使用在任意CNN结构中,利用反向传播算法进行优化,它能够有效地提高对同类别图像的表达能力,并提高分类的性能.NetVLAD的编码步骤为:利用卷积神经网络提取图像的卷积特征;利用NetVLAD层对卷积特征进行聚合操作.图2为NetVLAD层的示意图.在特征提取阶段,NetVLAD会在最后一个卷积层上裁剪卷积特征,并将其视为密集的描述符提取器,最后一个卷积层的输出是H伊W伊D映射,可以将其视为在H伊W空间位置提取的一组D维特征,该方法在实例检索和纹理识别任务[23別中都表现出了很好的效果.NetVLAD layer(KxD)x lVLADvectorh------->图2NetVLAD层示意图⑷Fig.2NetVLAD layer diagram1201NetVLAD在特征聚合阶段,利用一个新的池化层对裁剪的CNN特征进行聚合,这个新的池化层被称为NetVLAD层.NetVLAD的聚合操作公式如下:NV((,k)二移a(x)(血⑺-C((j))(1)i=1式中:血(j)和C)(j)分别表示第i个特征的第j维和第k个聚类中心的第j维;恣&)表示特征您与第k个视觉单词之间的权.NetVLAD特征聚合的输入为:NetVLAD裁剪得到的N个D维的卷积特征,K个聚第6期龙显忠等:深度优先局部聚合哈希61类中心.VLAD的特征分配方式是硬分配,即每个特征只和对应的最近邻聚类中心相关联,这种分配方式会造成较大的量化误差,并且,这种分配方式嵌入到卷积神经网络中无法进行反向传播更新参数.因此,NetVLAD采用软分配的方式进行特征分配,软分配对应的公式如下:-琢II Xi-C*II 2=—e(2)-琢II X-Ck,II2k,如果琢寅+肄,那么对于最接近的聚类中心,龟&)的值为1,其他为0.aS)可以进一步重写为:w j X i+b ka(x i)=—e-)3)w J'X i+b kk,式中:W k=2琢C k;b k=-琢||C k||2.最终的NetVLAD的聚合表示可以写为:N w;x+b kv(j,k)=移—----(x(j)-Ck(j))(4)i=1w j.X i+b k移ek,1.3Focal Loss对于目标检测方法,一般可以分为两种类型:单阶段目标检测和两阶段目标检测,通常情况下,两阶段的目标检测效果要优于单阶段的目标检测.Lin等人[21]揭示了前景和背景的极度不平衡导致了单阶段目标检测的效果无法令人满意,具体而言,容易被分类的背景虽然对应的损失很低,但由于图像中背景的比重很大,对于损失依旧有很大的贡献,从而导致收敛到不够好的一个结果.Lin等人[21]提出了Focal Loss应对这一问题,图3是对应的示意图.使用交叉爛作为目标检测中的分类损失,对于易分类的样本,它的损失虽然很低,但数据的不平衡导致大量易分类的损失之和压倒了难分类的样本损失,最终难分类的样本不能在神经网络中得到有效的训练.Focal Loss的本质是一种加权思想,权重可根据分类正确的概率p得到,利用酌可以对该权重的强度进行调整.针对非对称深度哈希方法,希望难以在汉明空间中保持相似关系的数据对优先训练,具体来说,对于DPLAH的整体训练损失,通过施加权重的方式,相对提高难以在汉明空间中保持相似关系的数据对之间的训练损失.然而深度哈希学习并不是一个分类任务,因此无法像Focal Loss一样根据分类正确的概率设计权重,哈希学习的目的是学到保相似性的哈希编码,本文最终利用数据对哈希编码的相似度作为权重的设计依据具体的权重形式将在模型部分详细介绍.正确分类的概率图3Focal Loss示意图[21】Fig.3Focal Loss diagram12112深度优先局部聚合哈希2.1基本定义DPLAH模型采用非对称的网络设计.Q={0},=1表示n张查询图像,X={X i}m1表示数据库有m张图像;查询图像和数据库图像的标签分别用Z={Z i},=1和Y ={川1表示;i=[Z i1,…,zj1,i=1,…,n;c表示类另数;如果查询图像0属于类别j,j=1,…,c;那么z”=1,否则=0.利用标签信息,可以构造图像对的相似性矩阵S沂{-1,1}"伊”,s”=1表示查询图像q,和数据库中的图像X j语义相似,S j=-1表示查询图像和数据库中的图像X j语义不相似.深度哈希方法的目标是学习查询图像和数据库中图像的哈希编码,查询图像的哈希编码用U沂{-1,1}"",表示,数据库中图像的哈希编码用B沂{-1,1}m伊r表示,其中r表示哈希编码的长度.对于DPLAH模型,它在特征提取部分采用预训练好的Resnet18网络[25].图4为DPLAH网络的结构示意图,利用NetVLAD层聚合Resnet18网络提取到的卷积特征,哈希编码通过VLAD编码得到,由于VLAD编码在分类任务中被广泛使用,于是本文将NetVLAD层的输出作为分类任务的输入,利用图像的标签信息监督NetVLAD层对卷积特征的利用.事实上,任何一种CNN模型都能实现图像特征提取的功能,所以对于选用哪种网络进行特征学习并不是本文的重点.62湖南大学学报(自然科学版)2021年conv1图4DPLAH结构Fig.4DPLAH structure图像标签soft-max1,0,1,1,0□1,0,0,0,11,1,0,1,0---------*----------VLADVLAD core)c)l・>:i>数据库图像的哈希编码2.2DPLAH模型的目标函数为了学习可以保留查询图像与数据库图像之间相似性的哈希编码,一种常见的方法是利用相似性的监督信息S e{-1,1}n伊"、生成的哈希编码长度r,以及查询图像的哈希编码仏和数据库中图像的哈希编码b三者之间的关系[9],即最小化相似性的监督信息与哈希编码对内积之间的L损失.考虑到相似性分布的倾斜问题,本文通过施加权重来调节查询图像和数据库图像之间的损失,其公式可以表示为:min J=移移(1-w)(u T b j-rs)专,B i=1j=1s.t.U沂{-1,1}n伊r,B沂{-1,1}m伊r,W沂R n伊m(5)受FocalLoss启发,希望深度哈希网络优先训练相似性不容易保留图像对,然而Focal Loss利用图像的分类结果对损失进行调整,因此,需要重新进行设计,由于哈希学习的目的是为了保留图像在汉明空间中的相似性关系,本文利用哈希编码的余弦相似度来设计权重,其表达式为:1+。
随机森林算法改进综述
随机森林算法改进综述发布时间:2021-01-13T10:23:33.577Z 来源:《科学与技术》2020年第27期作者:张可昂[导读] 随机森林是当前一种常用的机器学习算法,张可昂云南财经大学国际工商学院云南昆明 650221摘要:随机森林是当前一种常用的机器学习算法,其是Bagging算法和决策树算法的一种结合。
本文就基于随机森林的相关性质及其原理,对它的改进发展过程给予了讨论。
1、引言当前,随机森林算法得到了快速的发展,并应用于各个领域。
随着研究环境等的变化,且基于随机森林良好的可改进性,学者们对随机森林的算法改进越来越多。
2、随机森林的原理随机森林是一种集成的学习模型,它通过对样本集进行随机取样,同时对于属性也随机选取,构建大量决策树,然后对每一棵决策树进行训练,在决策树中得到许多个结果,最后对所有的决策树的结果进行投票选择最终的结果。
3、随机森林算法改进随机森林的算法最早由Breiman[1]提出,其是由未经修剪树的集合,而这些树是通过随机特征选择并组成训练集而形成的,最终通过汇总投票进行预测。
随机森林的应用范围很广,其可以用来降水量预测[2]、气温预测[3]、价格预测[4]、故障诊断[5]等许多方面。
但是,根据研究对象、数据等不同,随机森林也有许多改进。
例如为了解决在高维数据中很大一部分特征往往不能说明对象的类别的问题,Ye et al.提出了一种分层随机森林来为具有高维数据的随机森林选择特征子空间[6]。
Wang为了解决对高位数据进行分类的问题,提出了一种基于子空间特征采样方法和特征值搜索的新随机森林方法,可以显著降低预测的误差[7]。
尤东方等在研究存在混杂因素时高维数据中随机森林时,实验得出基于广义线性模型残差的方法能有效校正混杂效应[8]。
并且许多学者为了处理不平衡数据问题,对随机森林算法进行了一系列的改进。
为了解决在特征维度高且不平衡的数据下,随机森林的分类效果会大打折扣的问题,王诚和高蕊结合权重排序和递归特征筛选的思想提出了一种改进的随机森林算法,其可以有效的对特征子集进行精简,减轻了冗余特征的影响[9]。
5G帧结构解析
发布时间:2017-08-23 10:33:15来源:网优雇佣军标签:5G帧结构时延分享到:<a target='_blank' href=''><img border='0' alt='' src='&n=b7a16b3' /></a>3GPP正在定义5G NR(New Radio)的物理层,相对于4G,5G最大的特点是支持灵活的帧结构。
WHY?因为5G要支持更多的应用场景,其中,超高可靠低时延(URLLC)是未来5G的关键服务,需要比LTE时隙更短的帧结构。
这是怎样的一种帧结构呢?1 NumerologyNumerology这个概念可翻译为参数集,大概意思指一套参数,包括子载波间隔,符号长度,CP长度等等。
5G的一大新特点是多个参数集(Numerology),其可混合和同时使用。
Numerology 由子载波间隔(subcarrier spacing)和循环前缀(cyclic prefix)定义。
在LTE/LTE-A中,子载波间隔是固定的15kHz,5G NR定义的最基本的子载波间隔也是15kHz,但可灵活可扩展。
所谓可灵活扩展,即NR的子载波间隔设为15*(2^m) kHz,m ∈ {-2, 0, 1, ..., 5},也就是说子载波间隔可以设为、、15kHz、30kHz、60kHz、120kHz...(如下表):2 帧结构对于5G帧结构,由固定结构和灵活结构两部分组成。
如上图,与LTE相同,无线帧和子帧的长度固定,从而允许更好的保持LTE与NR间共存。
这样的固定结构,利于LTE和NR共同部署模式下时隙与帧结构同步,简化小区搜索和频率测量。
不同的是,5G NR定义了灵活的子构架,时隙和字符长度可根据子载波间隔灵活定义。
3 Mini-Slots5G定义了一种子时隙构架,叫Mini-Slot。
语音识别中的声学特征提取使用教程
语音识别中的声学特征提取使用教程语音识别技术已经在我们的生活中发挥着越来越重要的作用。
为了提高语音识别系统的精确性和准确性,声学特征提取是一个至关重要的步骤。
在本篇文章中,我将详细介绍语音识别中声学特征提取的使用教程。
无论您是新手还是有经验的开发者,都可以从中获得一些有用的信息。
声学特征提取是将语音信号转换为一系列数学特征的过程。
这些特征包含了语音信号的重要信息,可以帮助识别和区分不同的语音单元。
在语音识别中常用的声学特征提取方法包括梅尔频率倒谱系数(MFCC)、线性预测编码(LPC)、梅尔频率包络(MFE)等。
下面将逐一介绍这些常用的声学特征提取方法。
首先,梅尔频率倒谱系数(MFCC)是一种广泛应用的声学特征提取方法。
它模拟了人耳对声音频率的感知特性。
MFCC的主要步骤包括预加重、分帧、加窗、快速傅里叶变换(FFT)、梅尔滤波器组和离散余弦变换(DCT)。
其中,预加重通过对语音信号进行高频增强,可以提高MFCC的提取效果。
分帧将长时间的语音信号分割为短时间的帧,通常采用20-30毫秒的帧长。
加窗是将每个帧进行加窗处理,常用的窗函数有汉明窗、汉宁窗等。
FFT将每个帧从时域转换到频域,得到每个频率的幅度谱。
梅尔滤波器组将频域的振幅谱映射到梅尔频率的刻度上,以模拟人耳对声音频率的感知。
最后,DCT将梅尔滤波器组的输出转换为倒谱系数,作为最终的声学特征。
其次,线性预测编码(LPC)是一种基于线性预测模型的声学特征提取方法。
LPC通过建立语音信号的线性预测模型,将语音信号分解为预测误差和线性预测系数。
LPC的主要步骤包括帧分割、自相关函数计算、勒维尔算法(递归最小二乘法)求解线性预测系数、预测误差计算等。
帧分割和加窗与MFCC类似,自相关函数计算用于求解线性预测系数,勒维尔算法通过最小化预测误差的平方和来求解线性预测系数。
而预测误差则表示了语音信号与线性预测模型之间的差异。
最后,梅尔频率包络(MFE)是一种在声学特征提取中不那么常用的方法。
改进适应度函数的阵列综合粒子群算法
( AVI Ai b r e M i s l a my,Lu y n 1 09 C r o n s ie Ac de o a g 47 0 ,Ch n ) i a
Ab t a t An i r v d p r il wa m p i z t n a g rt m a e n i r v d f n s u c i n c lu sr c : mp o e a t e s r o tmia i l o i c o h b s d o mp o e i e sf n t ac — t o l t n i r p s d t o v h r b e so v r c t r tv n s n l w v li g s e d o o v r e c n a i p o o e o s l e t e p o lm fo e mu h ie a i e e s a d s o e o v n p e f c n e g n e i o s a r y s n h ss Ba e n t e c n e g n e te d,t e p o o e t o o d c s weg t d c lu a i n i n r a y t e i. s do h o v r e c rn h r p s d me h d c n u t i h e ac lt n a o a p o ra e r n e i h i e s f n to a c l t n o i c n d a t h a t ih a f c h p e f p r p it a g n t e f n s u ci n c l u a i ,s t a e l t o wih t e f c s wh c fe tt e s e d o
得 到 提 高 、 得 到 优 先 处 理 , 而 降 低 平 均 计 算 时 间 。 通过 对 线 阵 天 线 的 仿 真 实 验 , 果 表 明 该 方 法 效 果 明 并 从 结 显 , 以在 满 足 方 向 图要 求 的前 提 下 , 大减 少收 敛 所 需 迭 代 的 次 数 , 快 收 敛 速 度 。 可 大 加
matlab蒙特卡洛如何结合粒子群优化算法
matlab蒙特卡洛如何结合粒子群优化算法蒙特卡洛方法是一种基于随机数的数值计算方法,通过随机抽样来近似求解问题。
而粒子群优化(PSO)算法是一种基于群体智能的优化算法,模拟鸟群觅食行为来寻找最优解。
将蒙特卡洛方法与粒子群优化算法相结合,可以利用蒙特卡洛方法的随机性来增加粒子群优化算法的全局搜索能力和收敛速度。
首先,将问题转化为数学模型,并定义适应度函数。
例如,我们希望通过粒子群优化算法求解一个非线性优化问题。
可以将问题定义为最小化目标函数f(x),其中x为优化变量。
然后,定义适应度函数为适应度等于目标函数的倒数,越小代表适应度越好。
其次,初始化粒子群的位置和速度。
初始位置可以通过蒙特卡洛方法进行随机抽样得到。
例如,如果优化变量是一个n维向量x=(x_1, x_2, ... , x_n),那么可以通过在每个维度上进行随机抽样来生成初始位置。
初始速度也可以通过随机抽样得到。
然后,根据粒子的位置和速度更新规则,进行迭代优化。
在每次迭代中,根据当前位置和速度计算下一时刻的位置和速度。
位置的更新可以通过下式计算得到:x_i(t+1) = x_i(t) + v_i(t+1)其中,x_i(t)为粒子i在时刻t的位置,v_i(t+1)为粒子i在时刻t+1的速度。
速度的更新可以通过下式计算得到:v_i(t+1) = w*v_i(t) + c1*r1*(p_i(t) - x_i(t)) + c2*r2*(p_g(t) -x_i(t))其中,v_i(t)为粒子i在时刻t的速度,w为惯性权重,c1和c2为加速因子,r1和r2为随机因子,p_i(t)为粒子i的个体最优解,p_g(t)为整个粒子群的全局最优解。
迭代计算,直到满足停止条件。
可以设置迭代次数、最大误差、最优解的误差等作为停止条件。
最后,根据得到的最优解进行分析和优化。
可以输出最优解的数值结果,并对结果进行分析和优化。
蒙特卡洛方法和粒子群优化算法的结合将两者的优势相结合,提高了全局搜索能力和收敛速度。
贝叶斯超参数优化 多层感知器
贝叶斯超参数优化是一种用于自动调整机器学习模型超参数的优化技术。
它使用贝叶斯概率理论来估计超参数的最佳值,以优化模型的性能。
多层感知器(MLP)是一种常用的神经网络模型,由多个隐藏层组成,每个层包含多个神经元。
MLP可以用于分类、回归等多种任务。
当使用贝叶斯超参数优化来调整MLP的超参数时,通常会选择一些常见的超参数,如学习率、批量大小、迭代次数等。
贝叶斯优化器会根据这些超参数的性能,选择下一个可能的最佳值。
它通过在每个步骤中随机选择少量的超参数组合,而不是搜索每个可能的组合,来提高效率。
在实践中,贝叶斯超参数优化通常使用一种称为高斯过程回归(Gaussian Process Regression)的方法,该方法可以估计每个超参数的可能值以及它们的概率分布。
然后,根据这些信息选择下一个超参数的值,以最大化模型性能的预期改善。
使用贝叶斯超参数优化可以自动调整超参数,避免了手动调整的困难和耗时。
此外,它还可以帮助找到更好的超参数组合,从而提高模型的性能和准确性。
这对于机器学习任务的实验和开发非常重要,因为它可以帮助快速找到最佳的模型配置。
采用特征空间随机映射的鲁棒性语音识别
Ab t a t sr c :To i r v p e h r c g i o n n i n i n n u h a n d vn a , a n w t o ih a o t d mp o e s e c e o nt n i os e vr me ts c s i r i g c r e me h d wh c d p e i y o i
C0D YID EN J I U
ht:/ w .oa e t / w w je.n p
di1 .74 S ..0 7 2 1 .2 7 o:0 32 / P J 18 .0 2 00 0
采 用 特 征 空 间 随机 映 射 的鲁 棒 性 语 音 识别
周 阿转 , 俞一彪
( 苏州大学 语音技术研究室, 江苏 苏州 2 50 ) 106 (} 通信作者 电子邮箱 zoah a@13 cr) h uzun 6 .o n
R n o rjco R )o a r aew s rpsdi i ppr i t r ia sec auece cetw r p jc d a dm Poet n( P fet es c a ooe t s a e.Fr ,o g l pehf tr of in ee m et i f u p p nh s i n e i s e
pee eteo gnl iacs m n a r i aiu r ait.T e i e ro dl H rsr r ia ds ne o g et e wt m x m po bly hnHd nMakvMoe ( MM)o vr w r v h i t a f us h m b i d f e od e y
多尺度卷积参数表示
多尺度卷积参数表示
1. 尺度空间理论,在图像处理中,尺度空间理论是指对图像进
行多个尺度的平滑处理,以便在不同尺度下检测和定位图像中的特征。
多尺度卷积参数表示即是指在卷积神经网络中,为了能够对不
同尺度的特征进行有效提取,需要设置不同尺度的卷积核参数。
2. 多尺度特征提取,在卷积神经网络中,通过使用不同大小的
卷积核对输入特征图进行卷积操作,可以得到不同尺度的特征表示。
这些不同尺度的卷积核参数即构成了多尺度卷积参数表示,通过这
种方式可以捕获到图像中不同尺度的信息。
3. 网络架构设计,在设计卷积神经网络时,通常会考虑到图像
中存在的多个尺度的信息。
为了充分利用这些信息,可以通过设置
不同尺度的卷积核参数来构建多尺度卷积层,以实现对多尺度特征
的提取和融合。
总的来说,多尺度卷积参数表示是指在卷积神经网络中通过设
置不同尺度的卷积核参数,以实现对图像中不同尺度特征的有效提
取和表示。
这一概念在图像处理和计算机视觉任务中起着至关重要
的作用,能够帮助网络更好地理解和处理多尺度的信息,从而提高模型的性能和泛化能力。
基于量子粒子群算法的ct系统参数标定
基于量子粒子群算法的ct系统参数标定下载提示:该文档是本店铺精心编制而成的,希望大家下载后,能够帮助大家解决实际问题。
文档下载后可定制修改,请根据实际需要进行调整和使用,谢谢!本店铺为大家提供各种类型的实用资料,如教育随笔、日记赏析、句子摘抄、古诗大全、经典美文、话题作文、工作总结、词语解析、文案摘录、其他资料等等,想了解不同资料格式和写法,敬请关注!Download tips: This document is carefully compiled by this editor. I hope that after you download it, it can help you solve practical problems. The document can be customized and modified after downloading, please adjust and use it according to actual needs, thank you! In addition, this shop provides you with various types of practical materials, such as educational essays, diary appreciation, sentence excerpts, ancient poems, classic articles, topic composition, work summary, word parsing, copy excerpts, other materials and so on, want to know different data formats and writing methods, please pay attention!基于量子粒子群算法的CT系统参数标定在CT系统的工作中,参数的准确标定至关重要。
重参数化卷积 英语
重参数化卷积英语The term "reparameterization convolution" refers to a technique used in deep learning and specifically in convolutional neural networks (CNNs). In the context of CNNs, reparameterization convolution is a method that aims to improve the efficiency and effectiveness of the convolutional layers by reparameterizing the filters or weights in a way that reduces the computational cost and memory usage while maintaining or even improving the performance of the network.In reparameterization convolution, the traditional convolutional filters are transformed or restructured in a manner that allows for more efficient computation. This can involve techniques such as factorizing the filters into smaller components, using low-rank approximations, or applying other mathematical transformations to the filter parameters. By doing so, the number of parameters in the network can be reduced, leading to faster training and inference times, as well as lower memory requirements.One common approach to reparameterization convolutionis the use of depthwise separable convolutions, which decompose the standard convolution into two separate layers: a depthwise convolution that filters input channels separately, followed by a pointwise convolution that combines the outputs of the depthwise convolution. This separation of the spatial and channel-wise filtering helpsin reducing the number of parameters and the computational cost, particularly in mobile and embedded applicationswhere resource constraints are a concern.Reparameterization convolution has gained attention in the deep learning community due to its potential for improving the efficiency of CNNs, particularly in scenarios where computational resources are limited. By rethinkingthe parameterization of convolutional layers, researchers and practitioners aim to strike a balance between model complexity and computational efficiency, ultimately leading to more scalable and deployable deep learning models.In summary, reparameterization convolution is atechnique in deep learning that involves rethinking the parameterization of convolutional layers to make them more efficient in terms of computational cost and memory usage, without sacrificing the performance of the network. It encompasses various methods such as depthwise separable convolutions and other reparameterization strategies aimed at reducing the number of parameters and improving the overall efficiency of convolutional neural networks.。
二维核密度估计 自适应 r语言
二维核密度估计自适应 r语言二维核密度估计是一种常用的统计方法,用于估计二维数据的概率密度分布。
它可以帮助我们了解数据的分布特征、密度变化以及可能存在的聚集区域。
在R语言中,我们可以使用自适应方法来进行二维核密度估计,以更好地适应不同数据集的特点。
自适应二维核密度估计方法能够根据数据的分布情况,自动调整核密度估计的带宽参数,从而更准确地揭示数据的概率密度分布。
在R语言中,可以使用ks和kde2d等包来实现自适应二维核密度估计。
我们需要加载相应的包,并读取二维数据集。
然后,我们可以使用kde2d函数来进行自适应二维核密度估计。
该函数可以根据数据的分布情况,自动选择合适的带宽参数。
接下来,我们可以使用contour函数或persp函数来可视化二维核密度估计结果。
contour函数可以绘制等高线图,展示数据的密度分布情况;persp函数可以绘制三维图,更直观地显示数据的分布特征。
需要注意的是,在进行二维核密度估计时,我们需要选择合适的带宽参数。
带宽参数的选择会影响估计结果的准确性和平滑程度。
通常,较小的带宽参数可以更好地反映数据的细节特征,但可能会导致估计结果过于噪声;较大的带宽参数可以平滑数据,但可能会导致估计结果失去细节。
因此,我们可以通过交叉验证等方法来选择合适的带宽参数。
交叉验证可以评估不同带宽参数下的估计结果,并选择最优的带宽参数。
自适应二维核密度估计是一种有效的统计方法,可以帮助我们更好地理解数据的分布特征。
在R语言中,我们可以使用ks和kde2d 等包来实现自适应二维核密度估计,并通过合适的可视化方法来展示估计结果。
通过选择合适的带宽参数,我们可以获得准确、平滑的二维核密度估计结果,从而更好地分析和解释数据。
特征嵌入技术公式
特征嵌入技术公式特征嵌入技术是一种常用的机器学习方法,它用于将高维的数据表示成低维的特征空间。
在这个特征空间中,每个样本被表示为一个稠密的向量,可以用于各种机器学习任务,如分类、聚类和回归等。
特征嵌入技术的公式可以表示为:\[ f(x) = \phi(x) \]其中,\( f(x) \) 是将输入样本 \( x \) 映射到特征空间的函数,\( \phi(x) \) 是特征嵌入函数。
特征嵌入函数将输入样本映射到一个低维的特征向量空间中,这个特征向量可以捕捉到样本的重要特征。
特征嵌入技术有很多种方法,其中最常用的是基于神经网络的方法,如词嵌入和图像嵌入等。
以词嵌入为例,它将单词映射到一个连续的向量空间中,这样可以用向量的相似性来表示单词之间的语义关系。
这种方法在自然语言处理任务中得到了广泛的应用,如情感分析、机器翻译和文本生成等。
特征嵌入技术的好处是可以将原始数据转化为更加有意义和有用的表示,从而提高机器学习算法的性能。
通过特征嵌入,我们可以降低数据的维度,减少计算和存储的开销,并且可以提取出更加有区分性的特征,从而改善模型的泛化能力。
除了基于神经网络的方法,特征嵌入技术还可以通过其他方法来实现。
例如,基于矩阵分解的方法可以用于图像嵌入,将图像表示为一个低维的矩阵。
这种方法在图像检索和图像生成等任务中具有重要的应用。
特征嵌入技术在实际应用中有很多挑战和限制。
首先,选择合适的特征嵌入方法和参数是一个关键的问题,不同的任务和数据可能需要不同的方法来进行特征嵌入。
其次,特征嵌入过程中可能会丢失一些原始数据的信息,因此需要权衡数据的维度和信息的丢失程度。
此外,特征嵌入过程中可能会引入一些不可解释的特征,这对于某些应用来说可能是一个问题。
特征嵌入技术是一种重要的机器学习方法,它可以将高维的数据表示为低维的特征空间,并且提取出有意义和有用的特征。
通过特征嵌入,我们可以改善机器学习算法的性能,并且在各种任务中取得更好的效果。
WinNonLin药代动力学参数(非房室模型)含义之欧阳文创编
WinNonLin药代动力学参数(非房
室模型)含义
非房室模型的统计矩方法以概率论和数理统计学中的统计矩方法为理论基础,对数据进行解析,包括零阶矩、一阶矩和二阶矩,体现平均值、标准差等概念,反映了随机变量的数字特征。
零阶矩为AUC,和给药剂量成正比,是一个反映量的函数;
一阶矩为MRT,反映药物分子在体内的平均停留时间,是一反映速度的函数。
静脉注射给药,在血药浓度时间曲线呈现单指数项方程特征情况下,MRT表示消除给药剂量的63.2%所需的时间。
表1、WinNonLin药代动力学参数(非房室模型)含义。
用于说话人鉴别的特征组合方法(英文)
用于说话人鉴别的特征组合方法(英文)
章万锋;吴朝晖;杨莹春;马志友
【期刊名称】《广西师范大学学报:自然科学版》
【年(卷),期】2003(0)A01
【摘要】线性预测系数(LPC)与mel倒谱系数(MFCC)作为说话人识别的两种常用特征,取得了较高的识别率.但这两种特征都存在维数限制的问题,即当特征维数增加到一定程度时,识别率不再提高.该现象可以从机理方面解释,实验数据也表明了这一现象.本文试图用特征组合方法克服这种限制,实验表明,在无噪和噪声情况下,特征组合都表现出其有效性.
【总页数】6页(P10-15)
【关键词】说话人鉴别;维数限制;特征组合
【作者】章万锋;吴朝晖;杨莹春;马志友
【作者单位】浙江大学计算机系统工程研究所浙大中正嵌入式与生物认证技术联合实验室
【正文语种】中文
【中图分类】TN912.34
【相关文献】
1.基于改进的时间动态规整算法的多特征组合的说话人辨认方法研究 [J], 谢迎春;刘建平;于晓琳;;;;
2.噪声环境下说话人识别的组合特征提取方法 [J], 芮贤义;俞一彪
3.说话人识别中基于Fisher比的特征组合方法 [J], 谢小娟;曾以成;熊冰峰
4.说话人识别的特征组合方法 [J], 毛燕湖;曾以成;陈雨莺;谢小娟
5.多特征组合多分类器的方法用于“文本无关”的说话人辨认(英文 ) [J], 王岚;陈珂;迟惠生
因版权原因,仅展示原文概要,查看原文内容请购买。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
a r X i v :0805.3021v 1 [n u c l -t h ] 20 M a y 2008New parameterization of effective nucleon-nucleon t -matrixinteraction for scattering at intermediate energies.dyginaE-mail:nladygina@jinr.ruAbstractThe model suggested by Love and Franey for description of the nucleon-nucleon in-teraction was used as the base.The new fitting of the model parameters was done in the energy range from 100MeV up to 1100MeV.It is based on the modern partial-wave-analysis solution for NN-amplitudes.The three observables:differential cross section,vector analyzing power,and spin correlation coefficient –were obtained at every energy.The results are compared with existing the experimental data.In order to solve the problems of the nucleon-nucleus scattering,it is very important to know the coupling between two nucleons.A quantitative knowledge of the nucleon-nucleon coupling fromfirst principles over a wide energy range must await a more complete theory of strong interaction.In this connection it is useful to have a model which describe the effective nucleon-nucleon interaction.Such phenomenological model was suggested by W.G.Love and M.A.Franey in ref.[1].According to this paper t-matrix can be expressed in the following form t sym(E∗,Θ∗)=A′(E∗,Θ∗)P S+B′(E∗,Θ∗)P T+C′(E∗,Θ∗)(( σ1+ σ2)·ˆn)++E′(E∗,Θ∗)S12(ˆq)+F′(E∗,Θ∗)S12(ˆQ),(1) where E∗is the center-of-mass energy;Θ∗is the scattering angle in the c.m.system.The unit vectorsˆq,ˆQ,ˆn form a right-handed coordinate system withˆq= k− k′| k+ k′|,ˆn=ˆq׈Q,(2)where k and k′are the initial andfinal momenta in the c.m.system.The usual tensor operator S12(ˆk)=3( σ1ˆk)( σ2ˆk)−( σ1 σ2),the singlet spin-projection operatorP S=14(3+( σ1 σ2))were used inEq.(1).It should be noted,that t-matrix,here,is the antisymmetrized one,i.e.t sym=[1−P12]t, where P12is the permutation operator of the particles of”1”and”2”.This t-matrix is connected with NN-amplitude M by the relationshipt NN(E∗,θ∗)=−4π(2π)3V SOi 11+Q2R2iB′0=4πR3i1+q2R2i+1(2π)3V LSEiqQ 1(1+Q2R2i)2 (4)E′0=−32πiR7i(1+q2R2i)3F′0=−32πiR7i(1+Q2R2i)3.For I=1these amplitudes areA′1=4πR3i1+q2R2i+1(2π)3V T Oi 11+Q2R2iC′1=2πiR5i(1+q2R2i)2+1 (2π)3V T NOiq2(2π)3V T NOiQ24(A′+3B′)B=14(B′−A′)+2E′−F′F=1T lab=100MeV,Re partR VTO VTNO8352.180-680.0020383.4560-753.3480220.390-50.13820-0.9660630VSE VLSO0.11-6037.04-1.17288e+06 0.152053.568576020.25-5679.67-55084.20.4962.6412887.140.5521.4285-310.5130.733.486910.00061.4-3.48397-0.0710843T lab=100MeV,Re partR VTE VTNE29001.40-78611.402329.430-9198.2704694.370-936.359014.91610VSO VLSE0.1156000-4000000.15-25004000.25450-300000.4-3476.294251.080.551400-514.6270.7-22092.37791.42.674440.140121T lab=200MeV,Re partR VTO VTNO 21605.30-1247.820333.2650-1299.380434.1750-91.140300.001000030VSE VLSO0.11-8271.96-816552 0.155172.77300032 0.25-6332.04-20160.7 0.41008.421677.25 0.5524.2187-290.3960.720.324419.1021.4-3.39373-0.111059 T lab=200MeV,Re partR VTE VTNE25999.90-41962.502185.950-5768.0903625.010-950023.58440VSO VLSE0.1135929.1-200000 0.15-4938.9376436.7 0.25280.001-16000 0.4-2999.92810.16 0.551370.36-351.5810.7-150681.42.341640.320879T lab=300MeV,Re partR VTO VTNO 26672.70-440.9360338.3210-1955.990662.1550-124.5040-0.2110340VSE VLSO0.11-8520.21-315784 0.156830.0895000 0.25-6492.94-7914.95 0.41018.76972.465 0.5549.6393-229.9820.7-2.217.99791.4-3.03145-0.13225 T lab=300MeV,Re partR VTE VTNE15872.80-41011.901519.370-3005.6402834.90-976.34027.65850VSO VLSE0.1125992.6-100000 0.15-5155.48115271 0.25400.025-14500 0.4-2299.712146.74 0.551098.88-2200.7-155.57653.61061.42.833880.276692T lab=400MeV,Re partR VTO VTNO35128.70-573.3880343.6410-2767.960929.1590-164.3480-0.6570180VSE VLSO0.11-9755.82-174487 0.157612.0430005.5 0.25-6599.66-3000.55 0.41022.54599.838 0.5549.9533-178.9240.7-4.0000714.60321.4-3.02676-0.138766 T lab=400MeV,Re partR VTE VTNE10003.50-37996.903011.60-1899.1601997.570-786.388027.82550VSO VLSE0.1126096.1-140000 0.15-6880.21476430.25800.026-14459.2 0.4-2394.611878.77 0.551161.22-1800.7-199.97552.56851.42.800010.178394T lab=500MeV,Re partR VTO VTNO37862.80-4954.5803767.370-4346.0101293.770-208.8140-0.9952480VSE VLSO0.11-20517.6-194388 0.159483.9416807.9 0.25-6649.3-8000.41074.55424.257 0.5549.9999-150.1470.7-6.000112.66681.4-3.09034-0.142317 T lab=500MeV,Re partR VTE VTNE33722.80-43521.804500.250-1350.4301098.490-449.229023.95140VSO VLSE0.1129775.1-220000 0.15-10333152897 0.251528.95-14042.5 0.4-2544.991927.52 0.551099.96-2000.7-170.00151.71881.42.753960.191684T lab=600MeV,Re partR VTO VTNO39223.10-16823.708156.470-4906.4501302.730-214.6870-1.000040VSE VLSO0.11-26608.4-489266 0.1525000.285000 0.25-9611.59-1897.11 0.41353.9318.405 0.5550.3023-97.88030.7-17.8269 4.034531.4-2.90834-0.113632 T lab=600MeV,Re partR VTE VTNE34999.80-46778.308064.220-2764.4501191.140-256.618010.43610VSO VLSE0.1135000.3-350000 0.15-15973.9191095 0.253114.64-16483.9 0.4-300022000.551170.99-260.550.7-170.00157.07831.42.57810.180795T lab=600MeV,ppT lab=600MeV,npT lab=700MeV,Re partR VTO VTNO45263.70-614850266010-7902.7201662.150-216.650-1.944280VSE VLSO0.11-26764.2-656304 0.1575446.9160970 0.25-19034.7-6500 0.41408.82458.73 0.55348.91-890.7-111.874 1.914241.4-1.92047-0.112063 T lab=700MeV,Re partR VTE VTNE38678.40-60050017152.30-5998.5701622.220-84.999201.648530VSO VLSE0.1149726.5-680000 0.15-31519.1270000 0.256008.46-18737.3 0.4-3045.782252.89 0.551306.58-286.4620.7-319.91961.71451.49.291090.131033T lab=800MeV,Re partR VTO VTNO45300.90-79869.3036206.30-10176.902127.490-261.7520-2.434630VSE VLSO0.11-13305.2-920000 0.15121165291900 0.25-31106.7-17421.9 0.42806.011236.76 0.55146.599-156.9890.7-112.002 2.058971.4-1.29686-0.0544541 T lab=800MeV,Re partR VTE VTNE390000-99999.9027341.10-7133.8401700.120-103.45104.474020VSO VLSE0.1185585.8-3800000.15-46437.81758050.254000.48-14975.30.4-2561.782303.390.551632.37-398.5570.7-498.91886.46921.411.22180.0050183T lab=900MeV,Re partR VTO VTNO45401.60-74533.3033478.50-9375.5801809.970-189.670-2.92590VSE VLSO0.11-9301.41-600000 0.15116767225933 0.25-30906-17130.4 0.42829.681316.68 0.55114.117-165.3790.7-116.036 2.030061.4-0.897898-0.042234 T lab=900MeV,Re partR VTE VTNE40555.10-108846028152.10-6500.301500.040-135.4308.86320VSO VLSE0.1165153.1-259059 0.15-36529.11349840.253922.52-119790.4-2439.751782.36 0.551212.83-273.5710.7-270.00966.7161.42.152970.0514867T lab=1000MeV,Re partR VTO VTNO60666.90-72709.5028017.30-7447.101117.530-50.00010-3.568020VSE VLSO0.11-9057.76-300001 0.1596145.3143127 0.25-26263.4-14093.3 0.42389.941192.58 0.55113.728-156.5620.7-116.033 2.000191.4-0.415819-0.0420831 T lab=1000MeV,Re partR VTE VTNE44901.60-70514.2014013.40-3749.1301270.40-199.73404.829930VSO VLSE0.1164686.9-1200000.15-34026.4935240.252150.45-10164.8 0.4-1557.281576.550.55769.397-235.4090.7-150.10960.9371.40.1903350.0573121T lab=1100MeV,Re partR VTO VTNO69410.40-71738.40253440-6844.690993.5010-36.1940-3.275550VSE VLSO0.11-9017.06-120000 0.1581222.385623.9 0.25-23137.9-11257.2 0.42204.781058.8 0.5587.9625-149.1260.7-117.096 2.587821.4-0.100002-0.0456317 T lab=1100MeV,Re partR VTE VTNE48439.20-59038.507698.420-1908.2801121.090-319.69504.67740VSO VLSE0.1141234.9-600000.15-21169.569533.60.251340.98-8687.87 0.4-1196.531358.40.55500.001-186.9770.7-85.683953.05551.40.1044050.0701362。