基于深层信度网络的孟加拉词声学建模(IJIGSP-V7-N10-3)

合集下载

通信原理理论与实验深度融合模式探索

通信原理理论与实验深度融合模式探索

黑龙江科学HEILONGJIANG SCIENCE第12卷第7期2021年4月Vol. 12Apr. 2021通信原理理论与实验深度融合模式探索童艳,李丹,贾雪松(沈阳城市建设学院,沈阳110167)摘要:为了充分利用实验室资源,增强学生的学习兴趣和动力,对通信原理课程理论和实验深度融合的教学模式进行了研究。

指 出了通信原理课程的重要性,分析了该课程理论教学和实验中存在的问题,发现了理论教学和实验分开独立进行的弊端。

提出了通信原理理论和实验深度融合教学模式的具体实施方案,在现有实验设备条件下,列出了各知识点所对应的实验。

由分析可见,通 信原理课程理论和实验深度融合的教学模式是可行的,在该模式下,理论与实验相互配合、相互促进,能有效激发学生的学习热情, 提高教学效果,达到教学目的。

关键词:通信原理;理论与实验深度融合;教学模式中图分类号:TN92-4;G434文献标志码:B 文章编号:1674 -8646(2021)07 -0064 -03Exploration of Deep Integration Model of Communication Theory and ExperimentTong Yan , Li Dan, Jia Xuesong(Shenyang Urban Construction University , Shenyang 110167 , China)Abstract : In order to fully utilize experiment resource , increase student study interest and motivation , the researchanalyzes the deep integration teaching model of communication principle course theory and experiment , points out theimportance of communication principle course , analyzes the problems , and finds the disadvantages of separation between theoretical teaching and experiment. The research proposes the specific implement scheme of the deep integration teaching model of communication principle course theory and experiment , and lists the experiments according to allknowledge points under the cunent experiment equipment situation. Through analysis , the teaching model of deepintegration of communication theory and experiment is feasible ・ Under the model , theory and experiment can match andpromote each other. So it can effectively motivate student study enthusiasm , improve teaching effect , and achieve the teaching goal ・Key words : Communication principle ; Deep integration of theoiy and experiment ; Teaching model0引言通信原理课程是所有本专科院校通信工程专业的必修课,是通信工程专业的一门专业核心课,是通信工 程专业很多专业课的基础⑴,其先修课程有高等数学、线性代数、复变函数、概率论与数理统计、信息论基 础、信号与线性系统、模拟电子技术基础、数字电子技 术基础、电磁场理论等。

基于深度学习和PnP模型的激光跟踪仪自动姿态测量

基于深度学习和PnP模型的激光跟踪仪自动姿态测量

第30卷第9期2022年5月Vol.30No.9May2022光学精密工程Optics and Precision Engineering基于深度学习和PnP模型的激光跟踪仪自动姿态测量周道德1,2,高豆豆1,董登峰1,2*,周维虎1,2,崔成君1(1.中国科学院微电子研究所,北京100029;2.中国科学院大学,北京100049)摘要:针对航空航天、汽车装配等高端制造领域对姿态测量的迫切需求,提出一种面向激光跟踪仪的快速高精度姿态测量方法,利用深度学习结合视觉PnP模型实现了激光跟踪过程中被测件姿态的自动测量。

针对PnP姿态求解模型所需的3D特征点和2D特征点之间的对应关系难以直接确定的问题,设计了一个特征提取网络用于提取特征点对应的高维特征,采用最优传输理论确定特征向量之间的联合概率分布,从而完成3D-2D特征点的自动匹配;使用Ransac-P3P结合EPnP算法对匹配好的3D特征点和2D像素点进行姿态求解,获得高精度的姿态信息;在此基础上,利用隐式微分理论计算PnP求解过程的雅克比矩阵,从而将PnP姿态求解模型集成到网络中并指导网络训练,实现了深度网络匹配能力与PnP模型姿态求解能力的优势互补,提高了解算精度。

最后,制作了一个含有丰富标注信息的数据集,用于训练面向激光跟踪仪的姿态测量网络。

基于高精度二维转台进行了姿态测量实验,结果表明,该方法在3m处对俯仰角的测量精度优于0.31°,横滚角精度优于0.03°,单次测量耗时约40ms,能够实现激光跟踪仪的高精度姿态测量。

关键词:激光跟踪仪;姿态测量;单目视觉;深度学习中图分类号:TP391.4;TH744文献标识码:A doi:10.37188/OPE.20223009.1047Automatic attitude measurement of laser tracker based ondeep learning and PnP modelZHOU Daode1,2,GAO Doudou1,DONG Dengfeng1,2*,ZHOU Weihu1,2,CUI Chengjun1(1.Institute of Microelectronics of the Chinese Academy of Sciences,Beijing100029,China;2.University of Chinese Academy of Sciences,Beijing100049,China)*Corresponding author,E-mail:Dongdengfeng@Abstract:In view of the urgent demand for attitude measurement in high-end manufacturing applications,such as aerospace and automobile assembly,a fast and high-precision attitude measurement method for a laser tracker was proposed.The method employed deep learning in conjunction with the visual PnP model to realize automatic attitude measurement of the laser tracker.The correspondence between3D feature points and2D feature points required by the traditional PnP model were directly determined through a fea⁃ture extraction network designed to extract high-dimensional features.The joint probability distribution be⁃tween feature vectors was determined using optimal transmission theory to complete the matching of3D-文章编号1004-924X(2022)09-1047-11收稿日期:2022-03-04;修订日期:2022-03-16.基金项目:国家重点研发计划资助项目(No.2019YFB1310100)第30卷光学精密工程2D feature points.Subsequently,Ransac-P3P combined with EPnP algorithm was used to obtain high-pre⁃cision attitude information;Based on this,the Jacobian matrix of PnP solution process was calculated us⁃ing implicit differential theory,and the PnP attitude solution model was integrated into the network to guide the training of the network.The complementary advantages of strong depth network matching abili⁃ty and high attitude solution accuracy of the PnP model improved the solution accuracy of the network.In addition,a dataset with rich annotation information was used to train the attitude measurement network for the laser tracker.Finally,an attitude measurement test was conducted using a high-precision two-dimen⁃sional turntable.The experimental results show that the calculation error of pitch angle is less than0.31°,the rolling angle error is less than0.03°,and the single measurement takes approximately40ms.The pro⁃posed method can potentially be applied to attitude measurement scene of the laser tracker.Key words:laser tracker;attitude measurement;monocular vision;deep learning1引言随着制造业的快速发展,在航空航天、汽车装配等领域,大尺寸高精度姿态测量技术越来越重要。

深度信念网络研究现状与展望

深度信念网络研究现状与展望

第47卷第1期自动化学报Vol.47,No.1 2021年1月ACTA AUTOMATICA SINICA January,2021深度信念网络研究现状与展望王功明1,2乔俊飞1,2关丽娜1贾庆山3摘要深度信念网络(Deep belief network,DBN)是一种基于深度学习的生成模型,克服了传统梯度类学习算法在处理深层结构所面临的梯度消失问题,近几年来已成为深度学习领域的研究热点之一.基于分阶段学习的思想,人们设计了不同结构和学习算法的深度信念网络模型.本文在回顾总结深度信念网络的研究现状基础上,给出了其发展趋势.首先,给出深度信念网络的基本模型结构以及其标准的学习框架,并分析了深度信念网络与其他深度结构的关系与区别;其次,回顾总结深度信念网络研究现状,基于标准模型分析不同深度信念网络结构的性能;第三,给出深度信念网络的不同无监督预训练和有监督调优算法,并分析其性能;最后,给出深度信念网络今后的发展趋势以及未来值得研究的方向.关键词深度信念网络,深度学习,无监督预训练,有监督调优,结构设计引用格式王功明,乔俊飞,关丽娜,贾庆山.深度信念网络研究现状与展望.自动化学报,2021,47(1):35−49DOI10.16383/j.aas.c190102Review and Prospect on Deep Belief NetworkWANG Gong-Ming1,2QIAO Jun-Fei1,2GUAN Li-Na1JIA Qing-Shan3Abstract Deep belief network(DBN)is a generative model based on deep learning and overcomes vanishing gradient problem resulted from traditional gradient-based algorithm when it comes to deep architecture,and it is one of hot issues in thefield of deep learning.Based on the idea of learning in stages,DBN models with different structures and learning algorithms have been proposed.The aim of this paper is to summarize the current research on DBN and gives some views about its development trends in the future.First,the basic structure and standard learning framework of DBN are introduced,the relationship and difference between DBN and other deep structures are analyzed.Second,the current research on DBN is given,the performances of DBN with different structures are analyzed based on standard the model. Thirdly,the different unsupervised pre-training and supervisedfine-tuning of DBN are given,and their performances are also analyzed.Finally,some views about DBN s development trends in the future are presented.Key words Deep belief network(DBN),deep learning,unsupervised pre-training,supervisedfine-tuning,structure designCitation Wang Gong-Ming,Qiao Jun-Fei,Guan Li-Na,Jia Qing-Shan.Review and prospect on deep belief network. Acta Automatica Sinica,2021,47(1):35−49人工神经网络是计算机模拟人类大脑处理信息的一种运算模式,即通过训练输入和输出数据,使网络得到关于输入和输出的非线性映射关系,从而在未来的任务中进行自主计算.因此,人工神经网络是计算机科学、认知科学、脑科学和数学的交叉学科,其在模式识别、智能控制、多种信号处理、优化设计等领域得到较大的发展,并已在信息产业中得收稿日期2019-02-25录用日期2019-05-19Manuscript received February25,2019;accepted May19,2019国家自然科学基金(61533002)资助Supported by National Natural Science Foundation of China (61533002)本文责任编委张敏灵Recommended by Associate Editor ZHANG Min-Ling1.北京工业大学信息学部北京1001242.计算智能与智能系统北京市重点实验室北京1001243.清华大学自动化系智能与网络化系统研究中心北京1000841.Faculty of Information Technology,Beijing University of Technology,Beijing1001242.Beijing Key Laboratory of Computational Intelligence and Intelligent System,Beijing 1001243.Center for Intelligent and Networked Systems,De-partment of Automation,Tsinghua University,Beijing100084到了成功的应用[1−5].20世纪八十年代末期,用于人工神经网络的反向传播算法(Back-propagation, BP)的发明,给机器学习带来了希望,掀起了基于统计模型的机器学习热潮.这个时候的人工神经网络虽然也被称作多层感知器(Multi-layer perceptron, MLP),但实际上是一种只含有一个隐含层的浅层人工神经网络模型.进入21世纪以后,随着互联网的高速发展,对大数据的智能化分析和预测提出了巨大需求.由于浅层网络往往采用梯度类学习算法,人为经验因素较多,缺乏自主学习过程且对初始参数的设定依赖性较强[6−8],这限制了神经网络的特征自动提取能力,使得其在处理大规模不确定性数据时往往误差较大.生物神经系统学研究结果表明,人类的智能主要取决于大脑皮层,而大脑皮层是一个大规模互连的深层生物神经网络[9−11],主要认知方式是无监督自主学习与推理.探求大脑的组织结构和运行机制,从模仿人脑深层学习机制的角度出发,36自动化学报47卷寻求新的信息处理方法是当前人工智能领域发展的优先方向.然而,由于理论分析的难度,加上训练方法需要很多经验和技巧,所以这个时期深层人工神经网络相对较为沉寂.2006年,加拿大多伦多大学教授、机器学习领域泰斗―Geoffrey Hinton和他的学生Ruslan Salakhutdinov在顶尖学术刊物《Science》上发表了一篇文章,开启了深度学习(Deep learning,DL)在学术界和工业界的浪潮[12−14].主要思想是利用“逐层初始化(Layer-wise pre-training)”来完成自主学习与推理过程,从而有效克服深层结构的训练困难.近几年来,深度学习凭借其模拟人脑分层学习和自主推理的认知机理逐渐成为研究热点[15],同时也带动了人工神经网络领域的进一步发展.由于深度学习能够在大量数据任务中快速稳定地计算,这推动了云计算、大数据科学的发展,如今已经在自然语义理解、模式识别问题、机器人学和数据挖掘等方面得到了较好的应用[16−19],甚至在机器情感分析方面也开始被研究,使得该领域朝着图灵机的实现又迈进了一大步.2016年,利用深度学习技术训练过的阿尔法围棋(AlphaGo)击败人类围棋冠军,引起了学术界和科技界的巨大轰动,并激起了人们对深度学习研究的再一次热潮.目前,深度信念网络(Deep belief network, DBN)是深度学习的主要实现方法之一.DBN是具有若干潜变量层的生成模型.潜变量通常是二值的,而可见单元可以是二值或实数[20−21].尽管构造连接比较稀疏的DBN是可能的,但在一般的模型中,每层的每个单元连接到每个相邻层中的每个单元,而层内没有连接.DBN可以通过若干个受限玻尔兹曼机(Restricted Boltzmann machine,RBM)的顺序堆叠来构造,其学习过程分为两个阶段,即首先对RBM进行逐层无监督预训练,再用反向传播算法对整个网络进行有监督的调优.DBN的这种分阶段训练方法使其在学习深层结构上取得了一定的成功,并在图像处理、模式识别、系统建模和预测等任务中得到了关注和研究[20,22−27].近年来,众多学者在现有DBN结构和学习算法的基础上进行了拓展与改进,并提出了多种类型的DBN变种模型.目前,比较常见的DBN变种模型主要有稀疏DBN[28−29]、自组织DBN[26]、增量式DBN[27]、递归DBN[30].与传统的DBN相比,改进型的DBN分别在各自的聚焦点上取得了部分性能上的提升.但是,在结构自主确定方面,DBN仍然存在一些难以解决的瓶颈问题,相关的研究工作还处于刚刚起步状态,在理论、技术以及应用层面上还有很大的提升空间,在未来一段时间内仍将是深度学习研究中比较热门的研究方向之一.1深度信念网络基本模型与概述深度信念网络是为了简化逻辑斯蒂信念网络的推理困难而提出的一种深度模型,也是目前深度学习最主要的实现方式之一.DBN可以通过受限玻尔兹曼机的顺序堆叠来构造,其学习过程分为两个阶段,首先是对RBM进行逐层无监督预训练,然后再用反向传播算法对整个网络进行有监督的调优.本节重点介绍DBN的无监督学习.RBM和DBN的结构分别如图1和图2所示.图1RBM结构图Fig.1Structure of RBM图2DBN结构图Fig.2Structure of DBN给定模型参数θ=(w R,b v,b h),那么可视层和隐含层的联合概率分布P(v,h;θ)用能量函数E(v,h;θ)定义为P(v,h;θ)=1Ze−E(v,h;θ)(1)其中,Z=v,he−E(v,h;θ)是归一化因子,模型关于1期王功明等:深度信念网络研究现状与展望37 v的边缘分布为P(v;θ)=1Zhe−E(v,h;θ)(2)对于一个伯努利(可视层)分布–伯努利(隐含层)分布的RBM,能量函数定义为E(v,h;θ)=−mi=1b vi v i−nj=1b hj h j−m i=1nj=1v i w Rijh j(3)其中,w Rij是RBM的连接权值,b vi和b hj分别表示可视层节点和隐含层节点的偏置.那么条件概率分布可表示为Ph j=1v,θ=σb hj+mi=1v i w Rij(4) Pv i=1h,θ=σb vi+nj=1w Rijh j(5)式中,σ(·)是一个Sigmoid函数.由于可视层和隐含层是伯努利的二值状态,所以判断它们二值概率取值的标准常通过设定一个阈值来实现[31].通过计算对数似然函数log P(v;θ)的梯度,可以得到RBM权值更新公式为w Rij (τ+1)=w Rij(τ)+η∆w Rij(6)∆w Rij=E data(v i h j)−E model(v i h j)(7)式中,τ和η分别表示RBM的迭代次数和学习率, E data(v i h j)和E model(v i h j)分别表示训练集中观测数据的期望和模型所确定分布上的期望[32].特别地, RBM有一个有趣的性质,即当利用基于最大似然的学习规则训练时,连接两个神经元的特定权重的更新仅取决于这两个神经元在不同分布下收集的统计信息:P model(v)和ˆP data(h/v).网络的其余部分参与塑造这些统计信息,但是权值参数可以在完全不知道网络其余部分或这些统计信息如何产生的情况下更新.这意味着学习规则是“局部”的,这使得RBM的学习似乎在某种程度上是符合生物学机理.我们可以设想每个神经元都是RBM中随机变量的情况,那么连接两个随机变量的轴突和树突只能通过观察与它们物理上实际接触细胞的激发模式来学习.特别地,经常发生某种强烈的脉冲激励时的两个神经元之间的连接会被加强,这就是Hebb学习规则的核心思想.Hebb学习规则给出了生理学与心理学之间的内在联系,该规则至今仍被许多神经网络学习算法所使用.作为一种深层网络模型,DBN兼具生成模型和判别模型的双重属性.因为DBN的预训练过程主要用来表达数据的高阶相关性或者描述数据的联合统计分布,具有生成模型的特点;DBN有监督调优过程通常用来分类数据的内在模式或者描述数据的后验分布,具有判别模型的特点.这里的“生成”是指从隐含层到输入数据的的重构过程,而“判别”是指从输入数据到隐含层的归约过程.同时,作为一种生成模型,生成式对抗网络(Generative adversarial network,GAN)近年来同样受到很大的关注并进行了广泛的应用[32−33].GAN实质上属于一种基于深度学习的混合模型,其通过框架中生成模型和判别模型的互相博弈学习产生相当好的输出.从数据生成角度看,GAN的数据生成过程是在有监督信号的反馈作用下完成的.而DBN作为一种生成模型时,其监督信号是数据本身,即通过对原始数据的重构完成网络的训练,从而具有生成能力.具体应用中, DBN常作为GAN的生成模型,与判别模型进行对抗学习[32].DBN学习模型的优点是通过组合许多RBM,把上一层RBM的特征激励作为下一层的训练数据,可以高效地对隐含层进行学习.递归神经网络(Recurrent neural networks,RNN),它的深度甚至可以达到和输入数据序列的长度一致.在无监督学习模式下,RNN被用来根据先前的数据样本预测未来的数据序列,并且学习过程中没有用到类别信息.然而,RNN在近几年才得以广泛使用,部分原因是由于在训练中遇到的梯度弥散或梯度爆炸问题,它很难通过训练来捕捉长时相关性.随着在Hessian-free优化研究方面的进展,在一定程度上解决了这个问题,该方法使用了近似二阶信息或随机曲率估计.另外,RNN没有基于无监督预训练的参数初始化过程,这也是其与DBN在训练原理上的最大区别.卷积神经网络(Convolutional neural net-works,CNN)是另一种具有判别性能的深度学习网络,它的每个模块都是由卷积层(Convolutional layer)和池化层(Pooling layer)组成.卷积层共享权值,池化层对卷积层的输出进行降采样,减少了下一层的数据量.研究发现,CNN的应用主要集中于计算机视觉或者图像识别领域,并且效果较为出色[34].而DBN的应用则广泛分布于计算机视觉和数据建模及预测等领域.另一种与DBN相似的深度结构基本学习模型是自编码器(Auto encoder),自编码器主要用于完成数据转换的学习任务,在本质上是一种无监督学习的非线性特征提取模型.自编38自动化学报47卷码器与DBN也有着重要的区别,这种区别的核心在于:自编码器希望通过非线性变换找到输入数据的特征表示,它是某种确定论性的模型;而DBN的训练则是围绕概率分布进行的,它通过输入数据的概率分布(能量函数)来提取高层表示,是某种概率论性的模型.另外,DBN具有较多的超参数,可分为两类:一类是训练参数(如学习率和动量项);另一类是定义网络结构的参数(如网络层数和每层神经元数).前者的自动调优属于超参数优化(Hyperparame-ter optimization,HO)的范畴,而后者的自动调优一般称为神经网络架构搜索(Neural architecture search,NAS).严格地讲,NAS属于DBN结构设计的方法之一,目前DBN结构设计大多数通过提前赋值来完成,即在网络训练过程中结构不变,只有训练参数在不断调整.本文即将介绍的两种变结构设计策略(自组织结构和增量式结构)对固定结构来讲是一种突破,但是与NAS又存在区别,主要体现在: NAS先定义搜索空间,然后通过搜索策略找出候选网络结构,对它们进行评估,根据反馈进行下一轮的搜索;而变结构策略只要是以某种触发机制或误差导向来实时调整结构规模.2深度信念网络结构分析与性能比较2.1固定结构深度信念网络目前最为常见的DBN应用形式是定结构模型,即在训练过程中DBN结构固定不变.尽管现在与其他无监督或生成学习算法相比,固定结构的DBN 大多已经失去了青睐并很少使用,但它们在深度学习历史中的重要作用仍应该得到承认[20].定结构DBN在处理实际复杂数据时,无监督预训练和反向传播调优算法均具有提升和改进的空间,主要表现在预训练耗时和调优精度两方面.同时,定结构DBN主要是通过足够的经验和充足的数据来确定其结构,且其结构一旦确定将不再调整,这导致定结构DBN无法满足待处理数据的多样性变化要求.众所周知,DBN具有很强的计算和信息处理能力,但是它对于模式识别、感知以及在复杂环境中作决策等问题的处理能力却远不如人.神经生理学研究结果表明,人的智能主要取决于大脑皮层,而大脑皮层是一个大规模互连的生物深度神经网络.在处理不同信息时,生物深度神经网络会启用不同的神经元连接结构,也就是说,其采用的是一种变结构的信息处理机制[35].而在实际过程中,定结构DBN只是通过改变权值参数来适应任务的变化,但如何构造一种DBN使其结构在动态调整的同时不断调整权值参数,是今后DBN发展的趋势,也是一个开放且尚未解决的问题[36].2.2稀疏深度信念网络研究发现,现有的DBN模型在学习过程中内部神经元之间的权值连接均是一种密集表述[37−38].然而,在深度学习算法中,一个主要的目的是独立地表述数据的差异[36],密集表述容易导致网络不稳定,因为任何输入上的扰动都会引起中间隐含层特征表述向量发生变化,甚至是巨变[38].稀疏表述就是用较少的基本信号的线性组合来表述大部分或者全部的原始信号.利用稀疏表述对DBN进行稀疏连接训练,可以有效地降低输入扰动对中间隐含层特征表述向量的影响[39].无监督学习过程中的稀疏表述原理如图3所示.图3稀疏表述原理图Fig.3Sparse representation schemeLee等[40]通过在RBM训练过程中引入一个正则化惩罚项来降低密集表述的程度.具体来讲,首先设置一个隐含层神经元的期望激活强度值,然后惩罚隐含层神经元实际激活强度与期望激活强度之间的偏差.给定m组训练数据集v(1),...,v(m),其实现稀疏表述的优化问题为Maximizeθlog P(v)+λR sparse1(8) R sparse1=−µ−1nnj=1Eh jv2(9)其中,λ是正则化常数,µ是控制着第j个隐含层神经元稀疏度的期望激活强度值,通过这种提前给定期望激活阈值的方法可以实现一定意义上的稀疏表述.为了使所有隐含层神经元能够以一定的概率或者波动性逼近期望激活强度值,Keyvanrad等[41]通过引入正态函数的集中分布思想来控制网络的稀疏度.根据这种思想,对应于稀疏表述优化问题的正则化项可表示为R sparse2=nj=11σ√2πe−(h j−µ)22σ2(10)其中,σ是控制稀疏强度波动性的方差.1期王功明等:深度信念网络研究现状与展望39同时,应该注意到参数的设置对网络学习效果的影响是显著的[38],如果设置不当,要实现较高精度的建模并学习到正确的特征信息往往比较困难.因此上述稀疏表述方法虽然在网络性能的鲁棒性方面取得一定程度的效果,但对无监督学习的迭代次数和神经元数量等有一定依赖.2.3自组织深度信念网络目前DBN在应用中存在一个重要问题,即针对不同的问题,DBN需要提前设置网络深度,然后利用经验法比较各种不同深度的精度和训练效果.这极大地制约了网络解决问题时的效率,使DBN的进一步推广与应用受到很大限制.实际上,著名深度学习专家Bengio在2009年提出了一个与此类似的问题[36],该问题原文描述为:“Is there a depththat is mostly sufficient for the computations nec-essary to approach human-level performance of AItasks?”.意思是,是否存在一个合适深度的DBN,可以用来尽可能像人类解决问题那样去解决大多数的AI问题呢?由于该问题比较笼统,涉及的学科范围太广,很难通过一个有效的数学方法来解决该问题,难以设计出包含较多的特征并具有代表性的实验对其进行验证,因此该问题在短时间内难以得到彻底的解决.目前,针对此问题的初步试探性解决方法有结构自组织策略和凑试法.本节只介绍结构自组织策略.Qiao等[26]提出了一种基于神经元激活强度和误差下降率最小化的结构自组织方法.首先,在无监督预训练阶段将隐含层神经元的激活强度作为神经元的“贡献度”,并根据“贡献度”的大小对神经元进行增加或删减.其次,在有监督调优阶段,将训练误差的下降率作为隐含层的删减标准,当训练误差下降率首次出现递减时删掉一个隐含层,否则增加隐含层.激活强度SI可表示为SI li =αs2i·l1+s2i·l+o2i·l(11)其中,α是正常数,o i·l是第l个隐含层的第i个神经元的输出,i=1,2,3,···,N l,N l是第l个隐含层的神经元个数,s i·l表示第l个隐含层的第i个神经元的输入权值之和,可通过如下公式计算得到s2 i·l =n ij=1w ij r ij(12)其中,r ij是i个神经元的第j个输入量,w ij是第j个输入神经元和第i个神经元之间的连接权值,n i 是第i个神经元的输入神经元个数,s i·l所表示的权值连接过程如图4所示.DBN的结构自组织策略原理如图5所示.在传统浅层神经网络的结构设计方面,研究人员注重结构自组织设计方法[42−43],即根据神经元激活强度的大小来增加或者删减结构.尽管结构自组织设计方法在浅层神经网络中得到了成功的应用并取得了较好的效果,但关于DBN结构自组织方法的研究却非常有限.本节介绍的基于传统自组织方法的变结构DBN模型在学习精度上有所提高,但是在学习效率方面提高不明显,相关研究还需要进一步加强.图4计算激活强度的权值连接过程Fig.4Weights connecting process of computing spikingintensity2.4增量式深度信念网络与传统浅层神经网络的结构自组织相比,DBN 结构自组织策略一直没有得到学术界的广泛关注,主要原因有:1)自组织方法将神经元的激活强度作为增加和删减结构的评判标准,而DBN往往拥有多个隐含层且每个隐含层含有较多的神经元,这导致DBN自组织设计过程复杂且计算量庞大[26];2)预训练好的初始DBN可被视为一种知识源域(Source domain),其中的知识可被视为一种可重复利用的经验[44],但是结构自组织方法未能在知识源域到目标域(Target domain)之间实现知识的转移.因此,在DBN结构自组织过程中需要不间断地对目标域内若干个新增子结构进行参数初始化,从而导致自组织方法在DBN结构设计中应用成本较高,甚至难以实现.通过上述分析可知,DBN结构自组织方法遇到的主要障碍是计算量巨大,而如何在知识源域与目标域之间实现知识的有效转移成为关键.迁移学习(Transfer learning,TL)是一种旨在实现知识转移的学习方法且具有较强的鲁棒性[45−47].常用的迁移学习方法是:首先训练一个模型并将其作为知识源域,然后再利用特定的方法将知识源域中可重复40自动化学报47卷图5结构自组织策略原理图Fig.5Self-organizing structure strategy scheme利用的知识转移到目标域中来加速新结构的学习过程[48−49],从而提高复杂模型的训练效率.近些年来,基于迁移学习的神经网络复合训练方法大批涌现并取得了较好的效果[50−51].为了解决上述问题,Wang等[27]提出了一种基于迁移学习策略的增量式深度信念网络(TL-GDBN)模型.相较于浅层神经网络的结构自组织方法,不同之处在于TL-GDBN没有利用神经元的激活强度作为结构增长或删减的依据.首先,初始化一个单隐含层DBN并对其进行预训练(Pre-training),然后固定预训练好的初始DBN并将其作为知识源域.其次,在初始DBN的基础上不断增加固定规模的隐含层和神经元并将其作为目标域,同时建立基于迁移学习的知识转移规则来加速目标域的训练过程.第三,根据TL-GDBN的预训练的重构误差设置结构增长的停止准则及其阈值,从而获得最优的结构.基于迁移学习的增量式深度信念网络(TL-GDBN)的结构增长过程仅在预训练阶段进行.每一步的结构增长包括神经元和隐含层两部分.数据被分为三部分:训练数据(Training data)、验证数据(Validating data)和测试数据(Testing data).训练数据用来预训练初始DBN并获得知识源域,验证数据用来结合迁移学习实现TL-GDBN结构的增量式变化,测试数据用来测试TL-GDBN.预训练结束后TL-GDBN结构将不再变化.知识在迁移学习规则下持续地被转移到新增结构中,TL-GDBN的一步结构增长过程如下:步骤1.结构初始化和预训练.首先初始化一个单隐含层的DBN结构,然后利用对比散度(Con-1期王功明等:深度信念网络研究现状与展望41trastive divergence,CD)算法和训练数据进行预训练.假设初始化DBN的输入和其隐含层神经元的个数分别为m和n,那么预训练后学习到的知识(权值参数矩阵)w R1∈R m×n将被保存在知识源域中.步骤2.增加神经元.增加两倍于初始DBN隐含层神经元数量的神经元,新的权值参数矩阵变为ˆw R1∈R m×3n.步骤3.增加隐含层.增加与初始DBN具有相同数量神经元的隐含层,对应的新增权值参数矩阵为w R2∈R3n×n.步骤4.计算预训练过程的重构误差,并将重构误差作为预训练过程误差.步骤5.设置结构增长的停止准则.利用验证数据计算重构误差,并将重构误差的连续若干步的减小量作为结构增长的停止准则.同时设置停止准则的阈值,当训练过程中的重构误差满足阈值条件时, TL-GDBN结构停止增长并进入步骤6;否则,跳转到步骤2.步骤6.固定当前TL-GDBN的最优结构,预训练过程结束.TL-GDBN的一步结构增长过程原理如图6所示.结构增长过程一旦结束,TL-GDBN的结构和对应的初始权值参数即被确定.实验结果发现,TL-GDBN的稀疏度随着结构的不断扩大而表现出先增大后稳定的趋势.这种趋势表明在结构增长过程中TL-GDBN的密集表述越来越弱,网络各隐含层提取到的特征向量受输入波动影响的程度也越来越弱,即网络鲁棒性较强.然而,关于如何进行知识迁移仍然是一个难点,究其原因主要在于:在迁移学习中,学习器必须执行两个或更多个不同的任务,但是我们假设能够解释P1变化的许多因素和学习P2需要抓住的变化相关.例如,我们可能在第一种情景中学习了一组数据分布特性,然后在第二种场景中学习了另一组数据分布特性.如果第一种情景P1中具有非常多的数据,那么这有助于学习到能够使得从P2抽取的非常少的样本中快速泛化表示.一般来讲,当不同情景或任务存在有用特征时,并且这些特征对应多个情景出现的潜在因素,迁移学习可以发挥事半功倍的效果.然而,有时不同任务之间共享的不是输入的数据分布特性,而是输出的目标数据分布特征.这种情况下,使用迁移学习往往会得到不尽人意的学习效果.2.5递归深度信念网络从学习策略上看,传统DBN模型是一种前馈网络,堆叠的RBM只能保存暂时的信息(达到能量平衡后的稳态信息),故现有的DBN模型对时间序列的建模与预测精度相对较低[52−55].Ichimura 等[30]提出一种递归深度信念网络(RNN-DBN),其在结构上是由若干个递归受限玻尔兹曼机(RNN-RBM)[56]堆叠组成.而RNN-RBM则是在递归时间RBM(RTRBM)的基础上发展起来的[52],是一种基于能量的时域序列密度估计模型.RTRBM结构如图7所示.图6TL-GDBN的一步增长过程Fig.6Illustration of one-growing step。

精密模具三坐标测量方案研究综述

精密模具三坐标测量方案研究综述

精密模具三坐标测量方案研究综述陶爽奕(长江勘测规划设计研究有限责任公司,湖北武汉430010)【摘要】三坐标精密测量是保证模具零件加工精度的重要依据,尤其是在精密模具制造过程中。

简单零件的三坐标测量方案已经趋于成熟,形成了固定的、高精度的测量方案,对于复杂的零件(异形件、复杂曲面件)需要采用独特的方法才能完成三坐标测量。

将从复杂零件的三坐标测量方案和如何降低测量误差、提高测量效率两个方面对三坐标测量方案研究进行介绍,在此基础上,总结了三坐标测量技术在测量方案研究方面的发展趋势。

三坐标测量技术在复杂零件的测量方案研究方面有较高的研究空间和价值,也是未来发展的方向。

关键词:三坐标精密测量;精密模具;复杂零件;测量方案中图分类号:TH124;TG659文献标识码:BDOI:10.12147/ki.1671-3508.2023.10.011Review of the Research on the Measurement Schemefor the Three-Coordinate Measurement of Precision Die&MoldTao Shuangyi(Changjiang Survey,Planning,Design and Research Co.,Ltd.,Wuhan,Hubei430010,CHN)【Abstract】Three-coordinate precision measurement is an important basis to ensure the machining accuracy of die&mold parts,especially in the process of precision die&mold manufacturing.The coordinate measurement scheme of simple parts has become mature,forming a fixed,high-precision measurement scheme,for complex parts(shaped parts,complex curved parts)need to adopt a unique method to complete the coordinate measurement.This paper introduces the CMM scheme of complex parts and how to reduce the measurement error and improve the measurement efficiency.Based on this,the development trend of CMM technique in the research of measurement scheme is summarized.CMM technology has high research space and value in the research of measurement scheme of complex parts,and it is also the direction of future development.Key words:three-coordinate precision measurement;precision die&mold;complex parts;measurement scheme1引言精密模具在制造过程中,精密测量是保证精密模具加工精度的重要依据,精密测量分为接触式测量和非接触式测量。

2 (东软集团有限公 司 商用软件事业部,辽 宁 沈 阳 110179) A Deep Web Entity Identification Me

2 (东软集团有限公 司 商用软件事业部,辽 宁 沈 阳 110179) A Deep Web Entity Identification Me

ISSN 1000-9825, CODEN RUXUEW E-mail: jos@Journal of Software, Vol.19, No.2, February 2008, pp.194−208 DOI: 10.3724/SP.J.1001.2008.00194 Tel/Fax: +86-10-62562563© 2008 by Journal of Software. All rights reserved.∗一种基于语义及统计分析的Deep Web实体识别机制寇月1+, 申德荣1, 李冬2, 聂铁铮11(东北大学信息科学与工程学院,辽宁沈阳 110004)2(东软集团有限公司商用软件事业部,辽宁沈阳 110179)A Deep Web Entity Identification Mechanism Based on Semantics and Statistical AnalysisKOU Yue1+, SHEN De-Rong1, LI Dong2, NIE Tie-Zheng11(College of Information Science and Engineering, Northeastern University, Shenyang 110004, China)2(Business Software Division, Neusoft Group Ltd., Shenyang 110179, China)+ Corresponding author: Phn: +86-24-83691218, Fax: +86-24-23895654, E-mail: kouyue@, Kou Y, Shen DR, Li D, Nie TZ. A deep Web entity identification mechanism based on semantics andstatistical analysis. Journal of Software, 2008,19(2):194−208. /1000-9825/19/194.htmAbstract: According to analyzing the traditional entity identification methods, a deep Web entity identificationmechanism based on semantics and statistical analysis (SS-EIM) is presented in this paper, which includes textmatching model, semantics analysis model and group statistics model. Also a three-phase gradual refining strategyis adopted, which includes text initial matching, representation relationship abstraction and group statistics analysis.Based on the text characteristics, semantic information and constraints, the identification result is revisedcontinuously to improve the accuracy. By performing the self-adaptive knowledge maintenance strategy, the contentof representation relationship knowledge database can be more complete and effective. The experimentsdemonstrate the feasibility and effectiveness of the key techniques of SS-EIM.Key words: deep Web; data integration; entity identification; data deduplication; representation consolidation摘要: 分析了常见的实体识别方法,提出了一种基于语义及统计分析的实体识别机制(deep Web entityidentification mechanism based on semantics and statistical analysis,简称SS-EIM),能够有效解决Deep Web数据集成中数据纠错、消重及整合等问题.SS-EIM主要由文本匹配模型、语义分析模型和分组统计模型组成,采用文本粗略匹配、表象关联关系获取以及分组统计分析的三段式逐步求精策略,基于文本特征、语义信息及约束规则来不断精化识别结果;根据可获取的有限的实例信息,采用静态分析、动态协调相结合的自适应知识维护策略,构建和完善表象关联知识库,以适应Web数据的动态性并保证表象关联知识的完备性.通过实验验证了SS-EIM中所采用的关键技术的可行性和有效性.关键词: deep Web;数据集成;实体识别;数据消重;表象整合中图法分类号: TP393文献标识码: A随着信息技术的不断发展,Web上的信息量呈爆炸性增长.按照所蕴含信息深度的不同,可以将Web划分为∗Supported by the National Natural Science Foundation of China under Grant No.60673139 (国家自然科学基金)Received 2007-08-31; Accepted 2007-12-05寇月等:一种基于语义及统计分析的Deep Web实体识别机制195Surface Web和Deep Web两大类.统计数据表明:Deep Web蕴含的信息量及数据访问量等都远远高于Surface Web[1].因此,随着Web数据库的不断增长,能够自动获取蕴含在Deep Web中的数据资源并对其进行大规模集成显得尤为重要.然而,数据源内部及数据源之间的数据往往存在数据不一致及数据重复等问题,如果不对这些低质量的数据进行预处理而直接作为查询结果返回,将严重影响Deep Web的查询效率.利用实体识别技术可以对数据集成中产生的重复记录进行检测并整合,有效地消除数据源内部以及数据源之间的数据不一致性.以论文检索网站ACM和DBLP为例,若要查询John Allen发表的论文信息,两个网站上的结果数据如图1所示.从图1中可以看出,由于拼写方式或定义格式的不同,无论是数据源内部还是数据源之间都具有不同表现形式但对应于同一事物的结果数据.我们将与现实世界一一对应的事物或事件称为实体,例如姓名为John Allen的某个具体的人;将实体的不同表现形式定义为实体的表象,例如可以将这个人表示成John Allen,J. Allen等.如果直接将这些表象作为结果返回,则无疑将增加用户对其进一步分类、筛选的负担.因此,为了提高结果数据的质量,需要事先通过实体识别技术将这些表象按照实体类别聚类,并将聚类结果以知识的形式存储,以指导实际查询中的资源整合.针对此例,就是要判断:DBLP网站中的表象r2,r3与r4是否代表同一个人;ACM中r1对应于DBLP中r2,r3与r4的哪个人的信息.因此,通过实体识别技术为用户提供高质量的集成结果是Deep Web数据集成中必不可少的一个过程.: John AllenACMr4: John G. AllenDBLPFig.1 Demonstration of data inconsistency existing in a single data source or among multiple data sources 图1 存在于一个数据源内部或多数据源之间的数据不一致性示例然而,目前针对Web数据实体识别的研究与开发还处于起步阶段,大多数工作都是围绕静态环境来构建实体识别系统(如数据挖掘领域中数据清理问题的研究[2]),与这些实体识别系统相比,Deep Web实体识别的研究更具挑战性,主要体现在以下几个方面:当前大多数实体识别系统仅单一地考虑文本属性特征或上下文语义信息来衡量数据间的相似性,没有对聚类结果进行逐步求精处理,识别的准确性难以保证,因此,已有的识别策略有待改进;蕴含在Deep Web中的数据资源具有较强的动态性,如果按照传统的数据挖掘等方法将获取的所有表象关联信息保存在数据仓库中,则具有相对静态特性的数据仓库的内容不能实时地反映数据的动态变化,因此,传统的数据清理方法对于动态性强的数据资源并不适用;由于Deep Web数据量巨大,若对所有数据源进行分析识别,势必影响识别的处理效率,相反,若只分析部分信息,表象关联知识的完备性将会受到影响,因此,样本数据量的大小难以确定.综上所述,要想有效地整合Deep Web上的数据就必须解决以上问题.本文将着重解决的问题是:在表象模式已知的前提下,如何基于实例信息来分析并获取表象关联知识,如何确保这些知识具有较高的完备性与准确性,以及如何保证表象关联知识库中的内容能够适应于Deep Web环境中数据的动态性.1 相关工作目前,关于实体识别技术的研究主要集中在两方面:一方面是基于实体的属性文本特征进行实体识别(feature-based similarity,简称FBS方法),侧重于研究文本相似函数的设置(包括函数定义、选取和相关阈值的确196 Journal of Software软件学报 V ol.19, No.2, February 2008定)[3−7]、属性权重的选取[8−10]以及相关优化措施[11]等;另一方面是基于实体上下文语义信息或特定领域知识,利用数据挖掘等方法进行实体识别,侧重于研究语义关联的表示方式及计算方法[12−17].其中,基于属性特征进行实体识别的相关工作包括:Bilenko[3]通过采用机器学习方法SVM自适应地选取最佳文本相似度算法,以满足不同领域数据的特点及需求;Cohen[4]分析并比较了多种字符串匹配函数(如编辑距离、Token距离、Levenstein距离等),并从中选取最佳函数来衡量属性特征的相似性;Zhu等人[5]根据关系表的决定属性值划分记录集,并在每个记录集内应用动态优先队列聚类算法和合并逆序算法来检测数据库中的相似重复记录;Ling等人[6]将Web页面中的数据划分成记录块,基于记录块间的文本相似性来判断不同数据源上的记录是否重复,并通过迭代训练来确定相关参数的阈值.以上工作侧重于研究相似函数的定义、选取及阈值设置,除此之外,文本匹配中属性权重的选取及相关优化措施的采用也越发引起关注,例如,Wang等人[8]利用梯度递减算法为数据的描述属性赋予权值,并基于属性权重学习算法和聚类算法将相似的数据聚类;Chaudhuri[11]提出一种高效的重复记录模糊检测算法,通过采用特定索引、排序等优化措施有效地搜索出与当前元组最相似的K个关联元组.基于上下文语义信息或特定领域知识进行实体识别的相关工作包括:Chen[12]将表象间的语义关联以图形化表示,并应用图分割技术对表象集进行聚类分组,每组由对应于同一实体的表象集组成;Thor[13]建立了一个灵活的表象匹配框架MOMA,通过该框架采用不同的表象匹配算法获取表象关联集,并将其合成,从而计算表象间的关联强度;Nie等人[14]利用上下文在互联网共同出现的情况,通过计算网页的URL距离来计算不同表象的互联网关联强度.以上工作大多数是基于静态环境构建的实体识别系统,不能较好地适应Deep Web环境下数据资源的动态性并保证表象关联知识的完备性;另外,这些实体识别系统或者基于属性文本特征,或者基于上下文信息来识别数据间的相似性,缺乏对聚类结果进行逐步求精的过程,因此,单一地应用实体属性特征或上下文信息来进行实体识别将会影响识别结果的准确性.为此,本文探讨了一种基于语义及统计分析的Deep Web实体识别机制,主要贡献在于:提出了SS-EIM(deep Web entity identification mechanism based on semantics and statistical analysis)的模型,其中包括文本匹配模型、语义分析模型和分组统计模型,能够有效解决Deep Web数据集成中数据纠错、消重及整合等问题;提出了文本粗略匹配、表象关联关系获取以及分组统计分析的三段式逐步求精策略,有效地提高了实体识别的准确性;基于有限的实例信息,采用静态分析、动态协调相结合的自适应知识维护策略,构建和完善表象关联知识库,能够适应Web数据的动态性并保证表象关联知识的完备性;通过实验验证了SS-EIM 中所采用的关键技术的可行性和有效性,与其他实体识别策略相比,SS-EIM在知识准确性、知识完备性等性能上具有一定的优势.本文第2节介绍SS-EIM的模型;第3节介绍文本匹配模型;第4节提出基于上下文的语义分析模型;第5节介绍基于约束规则的分组统计模型;第6节给出三段式逐步求精算法以及性能分析;第7节讨论表象关联知识维护策略;第8节给出相关实验结果并进行分析;第9节总结全文.2 SS-EIM的模型通过预获取的有限的实例信息可以分析和推导出实例间的关联关系并构建表象关联知识库,利用表象关联知识可以有效地指导实时查询中资源选择、消重及数据整合等操作.本节首先介绍SS-EIM的模型,然后针对模型中涉及的相关概念给出定义.SS-EIM的模型如图2所示.其中,R是有限数据集D中的所有表象r i构成的集合,记为{r1,r2,…,r|R|}.将D中与现实世界一一对应的实体集记为E={e1,e2,…,e|E|},e i是由对应于同一实体的表象所组成的表象集.实体识别的任务就是给定一个表象集R,通过匹配、推理及分析等过程,将对应于同一实体的表象进行聚类,最终得到实体集E,|R|≥|E|.实际上,E是理想情况下的实体识别结果,由于Web表现形式的多样性以及数据的复杂性很难将R准确无误地转化成E.因此,可以利用SS-EIM生成的聚类集C={c1,c2,…,c|C|}来近似地表示实体集E,|C|≈|E|.SS-EIM模型首先将模式已知的表象集R作为待识别数据,基于文本匹配模型、语义分析模型和分组统计模型对这些实例寇月 等:一种基于语义及统计分析的Deep Web 实体识别机制 197信息进行静态分析,分别生成一系列文本相似集、语义相似集和满足约束集,并形成初始的表象关联知识;然后,基于知识维护模型以及用户的实际查询结果对当前表象关联知识库中的内容进行动态协调,使其不断被扩充和完善,以保证表象关联知识的完备性和有效性.Fig.2 SS-EIM model图2 SS-EIM 模型文本匹配模型通过比较属性取值的文本相似度来检测由数据格式、拼写错误等因素造成的数据不一致性.但是,文本匹配模型只是通过字面粗略地对表象进行聚类,而文本特征相似的表象很可能代表不同的实体,因此语义分析模型通过上下文语义信息来进一步提高聚类的准确性.除了分析字符串类型的属性及其语义关联以外,分组统计模型还用来对数值型属性进行统计分析以提高实体识别的准确性.为了使表象关联知识库的内容适应Web 数据的动态性,知识维护模型通过收集实际查询过程中的动态结果数据,以此作为基准来实时检测表象关联知识库的完备性和有效性,从而对表象关联知识库中的内容不断进行调整并完善.从SS-EIM 模型中可以看出,文本相似集、语义相似集以及满足约束集的生成过程是对表象聚类集逐步求精的过程,将其分别记为S txt ,S sem 和S con ,三者的关系为S txt [r i ]⊇S sem [r i ]⊇S con [r i ],现给出具体定义.定义1(文本相似集S txt [r i ]). 基于实体的属性取值、利用文本相似函数Sim 计算表象间的相似度,文本相似集由文本相似度达到文本相似阈值σtxt 的表象以及与该表象具有异名同义或层次包含关系的表象S txt_Extend [r i ]所组成,具体定义为{}_[]|([](,))[]txt i j j k k txt i j k txt txt Extend i S r r r R r r S r Sim r r S r σ=∈∧∃∈∧>∪ (1)定义2(语义相似集S sem [r i ]). 依据语义关联进一步分析每个文本相似集,语义相似集由表象间关联强度CS 大于语义相似阈值σsem 的表象所组成,具体定义为{}[]|[]([]())sem i j j txt i k k sem i j k sem S r r r S r r r S r CS r r σ=∈∧∃∈∧→> (2) 定义3(满足约束集S con [r i ]). 基于约束规则检测语义相似集的聚类准确性,满足约束集由语义相似集内满足约束规则的表象所组成,具体定义为{}[]|[][] con i j j sem i con i S r r r S r S r =∈∧满足约束规则 (3) 其中,语义关联是指存在于表象间直接或间接的上下文联系,关联强度是对语义关联强弱的量化表示.以图1为例,若r 1与r 2有相同的合作者,则认为表象r 1与r 2之间存在语义关联.约束规则是指针对某领域中表象的属性聚集值所定义的约束条件.例如,若图1中ACM 网站的r 1与DBLP 网站的r 2,r 3对应同一个人,那么该作者在两个网站中被收录的文章总数应相差不多,可以将其作为约束规则来进一步检测聚类的准确性.3 文本匹配模型在特定的领域范围内,对应于相同实体的表象往往具有相似的属性特征.因此,本文应用文本匹配模型对实例信息进行文本粗略匹配,借鉴文本编辑距离函数[18]来衡量表象间属性级相似度,并采用多属性合成函数将多个属性级相似度进行合并,进而衡量表象级的相似程度,最终将具有相似文本特征的表象聚成一类,形成一系列文本相似集.具体步骤如下:步骤 1. 借鉴已有的属性选择算法[8−10],利用近似函数依赖关系来量化实体描述属性a 1~a n 的重要度,并赋198 Journal of Software 软件学报 V ol.19, No.2, February 2008 ))予不同的权值w 1~w n ,具体定义如公式(4)所示.其中,表示a ˆai 与其他属性的组合属性;表示为了使近似函数依赖成立,需要从关系中移除的记录占整个关系的最小比例.越小,说明关系中满 ˆ(j error a a →ˆj aa →ˆ(j error a a →足该函数依赖的记录就越多,a i 的影响力就越大,因此被赋予较高的权值. 1ˆ1(ˆ||n j i j error a a w a =−→=∑) (4) 步骤 2. 针对每个表象对(r i 与r j ) 中的各个属性a k (k =1~n ),分别基于文本编辑距离函数计算表象间属性级的相似度Sim (r i .a k ,r j .a k ),具体定义如下: (.,.)(.,.)1max{|.|,|.|}i k j k i k j k i k j k ed r a r a Sim r a r a r a r a =− (5)步骤 3. 基于多属性合成函数及属性权重将多个属性级的相似度进行合并,从而计算出表象级的文本相似度Sim (r i ,r j )(如公式(6)所示).最终将满足文本相似阈值的所有聚类进行合并,生成一系列初始文本相似集.(6) 111(,)((.,.),...,(.,.),...,(.,.))(.,.)i j i j i k j k i n j n n k i k j k k Sim r r Com Sim r a r a Sim r a r a Sim r a r a w Sim r a r a ===×∑步骤 4. 针对每个初始文本相似集,基于辅助信息库,如Wordnet,将与其存在异名同义及层次包含关系的表象S txt_Extend [r i ]扩充到其中,以保证最终生成的文本相似集具有较高的完备性和准确性.由此可见,文本粗略匹配得到的是从属性特征上具有相似性的表象聚类集,然而,表象的外在表现形式不足以作为聚类的判定依据.例如,J. Smith 既可以表示John Smith,又可以表示Jane Smith,虽然基于文本匹配,这些表象可能被聚集在同一个文本相似集内,但它们分别对应不同的实体.因此,文本匹配只是基于属性特征对表象集粗略地划分,其准确性难以保证.但是,利用文本匹配模型可以使后续的操作在较小的数据空间上进行,从而降低了实体识别的执行代价.4 语义分析模型语义分析模型用来对每个文本相似集的表象进行语义关联分析,将具有语义相似性的表象进行聚类,从而在属性文本匹配的基础上提高了实体识别的准确性.首先,基于表象的上下文信息将其语义关联用表象关联图来表示;然后,针对表象关联图中表象间的多条路径进行分析,并从中选取进行关联强度运算的最佳路径;最后,计算表象间的关联强度,将关联强度大于语义相似阈值的表象聚成一类而形成语义相似集.4.1 语义关联规则针对某一领域,对应于同一实体的表象之间往往存在着直接或间接的语义关联,利用这些关联信息可以提高实体识别的准确性.因此,需要事先挖掘出该领域表象间的语义关联规则.设待聚类表象集为R ,本文首先采取人工筛选的方式从R 中确定一系列标准聚类集c ,其中每个c 由对应同一实体的表象组成;然后,将R 与该领域内其他表象集R k 分别组合形成一系列候选关联R_R k ,借鉴数据挖掘中的Apriori 算法[19,20],针对每一种候选关联R_R k ,挖掘所有标准聚类集中的频繁2项集{r i ,r j }并计算其支持度Support (r i ⇒r j ),R_R k 的支持度由这些频繁2项集的支持度聚集而成(如公式(7)所示);最后,选取支持度较高的候选关联以及它们的有限次迭加作为实体识别的语义关联规则.,.(){,}2(_)()i j k k k i k j i j k i j r r R c r r R r r r r r Support R R Support r r ∈∧∃∈∧⇒⇒∧=⇒∑是频繁项集 (7)以论文检索领域为例,若待聚类的表象集是作者表象集合,则该领域内的关联组合包括作者_合作者、 作者_会议、作者_出版日期等候选关联.若存在某合作者表象r k ,同时与标准聚类集中的两个作者表象r i ,r j 具有合作关系r i ⇒r k ⇒r j ,且该现象频繁发生,则作者_合作者关联的支持度较高,因而将该关联作为实体识别的语义关联规则.以此类推,针对该领域的特征,最终确定如下语义关联规则作为构建表象关联图的依据.• 合作者关联(作者_合作者):若两个表象的合作者集合存在交集,则认为该表象间存在合作者关联.寇月 等:一种基于语义及统计分析的Deep Web 实体识别机制199• 出处关联(作者_会议):若两个表象出自同一个会议或出版机构,则认为该表象间存在出处关联.• 混合关联:表象间经过合作者关联或出处关联的有限次迭加而建立的关联. 4.2 表象关联图基于这些预先挖掘的语义关联规则,可以检测出表象间的关联关系,将这些信息以图形化表示出来的过程就是构建表象关联图(representation relationship graph,简称RRG)的过程.RRG 由节点集合V 和边集合E 组成,V 用来表示实体的不同表象,包括文本相似集内的表象以及与之具有语义关联的所有表象,如上例中的作者和会议等;E 用来表示表象间存在的语义关联,如上例中的合作者关联、出处关联等.表象关联图类似于关系数据库中的实体联系模型,不同的是,表象关联图表示的是实例(表象)间的关联信息,因此,可以将表象关联图看成是对实体联系模型的实例化表示.针对论文检索领域某一文本相似集内的两个表象John Allen 与J. Allen 构建的表象关联图如图3所示,其中,节点分为两类,分别表示作者表象和会议表象;同样,按照表象间关联类型的不同,边也分为合作者关联与出处关联.具体来说,图3(a)表示John Allen 的合作者Helen 同样也是J. Allen 的合作者,则认为John Allen 与J. Allen 存在合作者关联;图3(b)表示John Allen 发表的某篇文章与J. Allen 的来源于同一会议VLDB,则认为John Allen 与J. Allen 存在出处关联;图3(c)表示John Allen 与J. Allen 之间既存在合作者关联又存在出处关联,则认为John Allen 与J. Allen 之间存在混合关联.(a)(b)(c)Fig.3 Demonstration of representation relationship graph图3 表象关联图示例4.3 最佳路径选取表象关联图中两个表象之间如果存在多条关联路径,如何从中选取一条最佳路径作为表象间关联强度计算的依据就成为一个有待解决的问题.通常,如果两个表象间语义关联所在的上下文环境包含的表象越少,语义关联就越有针对性,表象同属于一个实体的概率也就相对越高.为此,本文定义了路径重要度来量化表象间语义关联的独特性,并选取重要度高的路径作为最佳路径来计算关联强度.定义4(路径重要度). 若两个表象间某关联路径上的所有表象节点(不包含起始表象和终止表象)为{r 1,…, r k },与节点r i 存在语义关联的表象个数为m i ,则该关联路径的路径重要度为11.k i i m =∑如图4所示,表象John Allen 与J. Allen 之间路径A 的重要度为0.01,而路径B 的重要度为0.5.这是由于VLDB 与很多作者之间都存在出处关联,表象覆盖率较高,因此削弱了该关联针对作者John Allen 与J. Allen 的表现能力;相反,Helen 只与John Allen 和J. Allen 具有合作者关联,该关联的针对性较强,突出表现了John Allen 与J. Allen 之间语义关联的独特性.因此,在本例中,优先选择表现能力较强的路径B 作为最佳路径来计算表象John Allen 与J. Allen 之间的Fig.4 Selection of the best path 图4 最佳路径的选择200Journal of Software 软件学报 V ol.19, No.2, February 2008关联强度. 4.4 关联强度的计算关联强度是基于最佳路径对表象间语义关联的量化表示,能够在一定程度上反映出表象间潜在的语义相似性.随着关联类型的不同,其语义关联程度也有所不同,因此,需要针对不同的关联类型为其赋予不同的权值.由此可见,前文中最佳路径的选取是根据表象关联图中关联的独特性来进行的,而关联强度则是基于表象间关联的语义表达能力来进行计算的.表象r 1到r n 间关联路径的关联强度如公式(8)所示. 12111121()...1()...(...)111n n m n CS r r CS r r n w n w CS r r r n n −−→++−→++→→→==−−m − (8) 1(_)1(_)i i m k k Support R R w Support R R ==−∑ (9) 可见,表象间的关联强度相当于关联路径上每条子路径r i −1→r i 关联强度的平均值.其中,n 1~n m 表示关联路径上属于各种关联类型的关联数目;w 1~w m 表示按照语义关联程度对不同的关联类型(设有m 个)所赋予的权值(如公式(9)所示).需要注意的是,语义关联的表达能力越强,被赋予的权值就越小,关联强度也就越大.例如,在论文检索领域中,合作者关联比出处关联具有更强的语义表现能力,经计算,其权值分别为0.3和0.7,则图3(a)、 图3(b)和图3(c)中表象John Allen 与J. Allen 间关联强度分别为0.7,0.3和0.43.5 分组统计模型文本匹配与语义分析针对的都是字符串类型的属性,实际应用中实体的某些特征也经常用数值型属性加以描述,如报价、库存量等.对应于同一实体的不同表象在这些数值型属性上往往具有相似的聚集值,例如在不同数据源中,同一商品的平均价格基本一致、同一作者被检索的文章总数基本相同等.因此,可以基于这些数值型属性对语义相似集的表象进行统计分析,并按照属性聚集值的相似程度进一步对表象进行聚类.5.1 约束规则我们将存在于不同数据源中的同一聚类分组应该满足的统计规律定义为约束规则.约束规则所约束的目标是不同数据源内的聚类分组,而不同于文本匹配与语义分析以表象作为操作对象.因此,需要在聚类分组的层次上、针对不同的数据源对其进行统计分析.需要强调的是,只有当聚类分组所包含表象的个数大于1时,才有必要进行统计分析,因此,通常认为只包含1个表象的聚类分组均满足约束规则;另外,只有当数据源规模较大时,统计分析才能有效进行,因此,分组统计分析适合在表象覆盖率较大的数据源上进行.以论文检索领域为例,假设语义相似集S sem {John Allen,J. Allen,J. A. Allen,J. B. Allen,Jane Allen}在数据源DS 1和DS 2中的相关统计信息见表1,针对作者的被收录文章数、参与会议数可以为每个聚类分组(包含的表象数大于1)定义如下约束规则:• 文章数目约束:对应于同一实体的表象集{r 1,…,r n }在DS 1中被收录的文章总数应等于在DS 2中被收录的文章总数,记为DS 1.Sum (r 1.文章数,…,r n .文章数)=DS 2.Sum (r 1.文章数,…,r n .文章数).• 会议次数约束:对应于同一实体的表象集{r 1,…,r n }在DS 1中参与某会议的总次数应等于在DS 2中参与该会议的总次数,记为DS 1.Sum (r 1.会议数,…,r n .会议数)=DS 2.Sum (r 1.会议数,…,r n .会议数).Table 1 Statistical information of a semantic similar set in different data sources表1 不同数据源中某语义相似集的统计信息 Number of accepted papers Number of attended conferences S semDS 1DS 2DS 1DS 2John Allen20 35 6 4 J. Allen30 40 1 2 J. A. Allen40 15 1 2 J. B. Allen15 10 1 5 Jane Allen 120 50 3 11。

频次分析与二语习得

频次分析与二语习得

频次分析与二语习得本文采用语料库语言学的研究方法,探讨N.Ellis所倡导的二语习得的频率观。

语言输入是语言学习的重要环节,现在没有多少证据支持语言输入的频率影响二语习得的观点,也没有多少证据可以反驳这一观点。

随着认知心理学和语料库语言学的发展,我们可以把语料库的频次分析用于二语习得理论,以期得出对教学实践有用的结论。

标签:语料库频次二语习得一、引言语料库语言学是在语料库的基础上对语言进行分析和研究的科学;语料库语言学为语言研究与教学提供了一种全新的方法和思路,它以真实的语言数据为研究对象,对大量的语言事实进行系统分析;它研究的是语言行为,而不是语言能力,也就是说,它通过考察语言的实际运用来寻找语言使用的规律。

本文采用语料库语言学的研究方法,探讨N.Ellis 所倡导的二语习得的频率观。

语言输入是语言学习的重要环节,正如R.Ellis(1994:273)所言:我们没有多少证据支持语言输入的频率影响二语习得的观点;也没有多少证据可以反驳这一观点。

随着认知心理学和语料库语言学的发展,我们可以把语料库的频次分析用于二语习得理论,以期得到对教学实践有用的结论。

二、语言学研究的方法语言研究的方法和流派多种多样, 我国著名计算语言学家黄昌宁教授主张采用经验主义方法论研究语料库语言学(corpus linguistics),以实现大规模真实文本的计算机处理。

可是,费尔默(Fillmore)对语料库语言学的研究方法不屑一顾,宣称自己是“安乐椅”上的语言学家(armchair linguist)•,他不相信在其中可能找到他所需要的一切语言事实的语料库能够存在,无论其规模有多大。

因此这种被称为“安乐椅里的语言学(armchair linguistics)”, 指的是学者们坐在办公室里凭借自己头脑中的语言直觉和智慧,通过主观臆想来撰写语言的规范。

还有一种可称为“诊疗室里的语言学(therapy linguistics)”,这是基于个别或少数失语症患者的话语语料来研究患有语病的语言模式,关注于研究者能够利用语言来做什么而不是一般人如何使用语言。

人工智能时代高校教学改革的现实困境及突破路径

人工智能时代高校教学改革的现实困境及突破路径

‘齐齐哈尔大学学报“(哲学社会科学版)2023年10月Journal of Qiqihar University(Phi&Soc Sci) Oct.2023  收稿日期:2023-05-24 作者简介:胡立(1983-),女,副教授,博士后㊂主要从事高等教育学研究㊂张放平(1951-),男,教授,博士后合作导师㊂主要从事高等教育学研究㊂ 基金项目:湖南省教育科学十四五规划一般资助项目:人工智能与教育教学深度融合的现实之困与未来之道(XJK21BXX001);湖南省社科基金项目:疫情防控常态化下外语网络空间教学行为生态优化研究(20YBA039)人工智能时代高校教学改革的现实困境及突破路径胡 立1,张放平2(1.湖南财政经济学院外国语学院,湖南长沙410205;2.湖南省教育科学研究院,湖南长沙410005)摘 要:人工智能与教育教学改革的深度融合,是当前教育信息化环境下教育教学改革的重要任务㊂人工智能在教学改革中的存在方式决定了新时代教育改革的未来发展方向㊂人工智能不能取代教师,但不使用人工智能的教师会逐渐被使用人工智能的教师所替代㊂人工智能通过其自身算法能够实行 深度学习”,学习者学习方式成为一种自适应的学习方式㊂人工智能帮助学生实行个性化学习,成为教师 助教”,辅助教师教学㊁促进教学服务管理㊂只有做到 人”㊁ 机”协同发展,提高 人”与 机”交互效率,在教学中发挥人的主观能动性,注重人的价值述求,才能让机器更像 机器”㊁人更像 人”㊂关键词:人工智能;教学改革;现实之阻;未来之道中图分类号:G642 文献标识码:A 文章编号:1008-2638(2023)10-0160-05Obstacles and Its Practice Strategies on the Artificial Intelligence andTeaching Reform of Higher EducationHU Li 1,ZHANG Fang -ping 2(1.Hunan University of Finance and Economics,Changsha Hunan 410205,China;2.Hunan Provincial Research Institute of Education,Changsha Hunan 410005,China) Abstract :It is an important task of higher education teaching reform to make a deep integration of artificial intelligence and teach⁃ing reform under the current educational information environment.The existence mode of artificial intelligence in teaching reform deter⁃mines the future development direction of education reform in the new era.Artificial intelligence cannot replace teachers,but teacherswho do not use artificial intelligence can hardly adapt to the needs of future education development.Artificial intelligence can imple⁃ment deep learning through its own algorithm,and learners’learning style becomes an adaptive learning style.Artificial intelligence helps students implement personalized learning,become teachers’teaching assistants,assist teachers’teaching and promote teachingservice management.Only by achieving the coordinated development of human and machine,improving the interactive efficiency of hu⁃man and machine,giving full play to the subjective initiative of human in teaching,and paying attention to the value statement of hu⁃man,can the machine be more like machine and human be more like human. Key words :artificial intelligence;teaching reform;obstacles to reality;future strategies 智能时代的中国教育发展呈现出新特征:教育科学研究将进入交叉融合㊁集智创新的新阶段;教育发展目标将聚焦更加公平㊁更有质量的新标准㊂[1]随着ChatGPT 聊天机器人的出现,人工智能对未来教育教学带来新的挑战㊂那么,人工智能在教育改革中能做什么?教师如何胜任智能时代教学?教师该如何转型?随着人工智能的发展,人工智能在教育改革中深度运用之后,教学改革必然走向智能化教学模式㊂一㊁人工智能对高等院校教学改革的挑战人工智能时代的教学环境发生改变,为了适应新环境下 教学生态的良性循环,教师的教学需更加关注学生创造性思维能力的培养㊁价值观念的形成㊁数据素养和人文素养的提高㊂(一)人工智能时代教师教学方式在信息化时代教学生态系统中,人工智能在词汇记忆等方面的纯语言类训练已经能替代教师的作用,而且人工智能技术能够根据学生词汇学习情况进行 智能推送”,根据学生常出现错误的词汇进行 错题集”整理㊂人工智能的出现对高等院校教学带来了怎样的机遇与挑战?哪些教师的作用和功能将被人工智能所替代?这是高校教育工作者应该思考的问题㊂人工智能能帮助学生提高学习质量和学习效果;人工智能可以充当教师的 助教”,为支持教师教育教学职责提供帮助,将教师从 日常生活”中 解放”出来,将更多时间与精力投入到与学生之间的 人际互动”中㊂[2]可以说,人工智能不断地 侵占”了教师原本的 生态位”,教师在教学中的功能被 弱化”㊂教师如何才能找到其存在价值,不断拓展自己的生态位宽度[3]人工智能所不能达到的边界是什么?人工智能在语言知识传授等机械性㊁重复性劳动方面为教师节省出更多的时间来思考教育的根本问题:教师应该培养什么样的人?从这层意义上而言,人工智能的发展 倒逼”教师重新定位自身角色,让教师投入更多时间在怎样脱离外在束缚,专心投入到学生 成人”使命上来㊂教师只有具备 人工智能”所不能具备的 无可替代”的特性,才能找到教师自身的存在价值㊂[2]人工智能时代的高校教师教学方式需要随着学生 碎片化”学习方式进行调整,根据学生在知识运用中的存在的问题进行 诊断性”训练和 维度分析”,促成知识的 深度运用”,提高学生的自主学习能力㊂(二)人工智能时代学生学习方式人工智能能够 借助情景感知技术及智慧信息技术,进行真实过程体验的情境学习,促进学习者知识迁移运用的情境化和社会化㊂”[4]㊂在这个 智能化”学习过程中,学生学习方式改变,学习效率提高㊂从下图1学生语言学习能力测试流程和学习能力提升体系来看,人工智能能够根据学生已有水平进行 知识推送”,并且在学生练习或测试过程中,记录学生学习情况,发现学生在发音等方面的薄弱环节㊂并且通过一定阶段学习后,人工智能技术能根据学生学习曲线,为学生绘制个人专属 学习提升计划”,这种学习模式是 一对一”个性化学习㊁因材施教教学法的最好体现㊂ChatGPT 这种生成式聊天机器人的出现,为学生学习提供多样化的程序㊁方式㊁模板等选择,满足学生个性化自主学习的需求㊂图1 学生语言学习能力测试流程图(三)人工智能认知与知识理解机器认知带来了学习革命,最核心的体现在于语言知识的理解与记忆上㊂有了机器翻译的帮助,学生在学习过程中通过现代技术的 段落翻译”㊁ 扫词翻译”等完成,学生在学习过程中变得 不愿意去思考”,依赖机器翻译㊂在实际上,在语言学习过程中,学生不仅仅需要对语言进行 字面理解”,还需要理解 话语背后的含义”,需要对语言背后的文化知识进行理解㊂人工智能的认知在理解 文本含义”时,可以把握事物之间的关系,可以帮助学生理解语言知识㊂人工智能通过其自身算法能够实行 深度学习”㊂可以说,在知识的理解,认知等方面,人工智能可以替代教师进行传授,教师的传授功能被弱化㊂但是在语言的 话语含义”和语言文化背后的情感和价值观等方向的培养,是机器认知所不能替代的㊂即使一些数字技术能捕捉学生的 学习行为”,对学生的学习情感和学习投入状态进行 学习分析”,但是学生情感的引导和价值观念的形成,需要通过各种师生互动㊁生生互动中完成㊂人工智能推送技术能够根据学生学习已经掌握的内容进行知识推送,但是不能够随着学生的发展需求进行适时调整,学生在学习过程中学习发展需求可以通过与同伴㊁教师的交流与评价中加以及时调整㊂二、人工智能在高校教学改革实践中的意义学生在学习中习得了大量的 明知识”:掌握了一定的词汇与语法,可学生遇到真实情景就无法表达自我,原因在于进行口语表达的具体情景,语言习惯以及语言文化等 默知识”的缺乏使得学生无法进行顺畅语言交流㊂对于学生来说,获取默知识只能靠亲身体验,如果缺乏大量的自我体验,学生无法进行有效的输出㊂对于老师而言,默知识散布在许多不同人的身上,无法集中,教师无法针对每个学生的情况来进行针对性输入,而人工智能的介入,可以发现人类既无法感受又无法表达的 暗知识”㊂(一)帮助教师个性化学习分析随着人工智能技术的发展,学生对于各种学习工具的运用,开始依赖工具,不愿意习得某些技能㊂比如学生在翻译过程中,会依赖手机自带翻译软件 扫词翻译”㊁ 拍照翻译”㊁ 语音翻译”或者直接通过 复制”㊁ 粘贴”在各种翻译软件中实现㊂在 人工智能时代真的来了”的背景下,机器翻译已经达到了大学英语六级水平㊂随着ChatGPT这种生成161 第10期人工智能时代高校教学改革的现实困境及突破路径性聊天机器人的出现,教师必须积极求变才能应对这种人工智能的变革㊂人工智能在记录学生学习过程后,对学习学习过程进行有效反馈,精准判断学习中的问题,并对学生的学习过程进行 图像化”处理,分析其 学习曲线”,提供 一人一张课表”㊂[5]并对学生的认知特点分析,推送学习资源,进行个性化学习服务㊂人工智能实现了 一人一个尺寸”的个性化学习,因此,教师需要根据学生 薄弱环节”有针对性介入,让学习真正成为个体自我建构的过程㊂人工智能能够通过学生 学习轨迹”和学习过程的 显性”分析来预测学生产生信心成果的过程趋势,从而帮助教师挖掘信息化时代知识传递和认知的 隐性”路径㊂(二)辅助教师的教学日常对于教师而言,教师就常常被 备课”㊁ 作业批改”等日常事务困扰,占用教师大量时间,有些重复劳动使教师不能投入更多时间在教学设计和教学反思等提升性教学技能上㊂而人工智能的出现能解放教师的一部分日常工作,帮助教师自动批改作业,记录学习个人和班级整体任务完成情况,帮助教师实施 过程性学习评价”,从而帮助教师优化个人教学设计,合理安排教学进程和教学任务安排㊂对于语言教学而言,大量的纯知识记忆型的学习活动可以让学生在课外完成,教师只需要定期查看学生学习情况,并根据学习反馈进行有针对性的学习评价与检测㊂教师通过提取学生在学习平台的一系列数据和 学习痕迹”来分析学生学习过程中遇到的难题,教师在备课中 学习重点”和 学习难点”的设计不再是 纸上谈兵”的事情,而是教师教学设计的 有力证据”㊂(三)实现智能教学及教学服务人工智能能实现真实场景的模拟,而在语言学习中,最缺乏的语言交互环境,无论是情境模拟还是真实的交际场景中,学生最大的交际困难时,无法将输入的知识根据情境的需要进行有效输出㊂而虚拟现实(Virtual Reality)技术可以逼真地模拟现实世界,而学习者已投入到这种环境中,便会产生一种 身临其境”的感觉,不自觉与虚拟环境进行交互㊂在这个环境中,虚拟环境还能够实时地作出相应的反应,使一些在真实环境中无法适应的学习者能够更加大胆地表达自我,与智能机器人进行 人机互动”㊂那么人工智能的出现是否表示教师是否可以 退场”了?无论是智能机器人还是手机APP中的智能系统应用都无法替代教师的作用,教师可以将学生在智能系统中的学习表现作为辅助手段,来开展更符合学生需求, 体验感”与 获得感”更强的学习活动㊂教师通过教学管理平台对学生学习数据进行收集㊁分析㊁可视化处理,对学习学习过程进行动态化管理与评价㊂三、人工智能在高校教学改革实践中的现实局限性人工智能工具和ChatGDP聊天机器人的出现,使得教师的教学过程和学生的学习过程更加 智能化”,人工智能的外在工具性功能扮演越来越重要的作用,然而教育是一种复杂的社会活动,具备有更多的 内生性”需求㊂比如情境教学中,虽然能够实现 人机互动”,但是人与人之间的情感交流与语言交流的社会情境以及跨文化交际中的 文化意义”与 价值判断”是人工智能无法识别的㊂由于人工智能没有感情,不会产生移情,没有情感共鸣,这就造成了其在培养学生情感态度和价值观的过程中作用有限㊂[5](一)知识学习的文化迁移从知识本身而言,知识是通过外界传授或通过自身学习积累而获得;而技能则是将知识运用于实践的行动;能力是掌握知识㊁技能基础上通过一定的实践和真实体验后慢慢习得㊂语言的学习是一个复杂的过程,学习者在学习语言时,习得了一定的词汇与语法,但是很难获得语言的 神韵”,无法进入 言语世界”,顺应到具体 语言情境”之中㊂学生在真实交际场景中经常遭遇 哑巴外语”的语言困境,其中最主要的原因是语言环境的不充分㊂学习者能对照词汇表背诵许多词汇,在这种有压力的环境下,并不能自然而然用目标语进行自我表达,用目标语进行思考㊂而人工智能在提供知识输入,应用场景仿真方面为语言输入创造了诸多条件,但是人的情感体验与对于知识的意义建构还需要在各种日常交往中不断激活㊂ChatGPT能够实现知识的生成,但不能帮助学生进行知识的 主动建构”,言语意义的形成需要在大量的语言输入之后,学生自我感悟,最后才能 连接”语言知识与文化,并 转移”到新的语言环境之中㊂人工智能在传递显性的 明知识”方面和传授技能的 默知识”方面具备明显优势,但是人工智能没有情感共鸣, 机器”与人之间的交互不利于知识学习的文化迁移和学生价值观的文化输入, 文化生成”的使命需要教师从微观上关注学生的学习效果,将学生意识不到的学习经验加以适当的控制与安排,使这些文化的因素 明显化”[6],才能达到预期的文化迁移的目标㊂(二)能力培养中的 心灵转向”高校英语教育要培养学生的英语应用能力,而非简单的英语能力㊂[7]学生知识㊁能力与情感目标的达成需要教师进行有机融入㊂比如,在翻译学习过程中,如果学习者过度依赖人工智能的学习,学生自我思考的功能退化,慢慢相信机器的 绝对正确”,而不会去思考哪种翻译更能表达文本的意义㊂学生在这种 正确答案”的文本中丧失了独立思考的空间,如果在学习过程中过度依赖人工智能的先进成果,而不注重思维能力的转变和学习方式的革新,就不会利于学生语言能力的培养㊂人工智能一定程度上解决了教学过程中可确定性㊁可测量和重复性的教学问题,[8]而要培养学生的能力是需要引导学生化理论为方法,引导学生发生 目光的转向”,给学生提供方法论的启示㊂[8]在语言文化教学场域中存在许多不确定性㊁不可测量的㊁非理性的情感化内容,这些内容不是通过反复训练可以习得的,而是需要在教师的心灵引导下 化”成一种意识,一种理念,一种修养,才能理解其中的意蕴㊂在新知学习过程中,人工智能学习帮助学生习得语言技能,而教师需要根据学生语言 输出”情况进行分析,归纳学生在语言使用中的语用错误或文化冲突㊂人工智能无法帮助学生识别文化冲突,学生的语言及其行为的文化错误需要教师进行不断修正㊁强化与塑造,最后内化成一种语言能力,从而使学生的认知潜移默化为以后日常交际中的行为㊂(三)情感培养中的价值理性技术理性的发展,使得人的价值理性的蜕化㊂如果过度261齐齐哈尔大学学报(哲学社会科学版) 依赖人工智能在教学中的运用,教师与学生之间的人际交往功能弱化㊂可以说,人工智能改变了知识传播的方式和学习者学习的方式,然而教师在 培养学生的理想㊁信念㊁情操㊁爱心等精神世界方面的作用不可替代”㊂[9]比如,机器在翻译过程中,机器翻译能够准确翻译出文本的意义,但是其功能并不是 无所不能”的㊂机器在翻译过程中基于已有文本的理解,是一种话语含义的 直接体现”,而 真切的情感体验和对人世意义的建构”无法被直接阐释㊂如果说人工智能可以完成知识从 本然界”向 事实界”的呈现,教师的作用则是唤醒学生的意识,引导学生进行 价值之思”和 文化生成”㊂[8]教师在教的过程中,每一个行为,每一个言语,甚至每一个眼神,都需要开启学生对更高事物的追求,激励个体对真㊁善㊁美的内在欲求㊂[10]教师的 德性”是人工智能时代教师不可或缺的品质,通过教师的教学行为,把教师的个人修养化成一种无声的力量,不断去激发学生学习欲望,影响学生价值理念和学习行为的改变㊂四、人工智能在高校教学改革中的未来突破路径目前,教育现代化由教育技术支持知识传授阶段进入到教育技术与知识传授的融合阶段,教育技术不是支持教学运行的手段,教育技术的介入改变了教师教学与学生学习样态㊂ChatGPT等聊天机器人目前在教育教学领域,还只是一种简单的运用,人工智能的 深度运用”和真正实现 人机协同”需要从教学实际需求出发,了解目前人工智能技术 供应端”和 使用端”不能无缝对接的 痛点”问题,才能不断优化学习环境,使人工智能在教育教学发挥其应有功能㊂(一) 人”㊁ 机”协同促进学生发展人工智能环境为语言学习的情境创设提供了便利条件,因此,人工智能时代的教学需要实现 人”㊁ 机”协同,共同促进学生语言发展㊂在传统课堂教学中,一些教师在课堂中的作用为 陪练”,强调语言技能本身的训练,注重语言 输入”,对语言 产出”质量的测量不够㊂随着机器人 小倩”这种类型的人工智能的出现,纯语言的 机械类”训练,在机器的辅助下学生可以自主完成㊂而教师则需要在教学过程的各个阶段, 协同”机器学习,进行有效课堂教学组织㊂在复习阶段,教师通过课前提问等方式,检测学生机器学习的效果,帮助学生激活旧知,重构旧知㊂机器学习能够帮助学生记录整个学习过程,并给出量化的分数,指出一些 表层语言错误”,教师的作用是对学生优点给予肯定,并指出其中语言表达,文化运用等 深层次”中的 语用不当”㊂在机器训练阶段, 进阶”或者 升级”的过程,让学生很有成就感㊂而对于学习基础较差的学生,在长时间没有 晋级”的 获得感”时,因为无法体验成就感,没有教师或同伴的适时的评价与肯定,学生失去学习动力㊂而教师在现实场景下的评价㊁真实图片的示范和讲解,能够帮助学生更加直观的理解,加入了人的情感的示范或场景能让学生有更多的 存在感”,这种情感的教学是机器学习无法获得的㊂教师在设计教学和组织或组织学生活动,始终要坚持的理念是:我的教学内容是否能与学生的情感建立联系?我为什么要设计这个活动,我的这个活动是无可替代的么?能机器辅助完成的任务,教师不应该纳入到教学设计中㊂比如,在 AI口语老师”的 协同”下,教师只需要根据学生口语测评的结果,在课堂上增加口语练习的多样性和互动性,帮助学生从 机器陪练”中走出来㊂AI写作智能评阅系统中,能对学生拼写㊁语法㊁搭配等错误进行标注,教师则需要在此基础上,在课堂教学中对写作的篇章结构和内在逻辑等方面进行进一步分析与数理,提高学生写作水平㊂教师在课堂内外教学中的每一个行为都是立足于帮助学生习得知识㊁掌握技能㊁习得文化㊂课后教师的反思也应该是:这堂课学生是否积极参与了课堂活动?学生在课堂教学课程中能否进行有效的内化㊁输出与质疑?语言教学最大差异在于跨文化间的差异,而这些是机器学习无法获取的,需要教师与机器 协同”完成,甚至需要在反复的 人 机 人”不断协同的模式中,才能使学生达成跨文化沟通㊂人机协同能够在机器学习能完整全面记录学生学习状态的基础上,通过课堂展示活动发现学生不足,给予全面评价,培养学生合作意识和跨文化意识㊂(二)提高 人”㊁ 机”交互效率目前,多样化的数字资源为学生提供了便利,学生可以轻易获得各种视频资源,在学生在课外利用网络平台开展自主学习时间有限的情况下,如何提高学生学习效率成为教师教学行为优化的主要目标㊂无论是教师的 教”还是学习者的 学”,人工智能帮助师生在 云空间”中实现 人”与 资源”的交互,师生之间㊁生生之间的交互,而且这种交互功能越来越便捷㊁常态化㊂学生学习的需求与学习喜好在学习平台中留下了 学习痕迹”㊂学生和教师生活在 微信”㊁ 微课”和 微视频”为主打的快节奏 微时代”,师生与机器的交互方式也呈现出快捷化㊁碎片化方式㊂ChatGPT语言生成人工智能为学生语言学习提供 智能学伴”,作为 数字原住民”的00后学生几乎生活在一个 没有网络,就感觉浑身不自在”的空间,他们运用智能化方式进行语言学习时间却十分有限㊂在一项 大学英语教学生态现状”调查中,2178名大一学生参与调查, 经常使用学习软件或网络教学平台开展自主学习的”仅占8.59%,13.27%的学生表示 从不使用”,78.15%的学生 有时使用”㊂因此,教师需要充分把握新时代学习者的学习特点,推送适合学生学习 微资源”,让学生在零星时间里自由支配学习时间,充分激发学生自主学习积极性,帮助学生养成自主学习的习惯,提高自主学习效率㊂在人工智能时代,互动成为一种常态的情况下,面对面的沟通成为难能可贵的事情㊂因此,教师与学生的交往除了通过网络的线下互动外,需要适当的面对面互动,根据学生实际情况进行交谈和适时的反馈㊂学生之间可以进行互评,学生开展自我评价㊂教师在教学活动中帮助学生形成团队协作意识,通过互动性评价来激发学生学习主动性㊂比如在阅读教学中,人工智能的阅读系统让教师不再需要花费大量时间为学生推荐阅读材料,而是可以根据学生阅读水平和喜好进行智能推送㊂教师则需要通过课堂互动等方式,定期与学生交流阅读效率,让学生分享阅读过程中的收获,并将学生喜好程度高的阅读材料进行深度阅读分析,提高学生提取阅读素材关键信息,理解语篇的能力㊂在教学过程中,教师361 第10期人工智能时代高校教学改革的现实困境及突破路径。

基于声学参数测量的语音清晰度预测系统

基于声学参数测量的语音清晰度预测系统

基于声学参数测量的语音清晰度预测系统靳源;章斯宇;孟子厚【摘要】以信噪比、混响时间和系统截止频率为特征值,利用粒子群算法优化的支持向量机在MATLAB平台下设计了一套语音清晰度预测系统,实现了信噪比、混响时间和系统幅频曲线集成测量与语音清晰度的预测.【期刊名称】《演艺科技》【年(卷),期】2018(000)005【总页数】6页(P34-39)【关键词】语音清晰度;声学测量;支持向量机【作者】靳源;章斯宇;孟子厚【作者单位】中国传媒大学传播声学研究所,北京 100024;中国传媒大学传播声学研究所,北京 100024;中国传媒大学传播声学研究所,北京 100024【正文语种】中文1 引言语音清晰度是衡量语音传输系统性能优劣的一项重要指标,受到很多因素的影响,其中噪声混响和频率失真尤为重要。

语音清晰度的测量方法主要有主观测量方法和客观测量方法。

主观测量是以人为主体来对语音的质量进行评价,需要大量的人力,方法繁琐,重复性和稳定性均不佳,但优点是能真实反映语音质量的优劣。

客观测量是基于算法直接对语音传输系统的语言传输质量进行评价,目前国际上应用较为广泛的是语言传输指数STI法[1],虽然客观评价方法解决了费时费力等问题,但现行语音清晰度客观评价方法得出的汉语清晰度水平与人的实际听感存在差异。

笔者所在的声学所曾对语言传输指数STI在评价汉语清晰度存在失效的问题[2]做了研究,但还需要针对汉语语言学和语音学特点、汉语知觉心理特点、传输通道传递条件的多样性等方面建立一种符合实际听觉感受的汉语清晰度客观评测方法。

笔者查阅相关文献发现,尚楠通过主观实验探讨了混响时间和信噪比与语音听感清晰度之间的关系[3];宋慧在频带失真条件下探讨了汉语听感清晰度随滤波截止频率的变化规律[4],发现语音清晰度与各声学参数的关系是非线性的,且影响语音清晰度的各种因素是相互联系、相互影响的。

支持向量机(Support Vector Machine,SVM)是一种比较优秀的机器学习算法,它不仅具有记忆性、自学性等一般机器学习算法的优点,而且算法简单,“鲁棒性”强,解决小样本问题、非线性问题都具有较强的优势[5]。

联合con-GRU与ATGAT模型的情感分析三元组方法

联合con-GRU与ATGAT模型的情感分析三元组方法

现代电子技术Modern Electronics TechniqueApr. 2024Vol. 47 No. 82024年4月15日第47卷第8期0 引 言自然语言处理是一种专业分析如文本、图像、视频等多种人类语言的人工智能。

自然语言处理分为情感分析[1]、关系抽取[2]等多种具体问题,本文主要研究情感分析问题。

在日常生活中,人们更多关注的是某一个方面的具体情感,传统的情感分析也仅仅是判断出某一个方面的情感,并没有指出文本的方面词表示。

Peng 等人在2020年提出了三元组的概念[3],三元组是指将方面词、情感词以及情感极性作为一个组合共同输出,是当前情感分析的主要方向。

三元组的示例如下:Sentence1:The environment here is poor,but the food is delicious.Sentence2:Overall,it′s okay.Aspect term:environment,food,NULL Opinion term:poor,delicious,okaySentimental Polarities: negative, positive, positive Opinion Triplets:(environment, poor, negative ),(food,delicious,positive ),(NULL,okay,positive )DOI :10.16652/j.issn.1004⁃373x.2024.08.024引用格式:毕晓杰,李卫疆.联合con⁃GRU 与ATGAT 模型的情感分析三元组方法[J].现代电子技术,2024,47(8):149⁃154.联合con⁃GRU 与ATGAT 模型的情感分析三元组方法毕晓杰1,2, 李卫疆1,2(1.昆明理工大学 信息工程与自动化学院, 云南 昆明 650500; 2.昆明理工大学 云南省人工智能重点实验室, 云南 昆明 650500)摘 要: 情感分析三元组任务是情感分析任务的研究热点,其目的在于将方面词、情感词与情感极性组成三元组。

35411309

35411309
P o . f e s r me t f p e h Au i n ie ai rc o a ue M n e c . do a d V d O Qu l o S t y i t o k . t t ma in l o f r n e M E AQI 2 0 . n New rs8 h I e t a C n e e c S n o N 0 9 P a u .0 9 rg e 2 0 .
o mn m i in P r r n e o ut f t s s o e f ma c n M lme i Qo , mg e s o i da SP u, 7 9 hJ n 0 8 -I t u e 2 o _

孙碧涛 :本科毕业于 南京理工 大学 计算机 系并获学士学位 ,硕士毕业
于英 国伦敦 大学学 院 ( C U L)计算
机 系。 现 任 职 于 中 国联 通 集 团运 维
【] GPP W o kT s : n g me to a e e o k 43 . r a k Ma a e n fUE b s d n t r w p roma c a ue nsS.i 3 e fr n e me s rme t [] n GPPwe st , t : b i ht f e p VV ̄ .g pogf / p c /t —if/S WG- 5 一 s VVV3 p .r/ pS e shml noT G- t -s 一 wi.
苗守野 :本科毕业于北京邮电大学 电信_ 程学院并获学士学位 ,硕 士 T -
毕 业于北京 邮电大学。现任职 于中
国联 通 网络 分公 司运 维部 ,长 期 从
●_

【] E Co wa . P s ie Me h d f rMo i r gVoc — 2A n y A a sv t o o nt i ie on

基于循环神经网络的藏语语音识别声学模型

基于循环神经网络的藏语语音识别声学模型

0 引 言
藏 语 属 于汉 藏 语 系 的藏 缅 语 族 藏语 支 ,存 在 历 史悠 久 ,使用 人 口众 多r】 ],广 泛分 布 于我 国西 藏 、青 海 、甘肃 、四川 ,以及 尼 泊 尔 、印度 、巴基 斯 坦等 藏 族 聚集 地 区_3]。藏语 语 音 识 别 技 术 的发 展 ,可 有 效 解 决 藏 区与其 他地 区 之 问 的语 言 沟 通 障碍 ,促 进 民族 间交 流 ,增进 相互 了解 ,支 援藏 区经 济 、科技 、文 化等 领域 的发展 。与汉 语 、英语 等 大语种 相 比 ,藏 语 不仅
HUANG Xiaohui ,LI J ing
(1. College of Com puter Science and Technology,U niversity of Science and Technology of China, Hefei,Anhui 230027,China;2.PLA U niversity of Foreign Language,Luoyang,H enan 471003,China)
2018年 5月
JOURNAL oF CH INESE INFoRM A TIoN PRoCESSING
文 章 编 号 :1003—0077(2018)05—0049—07
May,2018
基 于循环 神 经 网络 的藏 语语 音 识别 声 学模 型
黄 晓 辉 ,李 京
(1.中 国科 学 技 术 大 学 计 算 机 科 学 与 技 术 学 院 ,安 徽 合 肥 2300471003)
型 在 保 持 同 等识 别 性 能 的 情 况 下 ,拥 有 更 高 的 训 练 和 解 码 效 率 。
关 键 词 :循 环 神 经 网络 ;藏 语 语 音 识 别 ;声 学 建 模 ;时域 卷积

大语言模型融合知识图谱的问答系统

大语言模型融合知识图谱的问答系统

数据集与实验评估
数据集
使用公开可用的知识图谱数据集进行实验评估,如Freebase、DBpedia等。
实验评估指标
采用准确率、召回率、F1得分等指标对系统性能进行评估。
实验结果与分析
实验结果
在各种数据集上进行了实验,并得到了相应的实验结果。
结果分析
对实验结果进行分析,探讨了不同模型在不同数据集上的表现,并分析了可能的原因。同时,还对系 统性能进行了讨论与优化。
强调研究创新点
提出一种新颖的模型融合方法和优化策略,提高问 答系统的性能和鲁棒性
02
大语言模型技术
语言模型基本概念
语言模型的定义
语言模型是一种概率模型,它通过对大量文本数据的学习,来预测给定上下文中下一个单 词的概率分布。
语言模型的种类
语言模型可分为基于规则和基于统计两种。基于规则的语言模型通常依赖于手动编写的语 法规则,而基于统计的语言模型则通过学习大量文本数据的统计规律来构建模型。
05
02
预处理与集成
对收集到的数据进行清洗、对齐和标准化处 理,将其整合到一个统一的知识图谱中。
04
自然语言处理
将用户提出的问题进行自然语言处理,将其 转化为机器可理解的形式,以便与知识图谱 进行匹配。
06
结果呈现与评估
将查询结果以易于理解的方式呈现给用户, 同时根据实验评估指标对系统性能进行评估 。
模型融合模块
信息融合
将自然语言处理模块和知识图谱模块的信息进行融合,生成 候选答案。
模型融合算法
采用适当的算法(如加权平均、基于模型的融合等)将不同 来源的信息进行融合。
答案生成模块
排序算法
根据一定的排序算法(如基于概率的排序、基于置信度的排序等)对候选答案进 行排序。

国际关系语境中术语Bargaining和Negotiation的数字话语分析

国际关系语境中术语Bargaining和Negotiation的数字话语分析

现代商贸工业2021年第20期21作者简介:吴亭亭(1996-),女,汉族,辽宁鞍山人,大连理工大学研究生,主要研究方向:外国语言学及应用语言学;牛晓春(1965-),女,汉族,吉林白城人,大连理工大学外国语学院副教授,主要研究方向:语言学㊁跨文化交际㊁国际商务谈判㊂国际关系语境中术语B a r g a i n i n g 和N e go t i a t i o n 的数字话语分析吴亭亭 牛晓春(大连理工大学外国语学院,辽宁大连116024)摘 要:国际关系术语B a r g a i n i n g 和N e go t i a t i o n 的概念进行研究,具有重要的社会语言学研究意义㊂本研究以1974-1983年‘国际组织“发表的期刊为数字话语语料,基于数字话语分析框架 语境化洋葱层模型 ,对B a r -g a i n i n g 和N e g o t i a t i o n 的相关概念发展和语义关系进行定量与定性分析㊂研究结果表明,B a r g a i n i n g 和N e go t i a -t i o n 的概念都与O E D 中给出的定义及先前学者提出的观点基本一致,但N e g o t i a t i o n 在O E D 中的定义不能完整地概括它们在实际语境下的含义㊂本文试图对其在国际关系语境下的定义给予了补充,并通过检索和分析发现B a r g a i n i n g 在语义场中更偏向作为N e go t i a t i o n 这个整体的一部分㊂关键词:数字话语;国际关系;B a r g a i n i n g ;N e g o t i a t i o n ;语境化洋葱层模型中图分类号:F 74 文献标识码:A d o i :10.19311/j .c n k i .1672-3198.2021.20.011 国际关系是指跨越民族国家边界的关系㊂1971年金融危机后,国际政治经济的研究引起关注㊂因此国际谈判成为国际关系学中一个热点研究领域㊂B a r -g a i n i n g 和N e go t i a t i o n 这两个词在国际关系文献中经常互换使用㊂然而语言学界很少对这两个术语进行比较研究导致一些英语学习者甚至翻译工作者的误用㊂术语的规范化是任何一门学科长期存在和发展的前提㊂如果各学者各抒己见,没有统一规范的术语,既不利于学术交流,也不利于读者对国际关系的研究和理解㊂本文从语言学视角探索国际关系术语B a r g a i n i n g 和N e g o t i a t i o n 的概念发展,以期规范二者在国际关系语境中的使用㊂1 研究理据1.1 数字话语分析语篇分析关注语言㊁知识和社会之间的关系,旨在揭示知识在特定社会群体中的形成过程等无法直接观察到的问题㊂目前大量的语篇分析研究的方法倾向于计算机㊁网络㊁移动终端设备等数字技术来分析话语,即数字话语㊂数字话语是当前日常交际主要要素,但对其系统的研究仍处于探索阶段㊂数字话语分析(D D A )是一种跨学科的用于分析数字化书面语篇的新的分析框架,以期得到一个可信的㊁全面的实证结果,是研究一门学科发展的一种新兴的方法㊂在国际关系领域,采用数字话语分析方法将克服传统研究侧重于范式㊁流派㊁理论和主角人物的局限性㊂D D A 优点是可以覆盖大量文本,提供比传统人工分析更为连贯的语篇㊂只要认真执行所有必要的方法步骤,D D A 就可以对概念进行完全不同的描述㊂D D A 还可以对不同语境下的关键术语进行度量和分类㊂研究问题可以通过综合分析数据及其随时间变化的语言模式来得以解决㊂1.2 语境化洋葱层模型语境化在实证语言学强调语境是一个动态的环境,是由语言交际中的参与者重构并不断塑造的㊂语境与确保语言互动顺利进行的几个方面相关,如合作伙伴㊁情景和主题㊂语言符号应该通过追踪社会规则的发展来实现一系列持续的表达㊂因此语境化这一结构概念成为数字话语分析的重要研究对象㊂穆勒提出一个全面的数字话语分析方法论的理论框架 语境化洋葱皮模型 (T h eO n i o nS k i nM o d e l o f C o n t e x t u a l i z a -t i o n)(图1)㊂图1 语境化洋葱层模型国际商贸现代商贸工业2021年第20期22他将语境定义为 与解释相关的语言焦点结构的环境 ㊂语境化洋葱皮模型将语境分为两层:内部语境层和外部语境层㊂内部语境层由构式㊁共文本㊁情景和社会角色构成㊂外部语境层关注不同社会群体或时代背景影响下的深层语义㊂本研究从内部层面,归纳出不同的情境语境和社会角色,来探讨B a r g a i n i n g 和N e -go t i a t i o n 概念的发展;外部层面,将基于内部层面两术语概念发展研究结果进一步分析B a r g a i n i n g 和N e go t i -a t i o n 的语义关系㊂1.3 国际关系领域术语B a r g a i n i n g 和N e go t i a t i o n 相关研究综述据‘牛津英语词典“(O x f o r dE n g l i s hD i c t i o n a r y ,简称O E D ),名词B a r g a i n i n g 最早出现于1401年㊂通过检索O E DO n l i n e (2020),B a r g a i n i n g 作为名词有三个定义:(1)T r a f f i c k i n g ,t r a d i n g ,b u y i n g a n d s e l l i n g .(2)D i s c u s s i o no f t h e t e r m so f a p u r c h a s eo r c o n -t r a c t .(3)W r a n g l i n g ,c o n t e s t ,s t r u g g l e ,f i g h t i n g .O E D O n l i n e (2020)中关于N e g o t i a t i o n 没有注明最早出现的日期,但可以发现,N e g o t i a t i o n 一词起源于15世纪末期,指的是与另一个人打交道的行为㊂字典中给出定义:(1)Ad i s c u s s i o no r p r o c e s s o f t r e a t y wi t ha n o t h e r (o ro t h e r s )a i m e da tr e a c h i n g a na gr e e m e n ta b o u ta p a r t i c u l a r i s s u e ,p r o b l e m e t c .(2)T h ea c t i o n ,a c t i v i t y ,o r p r o c e s so fn e g o t i a t i n g w i t h a n o t h e r o r o t h e r s .(3)T h e a c t i o n o f c r o s s i n g o r g e t t i n go v e r ,r o u n d o r t h r o u g h s o m e o b s t a c l e b y s k i l f u l m a n o e u v r i n g .2017年,W h a l e n 认为O E D 给出N e g o t i a t i o n 的第一个定义是不完整的,因为N e g o t i a t i o n 在实际语境下为了达到某种目的可以采取合作到对峙的各种手段㊂国内外对B a r g a i n i n g 和N e go t i a t i o n 的研究主要集中在权力和文化对谈判者行为㊁风格和技巧的影响㊂这两个词在国际关系语篇中的术语层面研究始于20世纪60年代㊂S c h e l l i n g 在1960年发表的T h e S t r a t e -g y o f C o n f l i c t 是关于B a r g a i n i n g 研究的经典著作㊂作者主要通过实例来论证B a r g a i n i n g 与信用(c r e d i b i l i t y )之间的关系㊂I k l é在1964年发表的H o w N a t i o n sN e -g o t i a t e 是关于N e go t i a t i o n 的经典著作㊂I k l é提供了一个分析N e g o t i a t i o n 的框架,他主要关注N e g o t i a t i o n 的过程如何影响结果㊂至此,大量研究都对B a r g a i n i n g和N e go t i a t i o n 的概念进行探讨,以期在不断改进的过程中更好的理解两个术语㊂2002年,J ön s s o n 以全新的视角对这两个术语进行了比较㊂一方面,B a r g a i n i n g 可以被看作是一个更广泛的概念,包括言语交流和非言语交流㊁正式的和非正式交流㊂N e g o t i a t i o n 是指一个依赖于言语交流的形式化过程,因此N e g o t i a t i o n 是B a r g a i n i n g 的一个子类㊂另一方面,B a r g a i n i n g 可以理解为交换报价和还价㊁让步和撤销;这种集市式的讨价还价与联合解决问题形成鲜明的对比㊂从这一角度理解,B a r g a i n i n g 成为N e g o t i a t i o n 的一个子类㊂因此B a r g a i n i n g 和N e go t i a -t i o n 可以是部分/整体关系,但没有固定的说法阐释两者谁是部分或整体㊂本文试图用数字话语分析的研究方法从语言学的研究视角探索B a r g a i n i n g 和N e go t i a -t i o n 在国际关系语篇中的概念发展与语义关系㊂2 研究方法2.1 研究问题本研究是一个跨学科㊁纵向的语篇分析研究,涉及国际关系中术语的使用与比较㊂笔者使用定量与定性相结合的方法,旨在解决:(1)B a r g a i n i n g 和N e g o t i a t i o n 的概念从1974到1983年在国际关系语篇中是如何发展的(2)B a r g a i n i n g 与N e go t i a t i o n 在国际关系语篇中是何种语义关系?2.2 研究步骤本研究基于语境化洋葱皮模型对特定语料库检索出的数字话语进行分析㊂为了解决研究问题一首先基于C Q P w e b 对收集的语料中B a r g a i n i n g 和N e g o t i a t i o n 在不同语境下的相关概念进行识别,归类与统计㊂针对问题二次研究将重点检索出两者同时出现的句子进行分析,为了进一步探讨两个术语在国际关系语篇中的语义关系㊂2.3 研究方法与工具本研究采用C Q P w e b 搭建的达姆施塔特国际关系语料库(D I R e C )㊂C Q P w e b 是基于网络的第四代语料库分析工具,使具有计算机基础知识的研究人员能够像浏览网页一样方便地使用语料库㊂它几乎兼容了主流语料库工具(如A n t C o n c ㊁W o r d S m i t h ㊁MM a x 2等)的所有功能,如词表生成㊁索引㊁搭配㊁关键词分析等,并能根据预设的体裁㊁言语行为者性别和语言水平分别进行检索并呈现结果㊂C Q P w e b 具有强大且高级的检索功能,毋庸置疑是网络时代语料库研究的一个有力工具㊂2.4 数据收集本研究基于达姆施塔特国际关系语料库(D I R e C )现代商贸工业2021年第20期23探讨术语的具体变化㊂它涵盖1974年至2000年在国际关系领域三个主要期刊(‘国际组织“‘世界政治“和‘国际安全“)发表的所有文章,共2763篇㊂这段时期是术语研究的一个巩固期,是20世纪80年代初术语研究的热点阶段㊂当前研究主要分析‘国际期刊“(2018年在社会科学引文索引的国际关系类别中排名第一)1974-1983年发表的文章㊂所有的统计计算在C Q P w e b @d i s c r e s -s e l a b 完成㊂首先,在当前语料库B a r g a i n i n g 已被提前检测没有复数形式或任何其他后缀㊂因此B a r g a i n i n g 应作为一个词(w o r d )来研究,而N e g o t i a t i o n 应作为一个词元(l e m m a )来研究㊂语料检索分别使用两个查询条件[w o r d = b a r g a i n i n g %c &p o s = N .+ ]和[l e m -m a = n e g o t i a t i o n %c &p o s = N .+ ],如果这两个词都作为词元进行查询则没有检索结果㊂结果显示,在这十年研究期间共检索到449篇文章包含B a r g a i n i n g,约870万字;571篇文章包含N e go t i a t i o n ,约870万字㊂3 研究结果3.1 语境化洋葱层模型内部层面为了考察B a r g a i n i n g 和N e go t i a t i o n 的概念发展,本研究根据语境化洋葱层模型的内语境层,对包含两词频率最高的文章进行全面的分析㊂3.1.1 B a r g a i n i n g 概念发展过程笔者从语境化内部层面分析了构式(即主题)㊁共文本㊁语境和社会角色㊂(1)情景语境和社会角色㊂1974-1983年B a r -g a i n i n g 的研究文本主要集中讨论在20世纪60年代至80年代的案例,研究者用B a r g a i n i n g 来表示谈判的过程或方式,其中涉及的经济问题包括:在东南亚的日本跨国公司㊁第三世界区域一体化㊁拉美贸易谈判;政治问题包括:欧洲安全与合作会议谈判;经济及政治问题包括:外国直接投资㊁第三世界采掘业的政权更迭㊁跨国公司与发展中国家之间的技术转让;军事问题包括:海床谈判㊁核武器㊂B a r g a i n i n g 参与者的主要社会角色或群体是国家㊁政府(党派)或企业㊂(2)上下文㊂B a r g a i n i n g 第一个明确的定义出现在1978年的一篇文章‘A s y m m e t r i c a l b a r g a i n i n g i nt h e -c o n f e r e n c e o n s e c u r i t y a n d c o o p e r a t i o n i nE u r o p e “:b a r -g a i n i n g i so f t e nc a s u a l l y c o n c e p t u a l i z e da s a p h e n o m e -n o n i n v o l v i n g r o u g h l y s ym m e t r i c a l a c t i v i t i e so nt h e p a r t o f t w o o rm o r e p u r p o s i v e a c t o r s .这个定义明确了B a r -g a i n i n g 应是一种现象,并提出它的构成要素包括活动和参与者㊂然而,定义中部分解释性术语对于B a r ga i n -i n g 的具体说明相当模糊,如:s y m m e t r i c a l a c t i v i t i e s ㊂但从这个定义可以推断出B a r g a i n i n g 涉及至少两个参与者才能达成协议㊂检索发现B a r g a i n i n g 一词单独定义不多,因此本文对其短语的概念进行了探讨㊂在这十年的文章中人工检索出b a r g a i n i n g s t r a t e g y ㊁i n t e gr a -t i v e /d i s t r i b u t i v e b a r g a i n i n g ㊁b a r g a i n i n gp r o c e s s 等相关概念㊂其中,1983年检索出的b a r g a i n i n gp r o c e s s 的概念与J ön s s o n 的观点基本一致,B a r g a i n i n g 是以言语和非言语形式交互进行的一项活动:T h o m a sS c h e l l i n g h a s c o n s t r u e d b a r g a i n i n g pr o c e s s e s a s v e r b a l a n d n o n v e -r b a l i n t e r c h a n g e s i ns i t u a t i o n sw h e r e t h ea b i l i t y o f o n e a c t o r t o g a i n h i s e n d s d e p e n d s t o a n i m p o r t a n t d e gr e e o n t h e c h o i c e s o r d e c i s i o n s t h a t t h e o t h e r a c t o rw i l l m a k e .3.1.2 N e go t i a t i o n 的概念发展过程在‘国际组织“这十年研究时期内,笔者主要讨论二战后期至20世纪70年代的问题㊂(1)情景语境和社会角色㊂研究发现N e go t i a t i o n 也经常用于经济背景下议题,如重组联合国系统㊁关贸总协定贸易壁垒制度㊁国际经济制度;政治背景:欧洲安全与合作会议谈判㊁苏日三文鱼捕捞谈判;经济和政治背景:委内瑞拉决定加入安第斯共同市场;军事背景:海床谈判,联合国大会海底委员会谈判,以色列研究所谈判㊂N e g o t i a t i o n 参与者的社会角色(群体)是国家或政府(政党)㊂(2)上下文㊂N e go t i a t i o n 第一个定义出现在1979年的文章‘N e g o t i a t i o n a s q u a s i -b u d g e t i n g:t h e s a l m o n c a t c hn e g o t i a t i o n sb e t w e e n t w ow o r l d f i s h e r yp o w e r s “:W ew i l l p r o p o s e t h a t t h en e g o t i a t i o n s c a nb e p r o p e r l yc o n c e p t u a l i z ed a sat y pe of q u a s i -b u dg e t i n g i n whi c h t w oa c t o r s p l a y t h er o l e so fa q u a s i -r e qu e s t e ra n d a q u a s i -a p p r o p r i a t o r r e s p e c t i v e l y.这个定义可推断出N e g o t i a t i o n 也至少包含两个参与者来达成协议㊂检索结果发现N e g o t i a t i o n 一词单独定义也很少,同样需要从n e g o t i a t i o n s e t 和m u l t i -i s s u e n e g o t i a t i o n 等相关短语中推断出它的概念㊂1983年的一篇文章‘N e g o t i a -t i o na r i t h m e t i c :a d d i n g a n ds u b t r a c t i n g i s s u e s a n d p a r -t i e s “指出影响N e g o t i a t i o n 的消极因素m e n a c e s :M e n -a c e s a l w a y s d o h a r m t o n e g o t i a t i o n ,a n d t h e y f r e q u e n t l y p u s h o n e p a r t y t o e x t r e m i t i e s t ow h i c h t h e y wo u l dn o t h a v e r e s o r t e dw i t h o u t p r o v o c a t i o n .这里M e n a c e s 符合W h a l e n 的观点,认为N e g o t i a t i o n 可以达成合作,也会为达到某种目的造成破裂的局面,验证了‘牛津英语词典“中给出N e g o t i a t i o n 的第一条定义不够完整,在实际情景下应包括积极和消极两种结果㊂文本现阶段试图完善此定义为:Ad i s c u s s i o no r p r o c e s s o f t r e a t y wi t h国际商贸现代商贸工业2021年第20期24a n o t h e r (o r o t h e r s )a i m e d a t r e a c h i n g a n a gr e e m e n t o r c a u s i n g ad i s a g r e e m e n t i nb a d f a i t ha b o u t a p a r t i c u l a r i s s u e ,pr o b l e m ,e t c .3.2 B a r g a i n i n g 和N e go t i a t i o n 的语义关系为了讨论B a r g a i n i n g 和N e go t i a t i o n 的语义关系,同时为了区分两者出现在同一个句子中概念的差别,本文将查询条件设为B a r g a i n i n g 和N e g o t i a t i o n 词距不超过十个词[w o r d ="b a r g a i n i n g"%c ][]{1,10}[l e m m a ="n e g o t i a t i o n "])|([l e m m a ="n e go t i a t i o n "][]{1,10}[w o r d ="b a r g a i n i n g "%c ],最大程度上检索出两词出现在同一个句子中的语料㊂根据语义场理论,词汇语义关系可分为同义关系㊁上下义关系㊁整体与部分关系㊁反义关系等㊂通过前面研究的定义,学者的观点表明在国际关系语篇中B a r g a i n i n g 和N e g o t i a t i o n 是不能直接同义替换的,不是类属关系,更不是反义关系,而是语义上的内包关系,即整体与部分关系㊂本文在判断语义关系的同时做一个小型的文本标注,包括三个标记符:B -N (B a r g a i n i n g 是N e g o t i a t i o n 的子类),N-B (N e g o t i a t i o n 是B a r g a i n i n g 的子类),N C (两者语义关系基于当前语境无法判断)㊂预处理后留下57条匹配语料,其中55条为B -N ,而剩余两条当前无法判断㊂55条标注为B -N 的语料中大都含有一个明显的词可推断B a r g a i n i n g 和N e g o t i a t i o n 的语义关系:介词如i n ,t h r o u g h ,w i t h i n 等;动词如i n v o l v e ;形容词如a p pl i c a -b l e ,p r o c e d u r a l ;名词如a p p r o a c h ,pr o c e s s ,f r o n t i e r 等㊂4 结论本研究利用 语境化洋葱皮模型 探索B a r g a i n i n g和N e g o t i a t i o n 的概念发展㊂研究发现,在1974-1983这十年研究期间中B a r g a i n i n g 和N e g o t i a t i o n 的概念都与字典中给出的定义或之前学者提出的观点基本相一致㊂验证‘牛津英语词典“中的定义可以概括性地解释这两个术语,但N e g o t i a t i o n 的定义不够完整,无法完整定义它在实际语境下的含义,本文试图对其定义进行了补充㊂之后研究有必要对这两个术语进行更全面地界定㊂此外,55条标注为B-N 的语料可以推断出B a r g a i n i n g 在国际关系语篇中更倾向于成为N e go t i a -t i o n 的一个子类,即,在语义场中它更偏向属于N e g o t i -a t i o n 整体的一部分㊂本研究选取的分析语料具有一定的局限性,之后研究将继续使用C Q P W e b 对1984-2000年的检索结果进行分析,通过纵向分析探讨两者的差异和概念发展㊂并继续使用当前查询条件收集两个词出现在同一句话中的语料,以检验本文研究结果㊂基于分析结果,以期重新构建了一个适用于本研究课题的语境化洋葱层模型㊂参考文献[1]刘丰,张睿壮.关于几个重要国际关系术语中文译法的讨论[J ].学术争鸣,2004,(10):69-73.[2]J o h a n n e sA .,M a r t i nN .D i s k u r s f o r s c h u n g :E i n i n t e r d i s z i p l i n ?r e s H a n d b u c h ,D i s k u r s N e t z ,B i e l e f e l d :t r a n s c r i p t ,2014.[3]李思静,翁克山.移动C M C 中的数字话语字系特征研究中的数字话语字系特征研究[J ].海南大学学报人文社会科学版,2020,(4):129-135.[4]J e n s S .,M ül l e rM.,B e h rH.,T e r m i n o l o g i c a l E n t r e pr e n e u r s a n d D i s c u r s i v e S h i f t s i n I n t e r n a t i o n a l R e l a t i o n s :H o waD i s c i pl i n e I n -v e n t e d t h eI n t e r n a t i o n a lR e g i m e [J ].I n t e r n a t i o n a lS t u d i e sR e -v i e w ,2020,(1).[5]M ül l e r M.,V o ge lF .V o m W o r t z u rG e s e l l s c h af t :K o n t e x t e i n K o r p o r a .E i nB e i t r ag z u r M e th o d o l o gi ed e rK o r p u s p r a gm a t i k .I n :E k k e h a r d F e l d e r :K o r p u s p r a g m a t i k [J ].T h e m a t i s c h eK o r p o r a a l s B a s i s d i s k u r s l i n g u i s t i s c h e rA n a l ys e n ,2012:50.[6]N o r t hR .C .,M a t t h e w W.T h ec o n v e r g e n c ee f f e c t :c h a l l e n ge t o p a r s i m o n y [J ].I n t e r n a t i o n a l O r ga n i z a t i o n ,V o l .2,1983:339-358.[7]I n o g u c h i T .,N ob u h a r u M.N e g o t i a t i o na s q u a s i -b u d g e t i n g :t h e s a l m o nc a t c h n e g o t i a t i o n s b e t w e e n t w ow o r ld f i s he r y po w e r s [J ].I n t e r n a t i o n a l O r ga n i z a t i o n ,V o l .2,1979:229-256.[8]郑华.话语分析与国际谈判研究 以基辛格秘密访华谈判为例[J ].同济大学学报(社会科学版),2009,(2):101-107.[9]F e a r o n J .D .,B a r g a i n i n g ,E n f o r c e m e n t ,a n d I n t e r n a t i o n a l C o o p -e r a t i o n [J ].I n t e r n a t i o n a l O r g a n i z a t i o n ,V o l .2,1998:269-305.[10]Z a r t m a n I .,W i l l i a m ,M a u r e e nR .B .,T h e p r a c t i c a l n e g o t i a t o r [M ].N e w H a v e n :Y a l eU n i v e r s i t y Pr e s s ,1982.[11]P e t e r v dW.B a r g a i n i n g i n I n t e r n a t i o n a l R e l a t i o n s :E n c y c l o pe d i a of P o w e r .E n c y c l o p e d i a o f p o w e r .E d .b y K e i t hM.D o w d i ng .A S a ger e f e r e n c e p u b l i c a t i o n [M ].T h o u s a n d O a k s ,C a l i f .:N e w Y o r k :S A G EP u b l i c a t i o n s ,2011.[12]J ön s s o nC .,C a r l s n a e sW.,R i s s e ,T .&S i m m o n s ,B .A .H a n d -b o o ko f I n t e r n a t i o n a lR e l a t i o n s [M ].1O l i v e r sY a r d ,55C i t y R o a d ,L o n d o nE C 1Y1S P U n i t e d K i n gd o m :S A G E P u b l i c a t i o n s L t d ,2002.[13]H a r d i eA .C Q P w e b -c o m b i n i n gp o w e r ,f l e x i b i l i t y a n du s a b i l i t yi n a c o r p u s a n a l y s i s t o o l [J ].I n t e r n a t i o n a l J o u r n a l o f C o r pu s L i n -gu i s t i c s ,V o l .3,2012:380-409.[14]许家金,吴良平.基于网络的第四代语料库分析工具C Q P w e b 及应用实例[J ].外语电化教学,2014,(5):10-15+56.[15]T i c k n e r .T h eD i s c i p l i n i n g o f I n t e r n a t i o n a lS t u d i e s [J ].I n t e r n a -t i o n a l S t u d i e sR e v i e w ,V o l .2,2019:193-196.[16]D i s c o u r s eL a b 是数字话语分析领域的合作研究平台[E B /O L ].h t t p ://130.83.47.167/c q pw e b /.[17]H o p m a n nP .T .A s y m m e t r i c a l b a r g a i n i n g i nt h ec o n f e r e n c eo n s e c u r i t y a n dc o o p e r a t i o ni nE u r o p e [J ].I n t e r n a t i o n a lO r ga n i z a -t i o n ,V o l .1,1978:141-177.。

一种基于方向特征的孟加拉手写体数字识别方法

一种基于方向特征的孟加拉手写体数字识别方法

一种基于方向特征的孟加拉手写体数字识别方法
吕淑静
【期刊名称】《图象识别与自动化》
【年(卷),期】2005(000)002
【摘要】本文根据孟加拉数字的特点,用Kirsch算子提取字符图像象素的水平、垂直、右对角线和左对角线特征矢量,采用BP神经网络作分类器进行识别。

实验结果显示,对于孟加拉手写体数字具有较高的识别率和较快的识别速度,并对其它手写体数字也有很强的应用性。

【总页数】4页(P39-42)
【作者】吕淑静
【作者单位】国家邮政局上海研究院
【正文语种】中文
【中图分类】TP391.4
【相关文献】
1.一种新的基于Grassmann流形度量的手写体数字识别方法 [J], 王卫华;王长杰;张伟
2.基于多分类器组合的一种手写体数字识别方法 [J], 李晓梅;马树元;吴平东;陈之龙;柳回春
3.基于混合特征的孟加拉手写体数字识别 [J], 刘春丽;吕淑静
4.一种基于证据理论的手写体数字字符识别方法 [J], 王瑜
5.一种基于骨架特征顺序编码的脱机手写体数字识别方法 [J], 朱江;宣国荣
因版权原因,仅展示原文概要,查看原文内容请购买。

基于中文维基百科的词语相关度计算

基于中文维基百科的词语相关度计算

基于中文维基百科的词语相关度计算
谌志群;高飞;曾智军
【期刊名称】《情报学报》
【年(卷),期】2012(031)012
【摘要】词语相关度的计算是自然语言处理关键技术之一,在信息检索、机器翻译、词义消歧、句法分析等领域有广泛应用.国内现有大部分词语相关度计算方法是基
于知网(HowNet)的.本文将中文维基百科作为语义资源,利用其分类层次、概念文
档之间的链接来计算汉语词语之间的相关度.在借鉴向量空间模型和谷歌相似度(Google Similarity Distance)计算方法基础上,通过构建分类图和相关语义向量来
实现汉语词语相关度的计算.在测试集WordSimilarity-353上进行了实验,实验结
果的斯皮尔曼等级相关系数显示,本文的方法是可行和有效的.
【总页数】6页(P1265-1270)
【作者】谌志群;高飞;曾智军
【作者单位】杭州电子科技大学计算机应用技术研究所,杭州310018;杭州电子科
技大学计算机应用技术研究所,杭州310018;杭州电子科技大学计算机应用技术研
究所,杭州310018
【正文语种】中文
【相关文献】
1.一种基于维基百科的中文词语相关度学习算法 [J], 黄岚;杜友福
2.基于中文维基百科的词语语义相关度计算 [J], 万富强;吴云芳
3.中文维基百科的结构化信息抽取及词语相关度计算方法 [J], 涂新辉;张红春;周琨
峰;何婷婷
4.基于维基百科链接特征的词语语义相似度计算 [J], 张波
5.维基百科的中文语义相关词获取及相关度分析计算 [J], 李赟;黄开妍;任福继;钟义信
因版权原因,仅展示原文概要,查看原文内容请购买。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

I.J. Image, Graphics and Signal Processing, 2015, 10, 19-27Published Online September 2015 in MECS (/)DOI: 10.5815/ijigsp.2015.10.03Acoustic Modeling of Bangla Words using DeepBelief NetworkMahtab Ahmed, Pintu Chandra Shill, Kaidul Islam and M. A. H. AkhandDept. of Computer Science and Engineering Khulna University of Engineering & Technology (KUET), Khulna-9203,BangladeshAbstract—Recently, speech recognition (SR) has drawn a great attraction to the research community due to its importance in human-computer interaction bearing scopes in many important tasks. In a SR system, acoustic modelling (AM) is crucial one which contains statistical representation of every distinct sound that makes up the word. A number of prominent SR methods are available for English and Russian languages with Deep Belief Network (DBN) and other techniques with respect to other major languages such as Bangla. This paper investigates acoustic modeling of Bangla words using DBN combined with HMM for Bangla SR. In this study, Mel Frequency Cepstral Coefficients (MFCCs) is used to accurately represent the shape of the vocal tract that manifests itself in the envelope of the short time power spectrum. Then DBN is trained with these feature vectors to calculate each of the phoneme states. Later on enhanced gradient is used to slightly adjust the model parameters to make it more accurate. In addition, performance on training RBMs improved by using adaptive learning, weight decay and momentum factor. Total 840 utterances (20 utterances for each of 42 speakers) of the words are used in this study. The proposed method is shown satisfactory recognition accuracy and outperformed other prominent existing methods.Index Terms—Speech Recognition, Hidden Markov Model, Gaussian Mixture Model, Deep Belief Network, Restricted Boltzmann Machine.I.I NTRODUCTIONRecently, speech recognition (SR) has drawn a great attraction to the research community due to its importance in human-computer interaction bearing scopes in many important tasks [1-2]. In general, SR is a system to transform naturally spoken words and phrases into machine-executable format. The basic units of a SR system are acoustic modelling (AM), language model and lexicon [3]. Among them, AM is crucial one which contains statistical representation of every distinct sound that makes up the word. Language model helps the SR system to figure out likelihood of word sequences independent of the acoustics; whereas, lexicon describes how words should be pronounced for SR.A number of studies available from early 1990 to date for AM. Most of the SR systems use Hidden Markov Models (HMMs) [4-6] to deal with variability of the speech and Gaussian Mixture Model(GMM) [7-8] to determine how well the window of frames fit to each of the HMM state [9]. These methods are popular as they are easy to train theoretically, simpler and easy to decode. Later on Expectation Maximization (EM) algorithm [10-11] introduced in SR systems for training HMMs. EM algorithm makes possible the SR process along with GMMs and also allows mapping acoustic input with the HMM state. But GMMs have several shortcomings. Firstly, GMM cannot model data that lie on the nonlinear state space, i.e., located close to the surface of a sphere. Secondly, they require a large number of diagonal Gaussians or full covariance Gaussians. With other shortcomings, GMMs are unable to acquire noticeable accuracy for complex structure of data due to their limited number of parameters and they model the state transition probability of HMMs quite roughly.Artificial neural network (ANN) based methods are found as a good replacement of GMMs in SR system development [12]. H. Bourlard et al. [13] proposed a hybrid model, combination of HMMs and ANN for SR. In their model, they trained the ANN by back propagation algorithm to adjust the model parameters and model the data points that lie in the nonlinear space more accurately. In recent years, a number of prominent SR methods have been developed using Deep Belief Network (DBN) [13-15]. DBN is a special type of ANN that contains many layers of non-linear hidden units (i.e., restricted Boltzmann machines) and a very large output layer. This large output layer is beneficial to accommodate large number of HMM states where each phone is modelled by different HMMs. A. R. Mohamed et al.[16] proposed an acoustic model using DBN for English SR on the Texas Instrumentsl Massachusetts Institute of Technology (TIMIT) database using monophone HMMs. The entire model has been learned with fixed or tied weights whereas each layer of RBMs has been learned by different weights. The authors show the effect of learning with different size of hidden layers and its subsequent contribution to the Phone Error Rate (PER). M. Zulkarneev et al. [17] proposed Russian SR using DBN in conjunction with HMM. Their recognition process consists of two stages. In the first stage DBN is used to calculate phoneme state probability and in the second stage Viterbi decoder is used to generate required sequence of words.SR complexity varies among different languages due to different tones, accent and pronunciation. A number of prominent works, including the above discussed methods, are available for English and Russian with respect to other major languages such as Bangla. Bangla is one of the most largely spoken languages, ranked fifth in the world. It is the first language of Bangladesh and second most popular language in Indian subcontinent. However, the field of research in Bangla SR is at its early level. With almost 220 million Bangla speakers all over the world, there can be a lot of applications of SR.A very few notable works are available for Bangla SR. M. A. Ali et al. [18] proposed four models for recognizing 100 Bangla words. They performed some pre-analysis on the speech signal such as applying high pass filter to discard the noise, Hamming window to integrate the closest frequency lines and FFT to decompress the signal into its constitute frequencies. G. Muhammad et al.[19] developed a SR system that recognizes Bangla digits using Mel Frequency Cepstral Coefficients (MFCC) and HMM based classifier. Their Bangla digit speech corpus comprises of native speakers but their system ends up in a confusion for few Bangla digits. M. A. Hossain et al. [20] presented Bangla SR system with ANN which is trained by back-propagation. In the system, extracted speech features using MFCC used to train ANN.This paper proposes acoustic modeling of Bangla words using DBN combined with HMM for Bangla SR. MFCCs is used to accurately represent the shape of the vocal tract that manifests itself in the envelope of the short time power spectrum. Then DBN is trained with these feature vectors to calculate each of the phoneme states. After that Viterbi decoder is used to determine the resulting hidden state sequence that generates the word. The training of DBN is performed in two steps. In the first step, generative pre-training is used to train the network layer by layer with the output of one layer goes as the input of another layer. In the second step, enhanced gradient is used to slightly adjust the model parameters to make it more accurate. In addition, performance on training RBMs improved by adaptive learning, weight decay and momentum factor [21-22].The rest of the paper is organized as follows. In Section II, we describe our proposed method to develop acoustic modeling for Bangla SR in detail. This section contains training the network and then fine tuning it to adjust the parameters. Section III is for experimental studies which contains simulation results of the proposed method and comparison with the existing related methods. In this section, we also presents how adaptive learning, weight decay and momentum factor improves the performance of the proposed model. Section IV presents some concluding remarks and future directions.II.A COUSTIC M ODELING OF B ANGLA W ORDS USING D EEPB ELIEF N ETWORK (AMBW-DBN)This section explains proposed AMBW-DBN in detail which has two major steps: speech data preparation and acoustic modeling using DBN. The DBN is first trained with real speech data and then fine-tuned with the training algorithms for multi-layered feed forward network. Finally, it is interfaced with HMM to predict the correct speech. The entire procedure is depicted below.A. Speech Data Collection and PreprocessingThe speech data have been collected from a relatively large number of native Bangla speakers. Speakers are asked to pronounce Bangla numerals ―০()‖to ―৯( য়)‖. Such utterances have been used for fair comparison with the related works [20] although any Bangla utterances can be used to model the system. Forty-two speakers have been selected to cover the complete diversity i.e. age group, gender, literacy, area and language in which they generally speak. Each speaker has been asked to speak 10 words with 2 utterance of every word. Total 840 utterances (20 utterances for each speaker) of the words have been recorded. Speakers are asked to pronounce a word with about two seconds duration within a six seconds window period. Sampling frequency of 8192Hz has been used for this purpose. Table 1 shows the words with their Bengali and English pronunciation. The isolated words were recorded using two different microphones in front of computer.Table 1. Bangla Numerals and Their Phonetic Pronunciation.Preprocessing eliminates the noise from the raw speech and converts the speech within actual boundary [23]. For the preprocessing purpose boundary detection algorithm [24] has been applied on the raw speech. The algorithm eliminated below 3db signal as considering noise. It also filtered raw speech into original spoken period within 2000ms. Fig. 1(a) shows the actual speech as it were recorded and Fig. 1(b) shows the processed speech by applying boundary detection algorithm on the recorded speech which is mainly used to model the system.(a) Raw Speech(b) Processed Speech Fig.1. Sample Plot of Speech Signal.B. Acoustic Modeling (AM)This section explains training of DBN with speech features which is collected from MFCC of the speech signal. After training, each of DBN’s RBM is fine-tuned to give better predictive performance. Finally, DBN has been interfaced with HMMs.B.1. Training of Deep Belief Network (DBN)DBN is a stack of restricted Boltzmann machines (RBMs) which is trained by layer-wise generative pre-training which is efficient as it allows discriminative fine tune to reduce over-fitting and to make rapid progress [25]. In generative pre-training, feature detectors of DBN are trained layer by layer and the output of one layer goes as the input of the next layer. Fig. 2 shows the example of training structure of DBN with three layers and an enlarged view of a RBM.Enlarged view of a RBMFig.2. Training Structure of DBN with Three Layers of RBM with an Enlarged View of A RBM.In this study, a seven layers of RBMs are considered for DBN and an efficient two stage training procedure is used. It starts by training RBMs containing stochastic binary visible units that represent the binary input data and connected to stochastic binary hidden units which represent the dependencies between the visible. Then the data inferred at the top RBM is goes as the input of the next RBM. This process is repeated until the seventh layer. Then the stack of RBMs is converted to a generative model where generated top-down directed connections are replaced by the lower level undirected connections.RBM is an energy based model that has a structure similar to the bipartite graph, which means there is no direct connection between hidden-hidden and visible-visible units. It has visible units, which are represented by and hidden units are represented by, that can be inferred by the visible units and weight matrix. The smallest units of RBMs are stochastic binary units whose states are defined by Eq. (1).()( ) (1) where Z is the partition function and works as a normalization factor. Z can be represented as∑∑ ( ) (2) As RBM is an energy based model, the joint distribution of visible and hidden units has energy of the following form.()∑∑∑ (3) It is worth mentionable that negative energy is good. Inthe above is the index of visible unit and is the index of hidden unit. is the binary state of the visible unit and is the binary state of the hidden units. is weight connecting them. is the visible unit bias and is the hidden unit bias.The derivative of the log probability of a training set with respect to a weight is surprisingly simple.( ) (4) The derivation of the above equation gives a simple learning rule for the weight adjustments.( ) (5) Where is Storage term in network andis forget term to get rid of spurious minima and is the learning rate. The absence of any direct connections between visible and hidden units makes it useful to infer any unbiased sample . The probability of binary state equal to 1 given any visible state is given by( | ) ( ∑) (6) Similarly the absence of direct connections also helps to infer the visible vector given the hidden one.(| ) ( ∑) (7) However, getting the unbiased sample ofis very difficult. For this all the visible and hidden units have to be inferred at once that means above two equations must be evaluated for all the visible and hidden units in the network. This procedure is called Alternative Gibbs sampling.Contrastive Divergence (CD) algorithm [26] gives a rough estimation of reconstructed binary units and offers an efficient training procedure implying increment of parameters. This starts by considering visible units as training vector. Then using Eq. (6) it computes hidden units which are in ON states given by the visible units. Then this hidden unit is used to calculate the visible units which are in ON states using Eq. (7). Thus the weight update rule is given by Eq. (8).( ) (8) It’s essential that reconstruction should not depend on input vector, hence procedure of generating and further reconstruction of is repeated several times.In this study, an adaptive learning rate has been considered to improve the traditional DBN as suggested in [22]. Usually learning rate ( ) of Eq. (8) is fixed. A set of learning rates are generated first and then the system is trained with one which gives minimum of energy and maximum likelihood. A batch wise operation was performed to select appropriate learning rate. Such batch-wise operation is important because it gives good indication about how well the data will fit on the next batch of training set or its performance on the current batch of data. At each step mini batch performs the computation of the gradient against more than one training examples [27]. This can perform significantly better than true stochastic gradient descent as it aggregates multiple examples at each iteration. It may also result in smoother convergence.The weight update is further accompanied by concatenating a weight decay factor that reduces the chance of over-fitting. It involves adding a penalty term to the coefficient in order to discourage the coefficients from reaching large values. This yields the following update rule[ ] (9) where is the weight decay factor.The weight update is further influenced by ―Momentum‖ which is useful as it smoothen the gradient. The idea consists of incorporating some influence of the past iterations in the present weight update.[() ] 0 << 1 (10)where is the momentum factor and are the gradient calculated in current and previous iterations. The factor determines the amount of influence, previous iteration has on the current one.As RBM is a binary stochastic unit and the feature vectors are in Gaussian form, we need a variant of RBM which can handle real valued data. GRBM is used to handle the real valued data by forming itself at the top layer of DBN [16]. RBM’s energy function can be modified to accommodate such variation, giving a Gaussian-Bernoulli RBM. Its energy function is of the following form.()∑()∑∑ (11) And the two conditional distributions required for CD algorithm are( | ) ( ∑) (12)(| ) ( ∑) (13) In the final stage, in order to calculate the posterior probability for interfacing with HMM, DBN is combined with DNN forming DBN-DNN [16]. DNN follows standard ANN architecture where the information in the layer( ) below goes through the hidden units in the layer( ) above.∑ (14)( ) (15)Apart from the elements with a Sigmoid function there is an output layer Softmax which operates as a transfer function, and produces probabilities that each of the HMM state should be in()∑(), (16) where is an index over all classes.B.2. Fine Tuning of RBMsAfter each of the RBM has been trained generatively, the next step is to adjust the model parameters slightly to achieve better predictive performance. An equivalent RBM can be obtained by flipping some bits and changing the weights and biases accordingly, but traditional learning rules are not invariant to such transformations. Without careful tuning of these training settings, traditional algorithms can easily get stuck or even diverge. In this letter, enhanced gradient is derived to be invariant to bit-flipping transformations. It yields more stable training of RBMs both when used with a fixed learning rate and an adaptive learning rate.Normally the gradient can be calculated by the difference between the bias under model and bias under data. For example in case of visible bias(17)The standard gradient has several potential problems. The gradients with respect to the weights contain the terms that point to the same direction as the gradient with respect to the bias terms and vice versa [11]. The standard gradient can be written as, (18) where and are hidden and visible bias gradients and is the average activity of neuron under the data and model distributions.B.3. Interfacing with HMMSoftmax layer is useful for providing the posterior probability, (|) In order to interface with HMM, it has to pass the likelihood, ( | ), as VD takes likelihood as its parameter. As it is known(19)This prior probability can be roughly estimated as the probability that each of the state will be in. Generally this can be estimated as for each of the state. As this term has no influence in the entire network it can be neglected and likelihood can be used as posterior. Finally, VD takes this probability and gives the most probable hidden state sequence that generates the observed output.C. Significance of our proposed modelThere are several significant differences among proposed AMBW-DBN and traditinal DBN based methods. A number of modification is introduced in RBM’s training. Firstly, the network is trained with adaptive learning rate, where the network automatically select a suitable learning rate among a set of generated learning rates and trained with it. Secondly, weight decay factor is used in order to avoid overfitting problem. Thirdly, a momentum factor is applied on the weight adjustment, which reduces reconstruction error. Finally, different parameters such as visible bias, hidden bias, weights etc. are adjusted using enhanced gradients.III.E XPERIMENTAL S TUDIESThis section first presents the experimental results with moderated analysis of the proposed AMBW-DBN and then outcome compares with the related exisiting methods. Performance is measured by varrying different parameters such as learning rate, no. of layers, no. of iterations, no. of speakers, momentum factor, gradients, and no.of HMM states. The accuracy is measured as the ratio of correct estimation to total estimation by VD.A. Experimental Results and AnalysisThe AMBW-DBN system is implemented in Matlab2009a. The experiments has been conducted on Asus desktop machine (CPU: Intel Core i5 @ 3.20 GHz and RAM: 4.00GB) in windows 7 environment.Fig.3. Reconstruction Error of Test Set Varying Number of Layers andHidden Units per Layer.At first, architecture of DBN is determined through experiments varying different number of layers and number of hidden units per layer. The number of layers varied from two to the maximum allowed number (i.e., seven). On the other hand, three different number of hidden units per layer which are 129, 258 and 387 are considered. The term reconstruction error (RE) influence performance of DBN and its minimum value indicates the appropriate architecture of a DBN. In general, RE is calculated by selecting the feature values through binomial distribution then sample the visible vector through sigmoid function. Later sum square error functionis used to calculate the deviation of the reconstructed data from the model data. In the experiment, 560 samples of 28 speakers are used for training and rest 280 samples of other 14 speakers are used for testing purpose. Fig. 3 shows the RE on test set for varying different architectures. Form the figure it is observed that five layers with 387 hidden units in each layer gives minimum RE. This architecture are used for further experiments. Fig.4. Effect Of HMM States on Accuracy for Different Batch Size (BS).Since number of HMM states is an element of accuracy, an experiment has been conducted to select appropriate number of the HMM states. Fig. 4 shows effect of HMM states on accuracy on both training and test sets for batchsize (BS) 100 and 200. Samples in training and test setswere same as architecture determination experiment. According to the figure, accuracy on both training and test sets improved significantly up to five HMM sates for any batch size. Therefore, five HMMs states are considered for further experiments of AMBW-DBN. On the otherhand, BS of 100 was considered like many existingstudies.and generalization in any learning system. Fig. 5 shows the effect of training iteration on accuracy for with and without Adaptive learning (AL). In case of without AL, the learning rate (LR) was fixed as of traditional methods and the value was fixed at 0.2. On the other hand, a set of LRs for each batch were generated based on the given fixed LR. For a particular batch, three LRs are generated from LR of the previous batch and training performed for this batch with the LR which gives minimum energy (Eq.(3)). For the first batch the three LRs are consideredadding and subtracting 0.01 with given fixed LR value 0.2. According to the Fig. 5, AL always outperformed fixed LR for both learning (i.e., training set accuracy) and generalization (i.e., test set accuracy). From the Fig. 5 it isalso observed that accuracy for all the cases improvedsignificantly from 50 to 100 iterations and becomes fixed after that. Therefore, in further experiments number of iteration was considered as 100 with AL. Finally, experiments conducted with AMBW-DBNconsidering five layers of RBMs, 387 units per layer and five HMM states trained for fixed 100 iteration with AL.The standard weight decay factor (i.e., the value of in Eq. (9)) value 0.02 was considered in weight update. On the other hand, the momentum factor (i.e., the value of in Eq. (10)) was considered as 0.9 on the basis of sometrial runs. Table 2 shows the generalization ability (i.e.,test set accuracy) of AMBW-DBN when tested in two-fold and three-fold cross validation (CV) way for fair comparison with other works. In the two-fold CV 420speech samples of 21 speakers (50% of the total samples)used for training and rest 420 samples of other speakersused for testing. The experiments were repeated two times interchanging training and test samples. On the other hand, in three-fold CV case the speech samples are divided into three parts and by turn one part, i.e., 280 samples of 14speakers, is used as test set and rest 560 samples of 28speakers was used as training set. According to the Table2, the average accuracy for two-fold is 93.95% and best is 94.21% (test samples for Speaker 1 - 21). Accordingly, the average accuracy for three-fold is 92.42% and best is 93.23% (test samples for Speaker 29-42).Table 2. Generalization Ability (I.E., Test Set Accuracy) of AMBW-DBN in Two and Three Folds Cross Validation Way. Table 3 shows the confusion matrix of test set having speech samples of speaker 29-42 in three-fold CV tounderstand which samples are misclassified as what. It is observed from the table that AMBW-DBN correctly identified all the test speech samples of ২(Dui) and ৩(Tin). On the other hand system performed badly for ৫(Pach). Among 280 samples, ৫(Pach) truly recognized in 276 cases and rest four cases it is recognized as ৭(Shat) and ৮(Aat). The reason behind such misclassification is thevariation of pronunciation of different speakers. To visualize the misclassification matter clearly, Table 4 presents frequency plot of few samples those are misclassified. Due to large variation in pronunciation among speakers such speech samples are difficult to correctly recognize even by human.Table 3. Confusion Matrix of Test Set Having Speech Samples of Speaker 29-42 in Three-Fold Cross Validation.Table 4. Speech Samples that Are Misclassified by AMBW-DBN withSimilar Speech Sample.(Pach ) আট (Aat )য় (Noy )ছয় (Choy )আট (Aat )(Shat )B. Experimental Results ComparisonThis section compares performance of the proposed AMBW-DBN with related methods. We have considered two recent studies of Bangla SR [18], [20] in performance comparison. Between the methods, Ref. [18] applied various signal processing techniques such as hammingwindow to integrate the closest frequency lines and FFT to decompress the signal into its constitute frequencies. On the other hand, Ref. [20] used MFCC to extract features and trained a NN with back propagation algorithm using these features. For better realization of the performance of the proposed method, we have implemented GMM-HMM [9], the widely used system for phoneme classification, and evaluated it with same speech samples of Bangla that we have collected.Table 5. Comparison of Recognition Performance of Proposed AMBW-DBN with some Contemporary Methods of Bangla SR.Table 5 compares the generalization ability (i.e., test set accuracy) among AMBW-DBN, GMM-HMM, and works of [18, 20]. The results of [18] and [20] are reported ones in the papers. Ref. [18] considered speech sample of 100 Bangla words but number of speakers and number of test samples used is not reported, therefore marked as ―-‖ in data description column of comparison table. Ref. [20] considered total 300 speech samples of 10 Bangla numerals from ten speakers. Their result was followed astwo-fold CV manner. The result of GMM-HMM also implemented in two-fold CV way with total 840 samples. On the other hand, the results of AMBW-DBN are collected from the Table 2. According to Table 5, our proposed AMBW-DBN outperformed other methods. GMM-HMM and [20] achieved 87.75% and 92.00%, respectively. Whereas, in two-fold case, the proposed method achieved recognition accuracy of 93.95%. Finally, the DBN based proposed AMBW-DBN revealed as an effective system for Bangla speech recognition.IV.C ONCLUSIONSThis paper proposes acoustic model for Bangla SR using DBN called AMBW-DBN which consists of multiple layers of feature detectors. Firstly, the system is trained by CD algorithm for multi-layered feed forward neural network. Then fine tuning fit the data to AMBW-DBN structure with some labelled information. In addition, accuracy is increased by applying adaptive learning rate, weight decay and momentum factor. Several experiments have been conducted with Bangla speech samples; and system’s performance are examined over various speaker subsets with different sex, age and dialect. Extensive analyses and results are presented to understand the effectiveness of the proposed method. The proposed AMBW-DBN outperformed other prominent methods when experimental results are compared with them.A potential future direction is also opened from this study. The present study might be extended to develop acoustic model for continuous Bangla SR using recurrent NNs (i.e., Hopfield network). The Hopfield network greatly increases the amount of detailed information about the past that can be carried forward to help in the interpretation of the future [28].A CKNOWLEDGMENTThe authors would like to show gratitude to Mikhail Zulkarneev (FSSI Research Institute Spezvuzautomatika, Rostov-on-Don, Russia) for his comments and sharing his pearls of wisdom during the course of this research.R EFERENCES[1]J. S. Devi et al., ―Speaker Emotion Recognition Based onSpeech Features and Classification Techniques,‖ International Journal of Computer Network and Information Security, vol. 6, no.7, pp. 61–67, 2014.[2]Saloni et al., ―Classification of High Blood PressurePersons vs Normal Blood Pressure Persons Using Voice Analysis,‖ International Journal of Image, Graphics and Signal Processing, vol. 6, no. 1, pp. 47–52, 2014.[3] C. H. Lee, ―Speech Recognition and Production byMachines,‖ International Encyclopedia of the Social & Behavioral Sciences (Second Edition), pp. 259–263, 2015.[4]T. L. Nwe, S. W. Foo, and L. C De Silva, ―Speechemotion recognition using hidden Markov models,‖ Speech Communication, vol. 41, no. 4, pp. 603–623, 2003.[5]N. Najkar, F. Razzazi, and H. Sameti, ―A novel approachto HMM-based speech recognition systems using particle swarm optimization,‖ Mathematical and ComputerModeling, vol. 52, no. 11–12, pp. 1910–1920, 2010.[6]X. Cui, M. Afify, Y. Gao, B. Zhou, ―Stereo hiddenMarkov modeling for noise robust speech recognition,‖Computer Speech & Language, vol. 27, no. 2, pp. 407–419, 2013.[7]Daniel Povey et al., ―The subspace Gaussian mixturemodel—A structured model for speech recognition,‖Computer Speech & Language, vol. 25, no. 2, pp. 404–439, 2011.[8]S. So, and K. K. Paliwal, ―Scalable distributed speechrecognition using Gaussian mixture model-based blockquantisation,‖ Speech Communication, vol. 48, no. 6, pp.746–758, 2006.[9]L. R. Rabiner, ―A tutorial on hidden Markov models andselected applications in speech recognition,‖ in Proc. ofthe IEEE Browse Journals & Magazines, vol. 77, no. 2, pp.257–287, 1989.[10]J. Baker et al., ―Developments and directions in speechrecognition and under-standing, part 1,‖ IEEE SignalProcessing Mag., vol. 26, no. 3, pp. 75–80, May 2009. [11]S. Furui, Digital Speech Processing, Synthesis, andRecognition, New York: Marcel Dekker, 2000.[12]H. Bourlard and N. Morgan, Connectionist SpeechRecognition: A Hybrid Approach, Norwell, MA: Kluwer,1993.[13] A. Mohamed, G. E. Dahl, and G. E. Hinton, ―Deep beliefnetworks for phone recognition,‖ in NIPS Workshop onDeep Learning for Speech Recognition and RelatedApplications, 2009.[14]S. Young, ―Large Vocabulary Continuous SpeechRecognition: A Review,‖ IEEE Signal ProcessingMagazine, vol. 13, no. 5, pp. 45–57, 1996.[15]G. E. Dahl, M. Ranzato, A. Mohamed, and G. E. Hinton,―Phone recognition with the mean-covariance restrictedBoltzmann machine,‖ in Advances in Neural InformationProcessing Systems23, J. Lafferty, C. K. I. Williams, J.Shawe-Taylor, R.S. Zemel, and A. Culotta, Eds., pp. 469–477. 2010.[16] A. R. Mohamed et al., ―Acoustic Modeling using DeepBelief Networks,‖ IEEE Trans. on Audio, Speech, andLanguage Processing, vol. 20, no. 1, pp. 14–22, 2012. [17]M. Zulkarneev et al., ―Acoustic Modeling with DeepBelief Networks for Russian Speech Recognition,‖Lecture Notes in Computer Science, vol. 8113, pp. 17–24,2013.[18]M. A. Ali, M. Hossain and M. N. Bhuiyan, ―AutomaticSpeec h Recognition Technique for Bangla Words,‖International Journal of Advanced Science andTechnology, vol. 50, pp. 52–60, 2013.[19]G. Mohammad, Y. A. Alotaibi, and M. N. Huda,―Automatic Speech Recognition Technique for BanglaDigits,‖ in Proc. of 2009 12th International Conference onComputer and Information Technology(ICCIT 2009),pp.379–383, 2009.[20]M. A. Hossain, M. M. Rahman, U. K. Prodhan and M.F.Khan, ―Implementation Of Back-Propagation NeuralNetwork For Isolated Bangla Speech Recognition,‖International Journal of Information Sciences andTechniques (IJIST), vol. 3, no. 4, pp. 1–9, 2013.[21] A. Fischer and C. Igel, ―Empirical analysis of thedivergence of Gibbs sampling based learning algorithmsfor restricted Boltzmann machines,‖ in Proc. of the20thInternational Conference on Artificial Neural Networks:Part III, pp. 208–217, 2010.[22]K. Cho, ―Improved Learning Algorithms for RestrictedBoltzmann Machines,‖ M.S. thesis, Dept. Deg. Prog. CSE,Aalto Univ., Alto, Espoo chp-4, 2011.。

相关文档
最新文档