基于数据属性描述的数据过滤方法_赵连军

合集下载

一种基于统计分析的自适应性动态过滤规则优化方法

一种基于统计分析的自适应性动态过滤规则优化方法
c a a t rs i a d h c r e t i h r c e it s n t e u r n le, a d a s l- a a t bl y, e h n e t e i wal y t m e f r n e b t l m y n p c t e y t m h c n n h s ef d p a it i n a c s h fr l e s s e p r o ma c , u as o a i e t h s s e t e s i ai i r t n ue a d n p c t e i w l i r to r l s e k. n l fl a i r l. n f e t h f e al l a in u Ia v d t o s r f t e
if e c i u c s iey e y mp ra t. hs ril r p s d h r s a c o a ef a a t e y a c i r to r l a e o s a i ia a ay i n l n e s c e sv l v r i o t n t i u s a tc p o o e t e e e r h f e s l d p i d n mi l a i - v f t n ue b s d n t t tc l n l s s s
目的 就是 限 制非 法 流量 ,以保护 内部子 网 。一 般情 况 下 ,
网络上 的数据 流总要 持续 一段 时 间,因此 ,若 能通过 对 防
者不能准确反应网络当 前流量信息、不能使当前网络流量 ■
使用比较频繁的规则调整到规则集的最前面,后者对当前 一
网络流 量 等信 息反应 比较 滞后 ,不 能及时 准确地 反应 网络

基于内容过滤的网络监控技术分析

基于内容过滤的网络监控技术分析
为需要过滤 的内容。
形式的信息 。 它的原理是 : 首先, 伪造 一个虚 拟服务器 , 截获信
息并 向发送者反馈信息发送 成功的提示 , 然后对信息进行 比对
分析, 把不合格 的信息过滤 掉 , 把 合格 的信息发送 到 目的地 以 4 图像 内容分析 的过滤技 术 所 谓 图像 内容分析 过 滤技 术是 指, 基于 图像所 显现 的色 达 到过 滤的效果 。 其次 是信息的比对和分析。随着互联 网的发 纹理、 形状以及 图像内容的空间关系等显 f 生特征作为索弓 h 展, 网络 中出现 了大量 良莠不齐 的内容, 这些 内容形式 多样 , 再 彩、 利用 图像 的这 些外观特征 的相似度和 匹配程度 进行 过滤 的技 加上汉语表达 博大精 深的特点, 使得要 判断监 测内容是否是要 过滤掉 的不 良信息非常困难 …。 而且, 网络信息数量庞大 , 这就 术。图像内容分析过滤 技术还被广泛地应用其他 图像特 征和 语 图像 内容分析 过滤 技 要就过滤技 术既能准确的识别 出要过滤的信息, 又能快速高效 义特 征的 图像 内容进行判 定。目前 为止 , 从丰富而复杂的 图像信息 地完成这个过程 。 识别不 良信息的方法 也是各种 过滤技术 的区 术的最主要研 究手段 就是机器学 习, 然而, 很 多时候计算 机无法从海量 的图 别所在 。目前 国内外的过滤 技术 主要有 四种 : 基于 因特 网内容 中找到规律性 的特 征, 分级平台过滤 ( P I C S ) 、 数据 库过 滤 、 关键 字过
控技术 就显得非常重要 , 这对 网络 的建设和发 展将 会产 生重大 情况下它 由匹配 算法模型来 决定。目前在实 际操作 中常用到的 理论模型有 向量空 间模 型和贝叶斯决策模 型。 向量 空间决策模 的影 响 。

基于机器学习的网络数据包分类与过滤技术

基于机器学习的网络数据包分类与过滤技术

基于机器学习的网络数据包分类与过滤技术网络数据包分类与过滤技术是网络安全领域中非常重要的研究方向之一,其目的是对网络传输中的数据包进行精确分类和过滤,以保障网络的安全和性能。

近年来,随着机器学习技术的发展和应用,基于机器学习的网络数据包分类与过滤技术逐渐受到研究者的关注。

传统的网络数据包分类与过滤技术主要依靠规则引擎、深度包检测(DPI)等方法来实现,然而这些方法在处理大规模的网络数据包时效率较低,而且对新型的网络攻击往往无法准确识别和过滤。

而基于机器学习的方法则能够通过自动学习和数据分析的方式,从大量的网络数据包中提取特征,并构建分类模型来实现准确的分类和过滤。

基于机器学习的网络数据包分类与过滤技术主要包括以下几个关键步骤:首先,数据采集和预处理。

在实际网络环境中,网络数据包通常以二进制的形式存在,并且数量庞大。

因此,需要采集并处理这些数据包,提取有用的特征信息。

对于数据包中的原始信息,可以使用卷积神经网络(CNN)等技术进行预处理和特征提取,以便后续分类和过滤。

其次,特征选择和降维。

从网络数据包中提取的特征可能包含大量冗余信息,对分类和过滤效果产生不利影响。

因此,需要使用特征选择和降维的方法,选择最相关和最具区分性的特征,以便更好地进行分类和过滤。

在特征选择和降维过程中,可以利用主成分分析(PCA)、互信息(MI)等经典的特征选择算法来实现。

然后,模型训练和优化。

选择合适的分类算法和模型结构,利用已标注的数据集进行训练和优化。

常用的分类算法包括支持向量机(SVM)、K近邻(KNN)、决策树等。

模型训练和优化的过程中,需要考虑特征选择和降维的结果,以及数据平衡和过拟合等问题。

最后,分类与过滤。

利用经过训练和优化的模型,对未标注的网络数据包进行分类和过滤。

通过模型对数据包进行预测,并根据分类结果进行相应的过滤操作,以保障网络的安全和性能。

基于机器学习的网络数据包分类与过滤技术具有以下几个优势:首先,适应性强。

一种融合用户偏好与信任度的增强协同过滤推荐方法

一种融合用户偏好与信任度的增强协同过滤推荐方法

一种融合用户偏好与信任度的增强协同过滤推荐方法范永全;杜亚军;成丽静;朱爱云【期刊名称】《西华大学学报(自然科学版)》【年(卷),期】2015(000)004【摘要】Collaborative filtering ( CF) is the most popular recommendation technique but still suffers from data sparisity and cold-start problems. Shambour proposed a trust-semantic fused ( TSF) hybrid recommender approach, which incorporated additional infor-mation from the users’ social trust network and the items’ semantic domain knowledge to alleviate these problems, but it involves large computation. In this paper we improved the user-based trust enhanced CF algorithm therein. By introducing a weighting combination parameter we merge the user trust weighted rating and the user preference weighted rating together to obtain the overall rating predic-tion. Simulation results under the Movielens datasets show the proposed method is superior to the baseline algorithms in terms of mean absolute error ( MAE) .%协同过滤是一种最流行的推荐技术,但仍然受到数据稀疏和冷启动问题的困扰。

一种基于内容过滤的科技文献推荐算法

一种基于内容过滤的科技文献推荐算法

一种基于内容过滤的科技文献推荐算法
这种基于内容过滤的科技文献推荐算法(CF)是智能信息获取系统中
常用的识别技术,其目的是提供有意义的、可用的、准确的信息推荐。

一、什么是基于内容过滤的科技文献推荐算法?
基于内容过滤的科技文献推荐算法(CF)是一种自动推荐研究文献的
技术,它的主要思想是根据文献的关键字和内容信息,比较主题的相
似性,对文献进行内容和领域分类,为用户提供具有个性化特征的研
究文献推荐。

二、CF算法的运作流程
1. 首先,将文献信息通过归一化处理,进行特征提取,获取文献的关
键字信息、标题、作者及内容中出现的术语,并利用词频和文本相似
度算法对文献进行索引;
2. 索引结果再经过信息增强,为文献提取更多的特征信息,如抽取文
本的扩展词、词干等,从而提高算法推荐的准确性;
3. 根据得到的内容特征,利用(如)gensim计算出文献的语义空间与向量表示;
4. 根据文献的关键字特征,采用基于词袋模型的文本表示方法将文献进行词袋表示;
5. 根据文献的表示形式,利用余弦相似度计算文献之间的相似性,并计算出文献之间的相似度矩阵;
6. 依据相似度矩阵,为用户推荐文献信息。

三、CF的优缺点
(1)优点: CF能够权衡文献的内容特征和关键字特征,更具有灵活性,能够在大量文献数据中提取出用户最感兴趣的文献信息,从而提供准确精准的文献推荐;
(2)缺点:CF通过余弦相似度计算文献之间的相似性,仅仅能够检测出文献之间的表面相似性,无法体现出文献之间的联系性,对于文献间联系性较强的情况推荐效果不太理想。

2023年国赛c题数据整理

2023年国赛c题数据整理

2023年国赛c题数据整理引言概述:2023年国赛C题是关于数据整理的一个重要题目。

数据整理在现代社会中扮演着至关重要的角色,它能够帮助我们从庞杂的数据中提取有价值的信息,为决策提供支持。

本文将从五个大点阐述2023年国赛C题的数据整理方法和技巧。

正文内容:1. 数据收集1.1 确定数据来源:在进行数据整理之前,我们需要明确数据来源。

这可以是各种渠道,如数据库、网络、调查问卷等。

1.2 设计数据收集工具:根据数据整理的目标,我们需要设计相应的数据收集工具,如问卷、表格等。

这些工具应该能够准确地收集所需的数据。

2. 数据清洗2.1 数据去重:在数据整理过程中,我们常常会遇到重复的数据。

为了保证数据的准确性,我们需要对重复数据进行去重处理。

2.2 数据格式化:不同数据来源可能使用不同的格式,如日期、时间、货币等。

在数据整理过程中,我们需要将数据统一格式化,以便于后续的分析和处理。

2.3 缺失值处理:数据中常常存在缺失值,这会影响后续的数据分析。

我们需要采取适当的方法来处理缺失值,如删除、插值等。

3. 数据转换3.1 数据合并:在某些情况下,我们需要将多个数据源的数据进行合并,以便于综合分析。

这需要根据数据的特点和关联关系进行相应的操作。

3.2 数据透视表:数据透视表是一种常用的数据整理工具,可以帮助我们对数据进行多维度的分析和汇总。

通过透视表,我们可以更好地理解数据之间的关系。

3.3 数据转换函数:在数据整理过程中,我们可能需要对数据进行一些计算和转换。

这时,我们可以使用各种数据转换函数,如求和、平均值、最大值、最小值等。

4. 数据分析4.1 数据可视化:数据可视化是数据分析的重要手段之一。

通过将数据以图表、图形等形式展现出来,我们可以更直观地理解数据的分布和趋势。

4.2 统计分析:在数据整理过程中,我们可以运用各种统计分析方法,如频率分析、相关性分析等,来揭示数据之间的关系和规律。

4.3 建立模型:对于复杂的数据整理和分析任务,我们可以建立相应的模型来进行预测和优化。

基于数据属性描述的数据过滤方法_赵连军

基于数据属性描述的数据过滤方法_赵连军

收稿日期:2003-09-28。

赵连军,博士生,主研领域:信息工程化技术,自动化制造技术。

基于数据属性描述的数据过滤方法赵连军 安 琳 彭炎午(西北工业大学机电工程学院 西安710072)摘 要 本文研究了已有的各种基于Web 的信息系统数据过滤方法,评价了它们的优缺点和适用范围,并实现了一种基于数据属性描述的数据过滤新方法。

通过合理配置数据过滤程序,提高数据过滤的效率。

该数据过滤方法实现了数据过滤的灵活定制和软件复用,减少了开发人员的重复工作。

关键词 Web 信息系统 数据过滤 数据属性A DATA FILTRATING METHOD BASED ON DATA PROPERTY DESCRIPTIONZhao Lianjun An Lin Peng Yanwu(Sc hool o f Mec hat ronic Engine ering ,Northweste rn Polyte chnical U nive rsity,Xi an 710072)Abstract This paper analyzes most known data filtrating method of information system to analyze their advantages and disadvantages.A new datafiltrating method is presented which is based on data property description.The data filtrating efficiency is i mproved through confi gure the program more reasonable.Thi s method customizes data filtrating neatly,makes the software reusable and relieves the developers of repeatedly heavy programming.Keywords Web Information sys tem Data fil trating Data property0 引 言随着网络技术和软件开发技术的快速发展,以及企业、商业组织对信息处理需求的不断提高,基于Web 的信息应用系统,已经成为当今最主要的网络应用之一。

基于数据挖掘和聚类分析的协同过滤推荐算法

基于数据挖掘和聚类分析的协同过滤推荐算法

基于数据挖掘和聚类分析的协同过滤推荐算法
何岫钰
【期刊名称】《电子设计工程》
【年(卷),期】2024(32)9
【摘要】为了提高推荐系统的可扩展性和用户满意度,设计基于数据挖掘和聚类分析的协同过滤推荐算法。

基于双向关联规则原理,构建标签资源矩阵,利用K-means 聚类算法对标签进行聚类。

结合用户偏好标签,算法能计算标签与资源的紧密程度,实现基本推荐。

通过标签计算用户与资源的兴趣度,实现个性化推荐。

将基本推荐和个性化推荐线性组合,得出最终结果。

实验表明,该算法不仅能保持数据集的平衡状态,准确性也高。

通过聚类捕捉更复杂的用户兴趣模式,显著提高了推荐结果的命中率和NDCG值,为用户提供更符合个性化需求的资源。

【总页数】4页(P47-50)
【作者】何岫钰
【作者单位】北京语言大学商学院
【正文语种】中文
【中图分类】TN39
【相关文献】
1.基于web数据挖掘的协同过滤推荐算法
2.应用聚类分析的协同过滤推荐算法
3.数据稀疏背景下基于协同过滤的推荐算法综述
4.基于隐式数据的改进LFM-SGD 协同过滤推荐算法
5.基于LDA主题模型的协同过滤推荐算法
因版权原因,仅展示原文概要,查看原文内容请购买。

基于属性关联的朴素贝叶斯分类算法

基于属性关联的朴素贝叶斯分类算法

基于属性关联的朴素贝叶斯分类算法
宁可1,孙同晶1,赵浩强2
【摘要】针对传统朴素贝叶斯分类算法处理多维连续型数据时准确率较低的问题,提出基于属性关联的改进算法。

通过高斯分割对属性类别不同的多维连续型数据集进行离散化处理,并使用拉普拉斯校准、属性关联和属性加权方法改进朴素贝叶斯分类过程。

实验结果表明,与基于拉普拉斯校准或属性加权的改进算法相比j亥算法能够提高分类准确率,且提升幅度在一定范围内随看属性数量的増加而增加,适用于多维连续型数据的分类。

[期刊名称]计算机工程
【年(卷),期】2018(044)006
【总页数】6
【关键词】连续型数据;数据分类;关联规则;朴素贝叶斯分类算法;属性加权
0概述
分类是数据挖掘和机器学习中的一个重要研究领域[口主要依靠对已经确定类别的数据进行分析,建立分类器,然后通过分类器对未知数据的类别进行判断[2]。

目前已经存在大量发展成熟的分类算法上匕较经典的算法有K近邻分类算法[3]、贝叶斯分类算法[4]、支持向量机分类算法[5]、神经网络分类算法[6]、决策树分类算法[7]和关联规则分类算法[8]。

朴素贝叶斯分类算法是最为经典的分类方法。

但是由于算法本身的条件独立特性和所有属性对结果影响相同的问题,在实际使用时该算法准确度偏低。

目前对朴素贝叶斯算法⑼的改进方法主要有:1)基于算法本身进行改进,如贝叶斯网
络分类算法、双重贝叶斯分类算法、懒惰式贝叶斯网络分类算法等,这些方法使得。

网络防火墙内部数据过滤保护算法

网络防火墙内部数据过滤保护算法

网络防火墙内部数据过滤保护算法
彭兆军
【期刊名称】《微电子学与计算机》
【年(卷),期】2017(34)11
【摘要】提出一种基于群体信任的网络防火墙内部数据过滤保护算法,首先把网络防火墙内部数据库模型化为一棵层次树,网络防火墙内部危险数据获取问题就转化为树的遍历问题.通过对树中的属性排序,缩小查询空间.根据计算树中属性值相关度提高网络防火墙内部危险数据提取的准确度和提取效率.然后通过计算数据特征,确定流经网络防火墙的数据信任度,完成对目标数据的信任评价,进而实现网络防火墙内部数据过滤保护.通过仿真实验证明,所提方法能够有效提高网络防火墙过滤保护的准确性,提高网络防火墙内部数据过滤保护效率,具有较强的实用性.
【总页数】5页(P131-134)
【关键词】网络防火墙;数据过滤保护;算法
【作者】彭兆军
【作者单位】郑州财经学院网络中心
【正文语种】中文
【中图分类】TP393
【相关文献】
1.如何设置一个可靠的防火墙系统保护企业内部网络 [J], 吕广平
2.无线传感器网络中不依赖MAC认证的虚假数据过滤算法 [J], 易叶青;林亚平;彭
舸;周四望;羊四清
3.设置可靠的防火墙系统保护公司内部网络 [J], 沈京津
4.浅析网络防火墙的数据过滤技术 [J], 李伟;张洁
5.基于Mahout框架的社交网络服务数据过滤算法 [J], 刘丰年
因版权原因,仅展示原文概要,查看原文内容请购买。

基于计算机的信息数据处理方法研究

基于计算机的信息数据处理方法研究

基于计算机的信息数据处理方法研究赵艳斌【期刊名称】《湖南农机》【年(卷),期】2015(000)001【摘要】In allusion to the quality control and processing methods of data,Pauta criterion is applied to remove abnormal data and Kalman filtering is used to process data in the same layer, smoothing filtering is applied to process the data in profile and then calculate the data which is not measured based on Akima interpolation.It is proved to be effective after test with experiments.%针对目前数据质量控制和处理方法的问题,采用拉依达准则剔除异常数据,卡尔曼滤波处理同一水层的数据,平滑滤波处理剖面上的数据,Akima插值计算缺测层的数据。

通过实验检验,非常有效。

【总页数】2页(P32-33)【作者】赵艳斌【作者单位】郑州煤矿机械制造技工学校,河南郑州 450013【正文语种】中文【中图分类】TP274.2【相关文献】1.基于计算机的信息数据处理方法研究 [J], 赵艳斌;2.基于计算机图像处理技术的铜金属杂质检测方法研究 [J], 郭俊3.基于基础地理信息数据库的地理国情数据生产及样本处理技术方法研究 [J], 王恺;李振林4.基于计算机网络故障处理及网络维护方法研究 [J], 杜成龙5.基于计算机视觉的数字图像处理方法研究——以梨果检测分级为例 [J], 牛犇;张栖瑞因版权原因,仅展示原文概要,查看原文内容请购买。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

收稿日期:2003-09-28。

赵连军,博士生,主研领域:信息工程化技术,自动化制造技术。

基于数据属性描述的数据过滤方法赵连军 安 琳 彭炎午(西北工业大学机电工程学院 西安710072)摘 要 本文研究了已有的各种基于Web 的信息系统数据过滤方法,评价了它们的优缺点和适用范围,并实现了一种基于数据属性描述的数据过滤新方法。

通过合理配置数据过滤程序,提高数据过滤的效率。

该数据过滤方法实现了数据过滤的灵活定制和软件复用,减少了开发人员的重复工作。

关键词 Web 信息系统 数据过滤 数据属性A DATA FILTRATING METHOD BASED ON DATA PROPERTY DESCRIPTIONZhao Lianjun An Lin Peng Yanwu(Sc hool o f Mec hat ronic Engine ering ,Northweste rn Polyte chnical U nive rsity,Xi an 710072)Abstract This paper analyzes most known data filtrating method of information system to analyze their advantages and disadvantages.A new datafiltrating method is presented which is based on data property description.The data filtrating efficiency is i mproved through confi gure the program more reasonable.Thi s method customizes data filtrating neatly,makes the software reusable and relieves the developers of repeatedly heavy programming.Keywords Web Information sys tem Data fil trating Data property0 引 言随着网络技术和软件开发技术的快速发展,以及企业、商业组织对信息处理需求的不断提高,基于Web 的信息应用系统,已经成为当今最主要的网络应用之一。

数据过滤程序实现对客户端数据进行合法性检查和处理,过滤程序可以是嵌在客户端功能页面中的脚本程序,也可以布置在系统服务器端各个程序模块中的程序[3]。

数据过滤程序对减少服务器数据处理错误和提高服务器效率有显著的作用,在系统开发中占有重要的地位。

满足系统客户端数据可靠性的需求是开发数据过滤程序的目的。

在系统开发过程中,传统的数据过滤方法开发工作量大,随着客户不断改变需求和不断升级系统,开发人员对系统数据过滤程序不断修改,影响了系统开发效率,无法保证系统开发进度和质量。

本文研究了通过提取客户端数据属性和定制统一的数据过滤程序的方法,使系统开发人员快速、全面和准确地完成客户端数据过滤需求,加快系统开发进度。

1 信息系统数据过滤方法研究数据过滤在系统数据处理过程中有着重要的作用,特别是客户端在向服务器端数据处理程序提交数据时,需要对数据进行合法性检查,防止出现数据库操作错误和其他数据处理异常。

对客户端数据过滤需求的实现通常是根据数据库设计需求编写相应的过滤程序。

按照数据过滤程序所在的位置可以分为两类:1 1 服务器端数据过滤程序服务器端数据过滤程序通常放置在系统服务器端。

通常根据数据处理的需要将数据过滤程序代码嵌入数据处理程序的起始部分,在数据处理之前先进行数据合法性检查,并反馈数据过滤结果。

这种数据过滤的方法主要集中在系统服务器端,增加了服务器的数据处理压力,降低了系统数据处理的效率,服务器效率降低。

同时,系统数据库和数据过滤需求的改变,使开发人员要修改相应的数据过滤程序代码。

由于信息系统拥有大量的数据处理程序,使得编写、维护、测试数据过滤代码的工作量大,影响系统开发的进度。

1 2 客户端数据过滤脚本程序客户端数据过滤脚本程序,一般是嵌在系统客户端功能页面中的脚本程序,它由JavaScript 等脚本语言编写。

主要实现在客户端向服务器端提交数据时,对所提交的数据按照过滤条件进行合法性检查。

这种数据过滤的方法主要集中在系统客户端,减少了服务器的数据处理压力,避免了客户端向服务器端数据处理程序提交非法数据,减少了客户端访问服务器端的次数,提高了系统数据处理的效率,充分利用了客户端的数据处理资源。

数据过滤程序、系统功能页面以及系统数据处理程序是同步进行编写的,开发人员将大量精力用在数据过滤程序编写和测试工作中。

一旦数据库被修改,开发人员不得不修改脚本程序,由于信息系统拥有大量的功能页面,因此编写、测试和修改数据过滤脚本程序将花费大量的精力。

第22卷第1期 计算机应用与软件Vol 22,No.12005年1月 Computer Applications and Software Jan.20052 基于数据属性描述的数据过滤方法数据过滤程序开发的难点在于:如何在系统开发过程中能最大程度地适应和兼容客户对系统功能和数据库设计需求的改变。

传统的开发模式随着客户需求的变化,系统开发人员就不得不修改已开发的数据过滤程序,甚至是重新开发,做大量的重复工作。

针对当前数据过滤程序开发中存在的不足,克服客户需求发展与系统数据过滤程序开发不同步的缺点,提出了基于数据属性描述的数据过滤新方法。

该方法使用了JCL 控件,JCL (JavaScrip t Component Library)是MoleSoftware 公司开发的面向对象的B S 结构前端组件库。

在该系统中用JavaScript 脚本语言编写各种控件和按钮动作函数实现对Web 数据的各种数据操作,采用客户端数据过滤模式,将与数据过滤相关的脚本程序集中整理成为一个JavaScript 脚本程序JS 文件,并将其作为系统文件放置在设定的服务器端文件目录下。

将数据过滤程序文件以脚本格式嵌入系统功能页面中,做法是将JavaScrip t 脚本程序属性中的JS 文件来源设为过滤程序文件在服务器端的存储路径。

该方法将数据过滤程序和功能页面分离,把数据过滤程序单独作为系统程序文件放置在服务器端,通过引用数据过滤程序在客户端进行数据过滤。

该方法的实现有以下步骤组成:描述数据属性、生成客户端页面辅助脚本代码、整理功能页面、数据过滤、反馈数据过滤结果和提交数据。

该方法通过把数据属性组成数据属性数组,并生成页面辅助脚本代码,把页面辅助脚本代码嵌入系统功能页面中;系统功能页面所提交的数据都由此过滤程序文件中的数据过滤函数进行,并反馈过滤信息。

其工作流程如图1所示。

图1 数据过滤的工作流程该数据过滤方法使用了面向对象技术,统一了对系统客户端数据过滤方法。

使用该方法,在客户端直接引用单独开发的数据过滤程序进行数据过滤,减少了脚本程序的编写,加快系统开发进度。

客户端不必考虑编写数据过滤程序的问题,开发人员可以把精力放在数据业务处理流程分析以及系统功能页面编写上,减轻了数据过滤脚本程序编写的工作量。

2 1 页面辅助脚本开发模块数据属性的获取以及属性数组和客户端辅助脚本程序的生成,都由页面辅助脚本开发模块自动生成。

开发人员把包含功能页面中数据的S QL 作为参数提交给页面辅助脚本开发模块,页面辅助脚本开发模块就生成格式统一的客户端辅助脚本程序代码,并由开发人员拷贝到系统功能页面中,其中数据过滤程序文件的保存路径也整理到页面辅助脚本程序代码中。

基于数据属性描述的数据过滤方法的功能页面辅助脚本程序开发步骤如图2所示。

2 2 描述数据属性数据属性描述是由页面辅助脚本开发模块完成的。

将系统功能页面,特别是数据添加和修改页面中的数据描述Select 类图2 页面辅助脚本开发步骤型的SQL 语句,SQL 语句中的字段名称是功能页面中的数据页面显示名称所对应的数据库表的数据字段名称。

一般情况下,数据页面显示名称在数据库设计时已经定义,所以数据页面显示名称可以从数据库表中提取出来。

将此SQL 语句作为参数,通过页面辅助脚本开发模块获得数据属性描述数组。

辅助程序通过访问数据库,获取数据库表中的数据属性,按照规则整理成以下几个数据属性数组:1)数据字段名称数组fieldname 将数据的数据库表字段名称按照SQL 语句中的字段顺序整理成数组;2)数据字段是否为空属性数组fieldnull 如果数据字段不能为空,则该数据的是否为空属性为1;如果数据字段可以为空,则该数据的是否为空属性为0;将数据字段是否为空属性值按照SQL 语句中的字段顺序整理成数组;3)数据字段类型属性数组fieldtype 将数据字段的类型属性值按照SQL 语句中的字段顺序整理成数组;4)数据字段长度属性数组fieldlength 将数据字段的长度属性值按照SQL 语句中的字段顺序整理成数组;5)数据页面显示名称数组field title 将数据的页面显示名称按照SQL 语句中的字段顺序整理成数组。

数据的属性描述数组生成后,页面辅助脚本开发模块按照脚本程序页面书写格式输出整理好的JavaScrip t 脚本程序。

程序开发人员将此脚本程序拷贝到相应的功能页面中。

例如,对于人员信息表,在人员信息输出页面中嵌入的数据属性数组以及页面辅助脚本程序如下所示:<SCRIPT language= JavaScript src= server html script datafiltrate.js >< SCRIP T><SCRIPT language= JavaScript >fieldname=ne w Array( id , name , se x , age ) fieldnull=new Array( 1 , 1 , 1 , 0 )fieldtype=ne w Array( string , string , s tring , number ) fieldlength=new Array( 8 , 8 , 6 , 6 )fieldtitle=new Array( 人员编号 , 姓名 , 性别 , 年龄 )< SCR IP T><INP UT name= submit value= 提交数据 onclic k= form s ubmi t() >其中src = server html script datafiltrate.js 是保存在服务器端的数据过滤脚本程序文件的保存路径。

相关文档
最新文档