物探地震大数据自动识别质控方法研究与应用
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
物探地震大数据自动识别质控方法研究
与应用
摘要:随着大数据系统在石油行业的开发应用,地震大数据对油田勘探开发起到的作用越来越大,为了保证地震数据的质量,避免误导研究与决策,对相关数据分析处理技术提出了更高的要求,面对复杂的地震大数据,如何正确的自动识别不同形态数据和关联评价是进行自动质控的关键,本文重点对石油行业地震大数据通过机器学习自动识别质控方法进行研究,探索采用机器监督学习数据模型, 自动识别不同结构的地震数据和关联质控方法,提出了“数据分类+构建数据形态模型+自动识别+单体数据质控+关联数据质控+数据统计质控+综合评价”的统一质控模式,让机器替代人工进行综合质控。
关键词:地震大数据;机器学习;自动识别;关联质控
文献标志码: A 中图分类号:TP ***
Research and application of seismic big data quality control method
Heqingbing1 gaolidong panyu
1. Low-permeability oil and gas exploration and development of National Engineering Laboratory PetroChina ChangQing OilField Company Exploration and Development Research Institute ,XiAn, 710018 ,China
Abstract:With the development and application of big data system in the oil industry, seismic big data plays an increasingly important role in oil field exploration and development. In order to ensure the quality of seismic data and avoid misleading research and decision-making, higher requirements are put forward for relevant data analysis
and processing technology. In the face of complex seismic big data,
how to correctly identify different forms of data and correlation evaluation is the key to automatic quality control, This paper focuses on the research of automatic identification and quality control
methods of seismic big data in the petroleum industry through machine learning, explores the use of machine supervised learning data model
to automatically identify seismic data and associated quality control methods of different structures, and proposes a unified quality
control mode of "data classification + Construction of data morphology model + automatic identification + single data quality control + associated data quality control + data statistical quality control + comprehensive evaluation", Let the machine replace the manual for comprehensive quality control.
Key words: Seismic big data; Machine learning; Automatic identification ;Data association QC
石油物探成果在油气勘探开发的全生命周期中都发挥着重要作用,跨越了油
气藏勘探期、油藏描述期、油气开发期和成熟期多个阶段,关键功能包括发现定位、静态描述与动态监测,其核心作用可以为油气发现和开发决策提供依据与指
导[1]。
在目前人工智能技术快速发展的背景下,面对海量的地震数据,迫切需
要在油藏地球物理技术基础上,融入人工智能新技术,实现油藏地球物理智能化
发展[2]。
以大数据为代表的数字分析技术带来数据驱动的研究思维,利用已有数据成
果降低勘探开发风险和成本的研究逐渐成为热点[3]。
而随着高精度高密度的勘
探采集,地震成果数据量越来越大,地震大数据更是油田勘探重要的成果资产之一。
而目前的地震数据大部分采用人工手动查验质检方式,效率不高,数据精确
度也不高,需要科研人员具有极高的专业素质和大量经验才能做好质控管理。
随
着油田信息化建设的发展,让历史成果活起来,支持当前的科研生产已成为共识,地震大数据上线入云已成为必然。
面对存量巨大、种类纷繁复杂的地震数据无法
用人工或单一的分析工具进行高效质控。
因此本文对地震数据质控提出了“数据分类+构建数据形态模型+自动识别+单体数据质控+关联数据质控+数据统计质控+综合评价”的统一质控模式,让机器替代人工进行综合质控。
1物探地震大数据现状
油田地震数据成果主要包括采集成果(表1)、处理成果(表2)、解释成果(表3)、VSP成果(表4),多达上百种类型数据,数据类型多样,格式种类繁多。
表1 采集成果数据
Table 1 Seismic Survey achievement data
序号数据
分类
数据格式备注
1采集基础信息TXT/Excel无统
一格式
2测量成果数据TXT无统
一格式
3班报数据Excel无统
一格式
4SPS 数据SPS SEG
标准格式
5表层调查成果TXT无统
一格式
6大炮地震记录
SEG-D/SEG-
Y
SEG
标准格式
7表层调查地震记录
SEG-1/SEG-
2
SEG
标准格式
8试验数据
TXT/Excel/
SEG-D
无统
一格式
9大炮初至TXT无统
一格式
1 0近地
表模型TXT/SEG-D无统
一格式
1 1表层
吸收模型TXT/SEG-D无统
一格式
采集
文档
Word/PPT
表2处理成果数据
Table 2 Seismic processing data
序号数据
分类
数据
格式
备注
1处理基础信息
TXT/E
xcel
无统
一格式
2静校正量TXT内容
不统一
3叠加速度
TXT/S
EG-Y
文本
格式不统
一
4偏移速度
TXT/S
EG-Y
文本
格式不统
一
5叠前时间偏移速度
TXT/S
EG-Y
文本
格式不统
一
6叠前深度偏移速度
TXT/S
EG-Y
文本
格式不统
一
7中深层Q数据
TXT/S
EG-Y
文本
格式不统
一
8中间成果
内部
格式/SEG-
处理
系统格式
Y多
9最终叠加成果SEG-Y SEG
标准格式
1 0最终
偏移成果SEG-Y SEG
标准格式
1 1处理
文档
Word/ PPT
表3解释成果数据
Table 3 Seismic interpretation data
序号数据
分类
数据
格式
备注
1解释基础信息
TXT/E
xcel
无统
一格式
2井信息
TXT/E
xcel
内容
不统一
3钻井分层
TXT/E
xcel
文本
格式不统
一
4综合文本文本
格式不统
测井数据内部格式一
5T0层位
文本
内部格式
解释
系统格式
6断层文本
内部格式
文本格式不统一
7速度场
TXT/S
EG-Y
文本
格式不统
一
8构造图
内部
格式/CGM
绘图
系统格式
9反演成果SEG-Y SEG
标准格式
1 0处理
文档
Word/ PPT
表4VSP成果数据
Table 4 VSP interpretation data
序号数据
分类
数据
格式
备注
1VSP 井信息
TXT/E
xcel
内容
不统一
2采集班报
TXT/E
xcel
文本
格式不统
一
3试验数据
文本
内部格式
文本
格式不统
一
4地震记录
SEG-
D/SEG-Y
SEG
标准格式
5时深数据TXT文本
格式不统
一
6纵横波速度TXT文本
格式不统
一
7处理成果SEG-Y SEG
标准格式
8解释成果
TXT/E
xcel
文本
格式不统
一
9处理文档
Word/ PPT
通过对地震成果数据应用的实践和分析,归纳为具有如下特征:
(1)完整性差异:由于不同时期上交内容无统一标准,造成上交内容不统一,另外由于历史久远,加上单位变动,很多成果无法找到,造成部分成果缺失
或不一致。
(2)规范性差异:不同时期应用的技术不同,产生的成果数据格式必然会
有差异,有的为了成果数据在专业系统上的复用,很多数据是按自身格式保存的,数据格式纷繁复杂,即使是同一类型处理解释系统产生的结果格式也是千差万别,对后来历史数据的挖掘造成很大困难。
(3)一致性差异:由于处理解释方法不同,处理解释成果所对应的基准面、静校正量、替换速度、标定时差等往往不同,成果很难直接进行对比分析。
(4)准确性差异:同一工区可能经历了多轮采集、处理、解释,随着技术
的发展成果准确性也越来越高。
早期的成果数据可靠性较差,属于超期成果。
(5)关联性差异:地震成果数据产生有着时间、空间上的差异,不同部门
产生的成果数据独立保存与归档,往往形成一个个信息孤岛,无法清晰的展现从
宏观到微观勘探历史脉络与勘探成果。
不利于信息化和工业化的高层次的深度结合。
(6)数据转录差异:地震成果在重新整理和转录过程中很可能混入人为错
误信息,越是早期成果人为干预的可能越多,产生的问题也越多。
通过以上的数据分析和对油田信息化建设的实践可以认识到影响数据质量的
因素主要来源于四方面:技术因素、规范因素、转录因素和管理因素。
系统不论
采用何种构建方法,实际上都是围绕着如何自动高效解决数据识别和质量评估的
问题展开研究。
数据质控目的就是保证原始成果面貌,查清人为混入的错误或数
据缺失情况[4],保证正确的地震数据上线入云。
2方法
2.1监督学习数据格式识别
应用机器学习模式,采用监督学习机器学习方法,监督学习通过训练数据样例,学到或建立一个模式,并依此模式推测新的实例。
按照既定规则来输出分类
和预测某个具体值。
监督学习原理上是主要解决分类、回归问题。
该方法要求特定的输入/输出,首先需要决定使用哪种数据作为范例。
例如,速度谱格式识别应用中常用处理系统如GeoEast、Omega、CGG、Focus等产生的
典型的速度谱数据作为样例。
主要算法包括字段解析、相邻字段相似度分析等。
这里实际解决速度谱数据格式“分类”,“回归”实际上是通过格式匹配计算分析,得到数据是否被成功解析的一个明确结果。
机器学习实现的步骤:
(1)选择典型数据样例。
(2)定义适合样例的数据格式模型。
(3)用样例和定义的数据模型给机器去学习。
(4)机器总结出自己理解的模型(方法论)。
(5)把实际数据给机器,让机器利用预测模型进行扫描分析数据,并给出
预测匹配结果。
(6)预测失败,人工修正或添加新数据格式模型,再监督学习,直到解析
正确。
图1 速度谱格式识别流程图
Table 1 Flow chart of velocity format recognition
2.2曲线回归异常值分析
回归分析是统计学的数据分析方法,目的在于了解两个或多个变量间是否相关、相关方向与强度,并建立数学模型以便观察特定变量来预测其它变量的变化
情况。
算法采用最小二乘法拟合和最小绝对值法拟合。
最小二乘误差是将误差平
方求和,最小绝对值误差是把误差绝对值求和。
最小二乘总体误差:
最小绝对值总体误差:
能够看出随着误差增大,MSE会加速上升,所以最小二乘法虽然最优解唯一、求解方便和有好的解析性质,但一个大缺点是受异常值扰动影响大,而最小绝对
值法虽然最优解不唯一,但认为单个大误差无所谓,它只在乎误差绝对值的和。
因此,利用这一特点,采用两种方法混合使用检索异常点。
例如对微测井时深曲线、初至时间曲线、速度曲线进行检查,采用上述方法,具体实现步骤:
(1)对时深对数据集先采用最小绝对值法进行回归分析,得到对应拟合方程。
(2)通过划定的误差范围找到误差超限点。
(3)再用最小二乘法进行回归分析,得到拟合最终拟合方程。
(4)通过划定的误差范围找到误差超限点。
(5)找出超限点交集点剔除,再次拟合,重新计算误差超限点。
2.3最小曲率异常值分析
用最小曲率法生成的插值面类似于一个通过各个数据值的,具有最小弯曲量
的长条形薄弹性片。
试图在尽可能严格地尊重数据的同时,生成尽可能圆滑的曲
面。
使用最小曲率法时要涉及到两个参数:最大残差参数和最大循环次数参数来
控制最小曲率的收敛标准。
最小曲率法实现过程:
(1)坐标旋转平移,构建网格。
为保证构建网格与测网方位角一致,需要对数据进行坐标旋转与平移,同时
为消除边界效应,将网格四边各扩展n(默认n=2)个单元格。
其中旋转公式为:
(2)压缩网格,构建网格信息字典。
为防止网格点数过大(一般经验值为不超过5000,可改变)导致运算量加剧,从而延长计算时间,将经n倍原单元格边长作为一个单元格边长,n从2开始计算,直至网格大小小至一定范围,重新划定单元格和网格大小,依次将散点数据
在原网格坐标系(x,y,z)再次进行坐标转换(x’= x/n + 3,y = y/n + 3,z),作为压缩网格坐标。
(3)构建网格信息字典。
网格信息字典主要记录每个网格点的数据特征,以及其与平滑相关网格点。
网格信息字典主要包括:
①中间或最终Z值
②平滑前后Z值差值的绝对值
③拟合Z值的信任度(取值为-1,0,1,2,3,4。
其中-1准确、0没有值、1~4表示散点中心位置相对网格点所处的象限)
④当前网格点是否无效
⑤还原压缩网格后该点是否需要重新要根据散点或外插计算Z值
⑥存放此网格点拟合及平滑的相关系数
⑦记录周边12个平滑相关网格点相对该点有效性和权系数,0表示无效,大
于0表示有效,并且值大小为权系数
图2参与红色网格平滑的网格分布
Table 2 Smooth grid distribution
网格点范围内是指某点坐标x和y分别与某网格点的x和y的差值都小于半
个单元格长度(L/2),就称某点在某网格点范围内。
若网格内某散点坐标为(x,y,z),与网格点在X方向的距离为dx、Y方向为dy。
在新坐标系中,处于第rl行
第cl列单元格的网格点编号为(rl-1)*nc+cl-1,其相关信息存储在大小为6的
数组B中,其中:
在这里完成网格信息字典①⑥信息的建立。
对前面计算好的网格点范围内有
散点数据的网格点信息,反距离插值算法计算出该网格点的Z值。
同时计算出后
面平滑该点时的估计值,防止被异常值影响过大,依次利用前面有数据的单元格
网格点的数组计算用于平滑的相关信息。
反距离插值算法中如某离散点(x,y,z)
到网格点(X,Y,Z) 的平面距离为D,则有:
(4)构建压缩网格体。
根据位置偏差用允许的偏差初始化网格,对没有散点数据的网格点进行插值,使整个网格点都有数据。
扫描目前的网格信息字典统计出有数据的单元格数目为nZ(若nZ为0则停止程序),没有数据的单元格数为nNull,并分别算出有数据的
网格点在X、Y及Z值的总和,再除以nZ则得到平均值分别为xAvg,yAvg,
zAvg(可简称网格体平均值)。
根据反距离加权插值算法分别为没有数据的网格点
拟合出一个多项式,然后结合最小二乘原理插值出没有数据的网格点的Z值,这
样就初步建立了网格体。
利用单元格前后上下两行单元格的数据加权依次对各单元格应用最小曲率方
程式,反复进行迭代直至一定条件(如叠代次数不超过500或小于指定误差如
0.02等)结束计算。
形成一个压缩网格体。
(5)恢复压缩网格到标准网格。
压缩网格数据过于稀疏还达不到要求,我们得仿效压缩网格体的计算过程重
新来过,利用已经计算好的压缩网格(若压缩比为Ratio)通过三次方插值算法
将压缩网格伸展为原来单位标准的网格。
如对第igx行第igy列单元格(●所在
单元格)进行插值算法。
利用该单元格周边的单元格拟合出4个多项式,如用在
同一列青色的格子分别与同列的品红格式的Z值相减,可得3个差值,用这三个
值可拟合出一个三项式,依次类推可得4个多项式,然后将目标单元格划分出Ratio*Ratio个子网格,最后利用这些多项式从左到右从下到上依次进行多项式
拟合,即可得到一个Ratio*Ratio大小的内含矩阵,如图5所示:
图3压缩网格伸展为原单位网格示意图
Table 3 Schematic diagram of compressed grid recovery
依次对每个压缩单元格内插出一个Ratio*Ratio矩阵,将此内插矩阵插入到原来单位长度网格矩阵中,去掉边缘扩展的单元格这样就可以将压缩网格恢复原来单位长度的网格。
在这里与压缩网格处理不同的是只将拟合Z值的信任度为-1的Z值刻录到信息字典①中,同时计算好后面用于平滑的相关数据。
对目标网格应用最小曲率方程式进行平滑。
提取网格体数据进行输出,由于在建立网格时对目标网格体进行了扩展,在输出时将去掉扩展的部分。
这里应用是利用最小曲率法得到适当大小网格数据(提高效率),利用网格值与离散点进行差值计算,记录大于门槛值的伪异常点,剔除伪异常点,并对每一个伪异常点,在指定的范围内搜索视为正常的离散点,逐步缩小网格边长(直至每个网格中只保留一个样点),再进行局部网格化,如果网格插值点与伪异常点实际值吻合(指定误差范围内),排除此伪异常点,循环所有伪异常点,剩余的伪异常点判定为异常点输出。
例如高程分析、To层位分析、静校正量分析、速度分析等均可采用此分析方法。
2.4决策树综合评价
决策树是一种特殊的树结构,由一个决策图和可能的结果(例如质量过关和不过关)组成,实际就是N个“if”和“else”搭配组成的集合用来辅助决策。
树中每个节点表示某个决策选择,而每个分叉路径则代表某个下一次决策,从根到最终节点只能得到一个唯一答案。
如下是地震记录综合评价决策树。
图4地震记录评价决策树
Table 4 Decision tree for seismic record evaluation
3自动质控的环境和功能模型系统设计
3.1功能模型系统设计
数据驱动学科与模型驱动技术相结合有助于深入探索地震学领域难题、加速
推动新知识的产生,其核心是优质数据的支持。
通常数据建设是基于保护原始归
档成果,除结构化数据外,不增加新的中间数据,减少数据冗余为准则。
在这种
背景下,机器学习方法就是一个极佳的选择[5]。
数据驱动的质量控制与改进方
法多是纯粹从数据角度建立模型,没有考虑过程因素造成的质量波动机制及其规
律性[7]。
因此需要根据各个情况,首先对地震数据进行分类,建立自动质控检
查环境,对分类好的数据通过自动识别处理,形成统一的规范数据,对其进行多
维度的质控检查[8]。
包括数据自动识别、单体质控、关联质控、统计质控、评
价报告生成。
(1)数据自动识别
对数据进行分类,建立数据格式模型库,采用机器学习方法自动解析数据格式,遇到新的数据类型,添加新的数据模型到模型库。
为后续的质量控制评价做
好数据准备。
(2)单体质控
单体质控通常指的是对单个数据体进行自身数据质控,标准采用行业/企业
标准要求的内容,无标准采用最小完整度要求内容,检查内容主要包括数据完整性、数据精度、数据异常值、数据重复性、数据格式等,与其它数据不发生联系,并形成相应的检查结果评价表、典型的质控图件、剖面图件、成果图件等质控成果,作为质控报告中单体质控部分基础素材。
(3)关联质控
关联质控通常指若干发生联系的单体数据间进行的相互对应质控检查,检查
内容主要包括数据交汇情况检查、物理点一一对应检查、数据逻辑关系匹配检查、相互之间误差检查、位置映射范围检查等,并形成相应关联检查结果评价表、典
型的数据匹配质控图件等质控成果,作为质控报告中关联质控部分基础素材。
(4)统计质控
统计质控通常指的是按采集、处理、解释、VSP、微地震五大类型质控每一
大类中地震数据成果归档内容完整度,统计内容包括地震数据文件数量、文件内容、各种物理点类型与数量、资料长度、资料面积、项目的基本信息等,并形成
相应统计检查结果评价表、各种信息统计表、要件归档情况表等,作为质控报告
中统计质控部分基础素材。
(5)评价报告生成
利用单体质控、关联质控、统计质控产生的素材与结果,通过综合决策评价,对某一项目数据质控形成完整的质控报告,并最终对归档的地震数据做出是否通
过质控检查结论。
图5地震大数据自动质控流程
Table 5 Automatic QC flow chart of seismic big data
3.2自动质控环境搭建及具体实验过程
对某三维采集项目地震数据进行自动分析质控实验,对采集基本信息、边界、SPS、表层调查成果、表层Q调查成果以及地震记录、大炮初至、项目文档进行
综合质控。
主要完成采集项目基本信息与归档成果统计质控;物理点坐标与工区
范围的关联质控;边界、SPS、表层调查点成果、地震记录、大炮初至的单体质
控与关联质控,最终形成质控评价报告。
4自动识别质控应用效果
针对油田公司物探技术服务方负责成果提交,油田公司负责质控验收的具体
情况,需要将数据采集操作纳入业务流程,建立数据质量的检查考核机制,落实
到具体岗位[9]。
“审查及质控”两条线索紧紧围绕“质量”这个共同的主干线,最大限度确保了入库目标的研究质量[10]。
因此应用自动识别质控方式,将大大
提高数据品质,提升验收效率,降低数据提交时间周期同时也降低了验收人员必
须全面掌握各种成果的专业知识门槛。
该方法在某油田进行了实际应用,如下为某三维采集地震数据自动质控报告
中部分内容展示:
(1)采集项目所有归档成果自动统计质控结果展示。
显示项目基本信息,归
档内容及数量。
表5项目信息统计表(部分内容)
Table 5 Statistical table of project information
某三维采集
项目名
称:
勘探类
三维
型:
年度:2011
施工面
积(测线长
度):
1040.10 km2
满覆盖
面积:
600.03 km2
一次覆
盖面积:
866.88 km2
SPS测束线数:
10 (其中S文件10;R文件 10;X文件10)
检波点
数:
131722
炮点
数:
47065
地震记录文件:
10(文件约710.00 GB)
原始典
型记录数
量:
初至文10(文件约10.00
件数量:GB)
表层调查点数:
表层调查共8个(微测井:8;小折射:0)
表层地震记录数:
320(微测井320;小折射 0)
地质图
件文件数
量:
项目文档数量:
20(约308.00 MB);施工总结1个;施工设
计1个;
(2)束线SPS文件单体质控与炮检点关系的关联质控结果展示,可以看到有通过质控的,也有未通过质控的。
表6束线SPS数据质控结果信息表
Table 6 SPS data QC result information table
测(束)线匹配检查信
息
2011GML001-
009
通过质控
2011GML010-018
缺失关系文件
2011GML019-027
SPS格式不正确
2011GML028-
036
通过质控
2011GML037-
045
通过质控
2011GML046-
054
通过质控
2011GML055-063
缺失野外静校正
2011GML064-
082
坐标异常
2011GML064-
083
通过质控
2011GML084-
101
通过质控
(3)项目边界与炮点、微测井点位置交汇情况质控结果展示,可以看出炮点(洋红为炸药震源,绿色为可控震源)和微测井点(蓝色)在一次覆盖边界内,位置合理,无异常坐标。
图6项目边界与炮点、微测井点位置叠合图
Table 6 Overlapping diagram of boundary and point
(4)炮检点高程质控分析结果展示,可以看出炮检点均在施工边界内,而且高程过渡自然无异常。
图7炮检点高程网格化三维可视化图
Table 7 Overlapping diagram of boundary and point
(5)微测井时深曲线单体质控结果展示,可以看出此微测井点时深数据中有异常值。
图8微测井时深曲线图
Table 8 UpHole Time depth curve
(6)地震记录与SPS关联质控结果展示,灰色的是炮点与地震记录匹配,红色的是炮点无地震记录匹配(可控震源点无对应地震记录)。
图9SPS与地震记录匹配图
Table 9 Matching diagram of SPS and seismic records
(7)大炮初至按炮点统计初至拾取率结果展示,可以看到炮点颜色代表初至拾取的道数,每炮基本都拾取了3000多道,总体相对均匀。
图9炮点大炮初至拾取情况分布图
Table 9 First break picking distribution map of SPt
(8)大炮初至按检波点统计拾取率结果展示,可以看到检波点颜色代表初至拾取的次数,灰色表示无拾取初至检波点,近炮检距初至拾取的多,远炮检距拾取少,甚至未拾取。
图9检波点大炮初至拾取情况分布图
Table 9 First break picking distribution map of RPt
通过实际应用可以证明,对加载的地震成果数据采用机器学习自动识别质控方法进行项目成果数据的质控检查,可以高效快速得到数据质控结果,摆脱了以往验收人员主要依靠检查上交成果数据的数量,无法有效核实上交数据质量的工作模式,通过把自动生成地震数据质控报告中汇集的质控信息及时反馈给数据归档或数据建设人员,利用报告指出的数据问题,可做到有针对性的成果修改与调整,减少反复次数,加快了数据整改效率,同时保证了归档数据或数据建设的质量,为后续信息化建设打下了坚实基础。
5结束语
本文提出的地震大数据体机器学习自动识别质控应用方法,采用“数据分类+构建数据形态模型+自动识别+单体数据质控+关联数据质控+数据统计质控+综合评价”的统一质控模式,以提高效率减少地震数据错误需求为驱动,改进了数据质控传统方法和思路,并通过让机器替代人工完成大部分质控工作的实践。
数据形态模型构建是解决数据自动质控的关键,随着新的数据形态模型的不断加入,能够适应更广泛的地震数据类型的识别。
单体质控、关联质控、统计质控的结合可以较好的解决数据本身和数据之间存在的问题,捋顺数据自身、数据与数据之间的正确关系。
实际应用证明地震大数据体机器学习自动识别质控应用方法确实降低地震数据错误率,同时提高了效率,在油田的地震数据归档和基于地震数据的信息化建设中对地震大数据的质量控制是一个很好的解决方案。
参考文献:。