第二讲统计自然语言处理的数学基础2PPT课件

合集下载

《自然语言处理》课件

《自然语言处理》课件
过拟合问题
模型在训练数据上表现良好,但在测试数据上表现不佳,这是因为模型过于复 杂并过度拟合训练数据。为了解决这个问题,可以采用正则化、早停法、集成 学习等技术。
语义理解的深度与广度问题
深度问题
目前自然语言处理模型主要关注词义和 句子的表面结构,难以理解更深入的语 义信息和语境。为了解决这个问题,需 要研究如何让模型更好地理解语境、把 握对话进程、理解比喻和隐喻等。
句法分析可以采用基于规则 的方法或基于统计的方法进 行。
基于规则的方法主要依靠人 工制定的规则进行句法分析 ,而基于统计的方法则通过 训练模型进行句法分析。
语义分析
01
语义分析是指对句子进行语义理解,识别句子中的 概念、实体、关系等语义信息。
02
语义分析是自然语言处理中的高级任务,需要结合 上下文信息和领域知识进行理解。
03
分词算法可以分为基于规则的方法和基于统计的方法两类。
04
基于规则的方法主要依靠人工制定的规则进行分词,而基于统计的方 法则通过训练模型进行分词。
词性标注
01 02 03 04
词性标注是指在分词的基础上,对每个词进行语义分类,确定其词性 。
词性标注是自然语言处理中的重要任务之一,有助于理解句子的结构 和语义。
06
自然语言处理前沿技术
预训练语言模型
预训练语言模型概述
预训练语言模型是一种深度学习模型,通过对大量文本数据的学 习,获得对语言的内在理解和生成能力。
代表性模型
如Transformer、BERT、GPT系列等,这些模型在自然语言处理任 务中表现出色,具有强大的语言生成和理解能力。
预训练语言模型的应用
VS
广度问题
自然语言处理模型在处理不同领域Байду номын сангаас不同 语言的文本时,表现往往不够稳定。为了 提高模型的泛化能力,需要研究如何让模 型更好地适应不同领域和语言的文本。

统计自然语言处理-第二章-预备知识

统计自然语言处理-第二章-预备知识
i =1
α 其中, 是样本数目; 是个正值导数,可通过学习获得; 为类别标记。 其中, 是样本数目; i 是个正值导数,可通过学习获得;y i 为类别标记。 如果有一种方法可以在特征空间中直接计算内积,就像在原始输入点的 如果有一种方法可以在特征空间中直接计算内积, 函数中一样,那么, 函数中一样,那么,就有可能将两个步骤融合到一起建立一个非线性分类器 这样,在高维空间内实际上只需要进行内积运算, 。这样,在高维空间内实际上只需要进行内积运算,而这种内积运算是可以 利用原空间中的函数实现的,我们甚至没有必要知道变换的形式。 利用原空间中的函数实现的,我们甚至没有必要知道变换的形式。这种直接 计算的方法称为核函数方法。 计算的方法称为核函数方法。
2.2.2
联合熵和条件熵
2.2.2
联合熵和条件熵
2.2.2
联合熵和条件熵
2.2.2
联合熵和条件熵
2.2.2
联合熵和条件熵
2.2.2 联合熵和条件熵
2.2.2
联合熵和条件熵
2.2.3
互信息
2.2.3
互信息
2.2.3
互信息
2.2.4
相对熵
2.2.4
相对熵
2.2.4
相对熵
互信息实际上就是衡量一个联合分布与独立性差距多大 I ( X ;Y ) = D( p( x, y) || p( x) p( y)) 的测度: 的测度: 证明: 证明:
一个随机试验可能有多种不同的的结果,到底会出现哪一种, 一个随机试验可能有多种不同的的结果,到底会出现哪一种,存 在一定的概率,即随机会而定。简单地说, 在一定的概率,即随机会而定。简单地说,随机变量就是试验结果的 函数。 函数。 为一离散型随机变量 设X为一离散型随机变量,其全部可能的值为 {a 1 , a 2 , L}。那么 为一离散型随机变量, p i = P ( X = a i ) , i = 1,2, L 称为X的概率函数 显然, 的概率函数。 称为 的概率函数。显然, p i ≥ 0 ,∑ p = 1 有时也称为随机变量X的概率分布 此时, 的概率分布, 有时也称为随机变量 的概率分布,此时,函数 P ( X ≤ x) = F ( x) , −∞< x < ∞ 称为X的分布函数 的分布函数。 称为 的分布函数。

自然语言处理课件

自然语言处理课件

NLP-自然语言处理 NLP研究困难总结
病构
真实文本的语言现象非常复杂,不规范 例子:他非常男人。(名词不能受程度副词修饰)
NLP-自然语言处理
NLP研究困难总结
复述
在与原句表达相同的语义内容,同一种语言下的原句的替代形式
– 毛泽东出生于1893年 – 毛泽东出生在1893年 – 毛泽东诞生于1893年 – 毛泽东同志是1893年出生的 – 毛主席生于1893年 – 毛泽东生于光绪6年(虚拟的)
NLP-自然语言处理
TF-IDF结合余弦相似度做相似度分析
两个句子
• 句子A:我喜欢看电视,不喜欢看电影。 • 句子B:我不喜欢看电视,也不喜欢看电影。
分词
• 句子A:我/喜欢/看/电视,不/喜欢/看/电影。 • 句子B:我/不/喜欢/看/电视,也/不/喜欢/看/电影。
提取特征词
我,喜欢,看,电视,电影,不,也。
NLP-自然语言处理 NLP的历史
NLP的发展趋势:
基于规则
基于统计
自然语言中词的多义性很难用规则来描述,而是严重依赖于上下文, 语境,甚至是常识,基于统计理论避开了一些技术难题
NLP-自然语言处理 编程语言和自然语言
相同点:表达的都是想法
不同点: 编程语言基于人构建的一些规则,有语法规则,规则性强
NLP-自然语言处理 TF-IDF结合余弦相似度做相似度分析
计算结果:
余弦相似度计算结果区间:[-1 , 1]
NLP-自然语言处理
TF-IDF结合余弦相似度做相似度分析
总结思路: • (1)使用TF-IDF,找出两篇文章的关键词; • (2)每篇文章各取出若干个关键词(比如20个),合并成一个集合,并包含了

自然语言处理课件

自然语言处理课件

NLP-自然语言处理 NLP的历史
NLP的发展趋势:
基于规则
基于统计
自然语言中词的多义性很难用规则来描述,而是严重依赖于上下文, 语境,甚至是常识,基于统计理论避开了一些技术难题
NLP-自然语言处理 编程语言和自然语言
相同点:表达的都是想法
不同点: 编程语言基于人构建的一些规则,有语法规则,规则性强
NLP-自然语言处理 Synonyms词语近义词
NLP-自然语言处理 Synonyms短句相似度
NLP-自然语言处理 NLP研究困难总结
歧义 (ambiguity) 病构 (ill-formedness) 复述 (paraphrasing)
NLP-自然语言处理
NLP研究困难总结
歧义
[咬死猎人] 的狗 咬死 [猎人的狗]
NLP-自然语言处理 NLP实际问题(歧义)
Time flies like an arrow 怎么翻译?
time 名词:“时间” 动词:“测定、拨准”
flies 单数第三人称动词“飞” 名词复数“苍蝇”
like 动词“喜欢” 介词“像”
NLP-自然语言处理 NLP实际问题(歧义)
基于上述得出的含义分别为: ① 时间像箭一样飞驰; ② 测量那些像箭一样的苍蝇;
• 权重系数 • 逆文档频率IDF( Inverse Document Frequency基于统计): • 它的大小与一个词的常见程度成反比。 • 最小权重:是 的 在 …… • 较小权重:中国 • 较大权重:蜜蜂 养殖 蜂蜜
NLP-自然语言处理 TF-IDF
某个词对文章的重要性越高,它的TF-IDF值就越大。所以,排在最 前面的几个词,就是这篇文章的关键词。
NLP要研制表示语言能力和语言应用的模型,建立计算框架来实现这样 的语言模型,提出相应的方法来不断完善这样的模型,并根据语言模型 设计各种实用系统,以及对这些系统的评测技术。

自然语言处理NaturalLanguageProcessing(NLP)精选版演示课件.ppt

自然语言处理NaturalLanguageProcessing(NLP)精选版演示课件.ppt

2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
2020年最新
Hale Waihona Puke 2020年最新2020年最新
2020年最新
2020年最新
2020年最新
2020年最新

2024版NLP培训PPT课件

2024版NLP培训PPT课件
NLP的目标是使计算机能够理解和生成自然语言文本,实现人 机交互的智能化。
自然语言处理发展历程
1 2
3
早期阶段
以词法和句法分析为主,实现简单的文本处理和机器翻译。
统计机器学习阶段
基于大规模语料库进行统计学习,提高处理效率和准确性。
深度学习阶段
利用神经网络模型对文本进行深层次的理解和学习,实现更高 级的自然语言处理任务。
案例二
基于统计的方法进行词法分析和词性 标注。
04
句法分析与依存句法
句法分析原理及方法
基于规则的方法
通过预定义的语法规则进行句法 分析,如上下文无关文法、转换
生成语法等。
基于统计的方法
利用大规模语料库进行统计学习, 得到句法结构的概率模型,如基于 PCFG、RNN、Transformer等的 句法分析方法。
的信息。
基于统计的方法
利用机器学习算法对大 量文本数据进行学习, 自动识别和抽取关键信
息。
问答系统原理及方法
原理
01
根据用户提出的问题,在文本数据库中检索相 关信息,并生成简洁明了的回答。
基于模板的方法
02
预先定义好问题和答案的模板,通过匹配问题 模板生成相应的答案。
基于检索的方法
03
在文本数据库中检索与问题相关的文档,并从 中提取出答案。
注意力机制
用于处理序列数据的神经网络,具有 记忆功能。
03
词法分析与词性标注
词法分析原理及方法
基于规则的方法
通过预定义的词法规则对文本进行分词、词性标注等处理。
基于统计的方法
利用大规模语料库进行统计学习,得到词法分析模型。
深度学习方法
使用神经网络模型对文本进行词法分析,如RNN、LSTM等。

自然语言处理课件PPT课件

自然语言处理课件PPT课件
25
问答系统原理及实现
2024/1/26
问答系统基本流程
包括问题理解、信息检索、答案抽取和答案生成等步骤。
基于模板的问答系统
通过预定义的问题模板和答案模板,实现特定领域内的问 答。
基于知识图谱的问答系统
利用知识图谱中的实体和关系,实现更加智能化的问答。
26
典型案例分析
案例一
基于规则的信息抽取在新闻事件抽取中的 应用。
早期阶段
以词法、句法分析为主,实现简 单的文本处理和机器翻译。
2024/1/26
统计语言模型阶段
基于大规模语料库的统计方法成为 主流,实现了更准确的词性标注、 句法分析和机器翻译等任务。
深度学习阶段
深度学习技术的兴起为NLP带来了 新的突破,通过神经网络模型实现 了更复杂的文本生成、情感分析、 问答系统等任务。
2024/1/26
03
词法分析与词性标注
2024/1/26
12
词法分析原理及方法
2024/1/26
基于规则的方法
通过定义一系列词法规则,对输入的文本进行分词、词性标注等处理。这种方法需要人工 编写规则,对语言知识的依赖程度较高。
基于统计的方法
利用大规模语料库进行统计学习,自动获取词语的词性、用法等信息。常见的统计模型包 括隐马尔可夫模型(HMM)、条件随机场(CRF)等。
02
案例二
自动摘要生成系统。该系统采用了基 于深度学习的序列到序列(Seq2Seq )模型,通过对大量文本数据的学习 ,能够自动生成简洁、准确的摘要文 本。
03
案例三
智能问答机器人。该机器人集成了机 器翻译和自动摘要技术,能够自动理 解用户的问题并给出准确的回答。同 时,机器人还支持多种语言之间的翻 译和问答。

统计自然语言处理基本概念PPT课件

统计自然语言处理基本概念PPT课件
– 例如
• 连掷两次硬币
• 样本空间
– 是一个试验的全部可能出现的结果的集合 – 举例
• 连掷两次硬币
– ={HH, HT, TH, TT}, H:面朝上; T:面朝下
8
事件(Event)
• 事件
– 一个试验的一些可能结果的集合,是样本 空间的一个子集
– 举例:连掷两次硬币
• A: 至少一次面朝上 • B: 第二次面朝下 • A={HT, TH, HH}, B={HT, TT}
– Naïve Baiysian:假定各特征之间条件独立
• P(A1,A2,…,An|B)=i=1,…,nP(Ai|B)
– 避免一个错误:P(A|B,C)=P(A|B) P(A|C)
17
独立和条件独立
• 独立不意味着条件独立
– 举例:色盲和血缘关系
• A:甲是色盲 • B:乙是色盲 • C:甲和乙有血缘关系 • P(A,B)=P(A)P(B) • P(A,B|C) P(A|C)P(B|C)
统计自然语言处理基本概念
1
第一部分
整体概述
THE FIRST PART OF THE OVERALL OVERVIEW, PLEASE SUMMARIZE THE CONT Output 的系统
Output1 模型1
Output2 模型2
如果Output1总是和Ouput接近,Output2总是
• 在事件B发生的条件下事件A发生的概率
– P(A|B)=P(A,B)/P(B) – P(A|B)=(c(A,B)/T)/(c(B)/T)=c(A,B)/c(B)
• c(A)代表事件A出现的次数,c(B)同理 • T是试验总次数
– 举例:两次掷硬币问题

统计自然语言处理基础ppt课件

统计自然语言处理基础ppt课件

1
S(cj)cj(cj
si(m x,y) 1)x cjxy cj
cj ( cj 1) 为非零类似度的总数
类似度函数计算原那么
平均连通聚类
算法每次迭代都确定两个集合cu和cvS,(cu使cv) 最大;
减少计算量:
先计算:
s(cj ) x
xc j
并时这个值很容易更新;
s(c j )
,聚类合
非层级聚类
K平均算法: 是种“硬〞聚类算法; 根本思想: 〔1〕设置初始的聚类中心; 〔2〕将样本类别断定为距某聚类中心最
近的类别 〔3〕重新计算每个聚类的中心; 〔4〕反复〔2〕、〔3〕直到迭代终了。
非层级聚类
K平均算法
K平均算法
K平均算法
在自然言语处置中的一个运用: 从纽约时报语料库中挑选出20个单词,下
S(cj)的计算可以利用
类似度函数计算原那么
平均连通聚类
s ( c j ) s ( c j )
x s(c j )
x c j
xy
x c j y c j
c j ( c j 1 ) S ( c j )
x x
x c j
c j ( c j 1)S (c j ) c j
所以
, S (c j )
表是这20个词的k平均聚类的结果 〔k=5〕; 前四个类别分别对应于:government, finance, sports和research,最后一个 类别对应于姓名。 可见,词的聚类使我们更容易了解单词的 属性及它们之间的内在联络。
K平均算法
非层级聚类
K平均算法小结: 初始聚类中心点可以是随机选取的; 聚类效果取决于样本数据集合本身构造; 假设数据本身为非定义良好的数据集合时,

【精品】PPT课件 统计自然语言处理基本概念PPT文档74页

【精品】PPT课件  统计自然语言处理基本概念PPT文档74页

56、书不仅是生活,而且是现在、过 去和未 来文化 生活的 源泉。 ——库 法耶夫 57、生命不可能有两次,但许多人连一 次也不 善于度 过。— —吕凯 特 58、问渠哪得清如许,为有源头活水来 。—— 朱熹 59、我的努力求学没有得到别的好处, 只不过 是愈来 愈发觉 自己的 无知。 ——笛 卡儿

60、生活的道路一旦选定,就要勇敢地 走到底 ,决不 回头。 ——左
【精品】PPT课件 统计自然语言处理 基本概念

6、黄金时代是在我们的前面,而不在 热汤圆。

8、你可以很有个性,但某些时候请收 敛。

9、只为成功找方法,不为失败找借口 (蹩脚 的工人 总是说 工具不 好)。

10、只要下定决心克服恐惧,便几乎 能克服 任何恐 惧。因 为,请 记住, 除了在 脑海中 ,恐惧 无处藏 身。-- 戴尔. 卡耐基 。

自然语言处理.pptx

自然语言处理.pptx
含在语料库中的知识,学习到的知识体现为一系列模型参 数。 基于学习到的参数和相应的模型进行语言信息处理。
混合方法
理性方法的优、缺点
相应的语言学理论基础好 语言知识描述精确 处理效率高 知识获取困难(高级劳动) 系统鲁棒性差:不完备的规则系统将导致推理的失败 知识扩充困难,很难保证规则之间的一致性
针对用户提出的问题,给出具体的答案。
Apple效率
信息抽取(Information Extraction,IE)
基于某个主题模板,从非结构化或半结构化的自然 语言文本中提取出相关的结构化信息。
主题相关的信息获取。 对机器翻译、自动问答、数据挖掘(文本挖掘)等提供支
还原规则
通用规则:变化有规律 个性规则:变化无规律
形态还原规则举例
英语“规则动词”还原
*s -> * (SINGULAR3) *es -> * (SINGULAR3) *ies -> *y (SINGULAR3) *ing -> * (VING) *ing -> *e (VING) *ying -> *ie (VING) *??ing -> *? (VING) *ed -> * (PAST)(VEN) *ed -> *e (PAST)(VEN) *ied -> *y (PAST)(VEN) *??ed -> *? (PAST)(VEN)
自然语言处理
Natural Language Processing(NLP)
2019-6-23
谢谢你的观看
1
主要内容(1)
自然语言处理概述
什么是自然语言处理 自然语言处理的典型应用 自然语言处理的基本任务 自然语言处理的基本策略和实现方法 自然语言处理的难点 自然语言处理所涉及的学科
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
– 用于讨论和事件空间相关的数值的出现概率 – 数值也比事件更易于处理
• 举例:
– [X=0]={TT};[X=1]={TH,HT};[X=2]={HH} – X是两次掷硬币面朝上的次数
• 数值可以是连续值,也可以是离散值
17
期望(expectation)
– 举例: • 六面掷骰子问题:E(X)=3.5 – 1⋅1/6+ 2⋅1/6+3⋅1/6+4⋅1/6+5⋅1/6+6⋅1/6=3.5
• 连掷两次硬币 – Ω={HH, HT, TH, TT}, H:面朝上; T:面朝下
7
• 事件
– 一个试验的一些可能结果的集合,是样本 空间的一个子集
– 举例:连掷两次硬币 • A: 至少一次面朝上 • B: 第二次面朝下 • A={HT, TH, HH}, B={HT, TT}
8
概率(probability)
• 如果A 和B 是样本空间Ω 上的两个事件,P(B)>0, 那么在给定B 时A 的条件概率P(A|B) 为:
P(A| B) P(A,B) P(B)
• 条件概率P(A|B) 给出了在已知事件B 发生的情况下, 事件A 发生的概率。
• 一般地,P(A|B) ≠ P(A).
12
概率的乘法原理
• P(A,B)=P(A|B)×P(B)=P(B|A)×P(A)
15
全概率公式(2)
• 设A为Ω 的事件,B1, B2, … Bn 为Ω的一个划 分,且P(Bi)>0 (i=1, 2, …, n),则全概率公式 为:
n
n
P(A ) P(A ,B i) P(A|B i)P(B i)
i1
i1
16
随机变量(Random Variable)
• 随机变量是一个函数X:Ω→R。Ω是样本空间, R是实数集合
13
独立和条件独立
• 独立 P(A,B)=P(A)×P(B)⇒P(A|B)=P(A), P(B|A)=P(B)
• 条件独立 – P(A,B|C) = P(A|B,C)×P(B|C) = P(A|C)×P(B|C) ⇒P(A|B,C) = P(A|C), P(B|A,C) = P(B|C) – Naïve Bayesian:假定各特征之间条件独立
统计自然语言处理的 基础理论
1
主要内容
• 概率论基础 • 信息论基础
2
概率论基础
1. 一些基本概念 2. 贝叶斯法则 3. 几种常用的分布 4. 估计概率密度的方法
3
模型
如果Output1总是和Ouput接近,Output2总是 和Output偏离,我们就认为模型1比模型2好
4
5
模型由体系结构和参数两部分构成 –举例:住宅楼
18
方差(variance)
举例 ——考试名次
19
协方差与相关系数
• 协方差:可以衡量随机变量x与y之间的统计独立程度。 任意两个随机变量X和Y的协方差,记为Cov(X,Y), 定 义为 C o v (X ,Y ) E { [ X -E (X )][Y -E (Y ) ]} E (X Y )-E (X )E (Y ))

相关系数
– 定义:
Cov( X ,Y )
XY
– X 是随机变量X的标准差
– Y 是随机变量Y的标准差
– -1≤ρ ≤1,ρ>0正相关,ρ<0负相关,ρ=0不相关
20
联合分布和边缘分布
X和Y 的联合概率函数为
P (X x i,Yyj) p i,j i,j 1 ,2 ,
10
联合概率
• A和B两个事件的联合概率就是A和B两个事件 同时出现的概率 –A和B的联合概率表示为:P(A, B)或P(A ∩B) – 举例:连掷两次硬币
• 事件A:第一次面朝上,A={HH,HT} • 事件B:第二次面朝下,B={HT,TT} • 联合事件A ∩B={HT}
11
条件概率(conditional probability)
• Chain Rule(链式规则)
P(A1,A2,…,An)=P(A1)×P(A2|A1)×P(A3|A1,A2)× …×P(An|A1,A2,…,An-1)
• 举例1:词性标注 – P(det,adj,n)=P(det)×P(adj|det)×P(n|det,adj)
• 举例2:计算一个句子的概率 – p(w1,w2,…,wn)=p(w1)p(w2|w1)……p(wn|w1…wn-1)
P(i0 Ai) i0 P(Ai)
9
举例
• 连续三次掷硬币 – 样本空间 • Ω={HHH,HHT,HTH,HTT,THH,THT,TTH,TTT} – 事件A:恰好两次面朝下 • A={HTT,THT,TTH} – 做1000次试验,计数得386次为两次面朝下 • 估计:P(A)=386/1000=0.386 – 继续做7组试验,得:373,399,382,355,372, 406,359,共8组试验 – 计算平均值:P(A)=(0.386+0.373+…)/8=0.379,或累 计:P(A)=(386+373+…)/8000=3032/8000=0.379 – 统一的分布假设为:3/8=0.375
• P(A1,A2,…,An|B) = Πi=1,…,nP(Ai|B)
14
全概率公式(1)
• 设Ω 为实验E 的样本空间,B1, B2, … Bn 为Ω 的一 组事件,且他们两两互斥,且每次实验中至少发生 一个。即:
(1)BiBj (ij;i,j1,2,...,n)
n
(2) i
则称B1, B2, … Bn 为样本空间Ω的一个划分。
• 多层板楼 • 高层板楼 • 高层塔楼
– 参数
• 层数: • 户型:三室一厅,两室一厅,…… • 层高: • 供热方式:地热?暖气片?
6
1. 一些基本概念
• 试验
– 一个可观察结果的人工或自然的过程,其产生的结果可 能不止一个,且不能事先确定会产生什么结果 – 例如
• 连掷两次硬币
• 样本空间
– 是一个试验的全部可能出现的结果的集合 – 举例
概率是从随机实验中的事件到实数域的函数,用以表 示事件发生的可能性。如果用P(A)作为事件A的概率, Ω 是实验的样本空间,则概率函数必须满足如下公理: • 公理1:P(A) ≥0 • 公理2:P(Ω) = 1 • 公理3:如果对任意的i 和j ( i ≠ j ),事件Ai 和Aj 不相 交( Ai∩Aj=Φ),则有
相关文档
最新文档